Archivo de la etiqueta: norma

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz A es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en M_n(\mathbb{R}) siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo F, no tenemos la garantía de que las matrices simétricas en M_n(F) también lo sean.

Problema. Demuestra que la matriz simétrica con coeficientes complejos

A=\begin{pmatrix} 1 & i \\ i & -1 \end{pmatrix}

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si A fuese diagonalizable, es decir, que existe una matriz invertible P y una diagonal D tal que A=P^{-1}DP, entonces A y D tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de A: buscamos \lambda \in \mathbb{C} tal que \text{det}(\lambda I-A)=0,

    \begin{align*}\text{det}(\lambda I-A)&=\begin{vmatrix} \lambda -1 & -i \\ i & \lambda +1 \end{vmatrix} \\&=(\lambda-1)(\lambda+1)-i^2=\lambda^2 -1+1 \\&=\lambda^2=0.\end{align*}

Por lo tanto, el eigenvalor con multiplicidad 2 de A (y también el eigenvalor de D) es \lambda =0. Si D es de la forma

D=\begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix},

es fácil ver (y calcular) que sus eigenvalores son a y b, pero por lo anterior, podemos concluir que a=b=0, y por lo tanto D es la matriz cero. Si fuese así, A=P^{-1}DP=0, contradiciendo la definición de A.

\square

Problema. Sea A una matriz simétrica con entradas reales y supongamos que A^k=I para algún entero positivo k. Prueba que A^2=I.

Solución. Dado que A es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son k-raíces de la unidad, entonces deben ser \pm 1. Esto implica que todos los eigenvalores de A^2 son iguales a 1. Dado que A^2 también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto A^2=I.

\square

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio V, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

\norm{T}=\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}.

Por ende, decimos que una transformación es acotada si su norma es acotada, \norm{T}<\infty.

Problema. Sea V un espacio euclideano y sea T una transformación lineal simétrica en V. Sean \lambda_1,\ldots,\lambda_n los eigenvalores de T. Prueba que

\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}} =\max_{1\leq i\leq n} |\lambda_i|.

Solución. Renumerando a los eigenvalores, podemos decir que \max_i |\lambda_i|=|\lambda_n|. Sea e_1,\ldots,e_n una base ortonormal de V tal que T(e_i)=\lambda_i e_i para todo i. Si x\in V\setminus {0}, podemos escribirlo como x=x_1e_1+\ldots+x_n e_n para algunos reales x_i. Entonces, por linealidad de T,

T(x)=\sum_{i=1}^n \lambda_i x_ie_i.

Dado que |\lambda_i|\leq |\lambda_n| para toda i, tenemos que

\frac{\norm{T(x)}}{\norm{x}}=\sqrt{\frac{\sum_{i=1}^n \lambda_i^2 x_i^2}{\sum_{i=1}^n x_i^2}}\leq |\lambda_n|,

por lo tanto

    \begin{align*} \max_{1\leq i\leq n} |\lambda_i|&=|\lambda_n|=\frac{\norm{T(e_n)}}{\norm{e_n}}\\&\leq \sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}\\ &\leq |\lambda_n|= \max_{1\leq i\leq n} |\lambda_i|. \end{align*}

Obteniendo lo que queremos.

\square

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

A=\frac{1}{7}\begin{pmatrix} -2 & 6 & -3 \\ 6 & 3 & 2 \\ -3 & 2 & 6 \end{pmatrix}.

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

    \begin{align*}0&=\text{det}(\lambda I-A)=\begin{vmatrix} \lambda+2/7 & -6/7 & 3/7 \\ -6/7 & \lambda-3/7 & -2/7 \\ 3/7 & -2/7 & \lambda-6/7 \end{vmatrix} \\&= \lambda^3-\lambda^2-\lambda+1 \\&= (\lambda -1)(\lambda^2 -1),\end{align*}

entonces los eigenvalores de A son 1,-1, (\lambda=1 tiene multiplicidad 2).

Ahora, hay que encontrar los vectores v=(x,y,z) tal que Av=\lambda v, para todo eigenvalor \lambda.

Si \lambda=-1,

(\lambda I-A)v=\frac{1}{7}\begin{pmatrix} -5 & -6 & 3 \\ -6 & -10 & -2 \\ 3 & -2 & -13 \end{pmatrix}v=0,

reduciendo, obtenemos que v=(3\alpha, -2\alpha, \alpha) para todo \alpha\in \mathbb{R}.

Si \lambda=1, resolviendo de la misma manera (\lambda I-A)v=(I-A)v=0, tenemos que v=(\beta,\gamma,-3\beta+2\gamma) para todo \beta,\gamma. Entonces el conjunto de eigenvectores es

B=\{ v_1=(3,-2,1), \quad v_2=(1,0,-3), \quad v_3=(0,1,2) \}.

Es fácil ver que el conjunto B es linealmente independiente, más aún \text{dim}(\mathbb{R}^3)=3=|B|, por lo tanto, B es la base consistente con los eigenvectores de A.

\square

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si A es una matriz de m\times n, su transpuesta ^tA es la matriz de n\times m que se obtiene de reflejar a las entradas de A en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos A=[a_{ij}], entonces ^tA=[a_{ji}]. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y ^tA = A^{-1}. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si A es una matriz de n\times n con entradas reales y simétrica, entonces:

  • Sus eigenvalores \lambda_1,\ldots,\lambda_n (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal P de n\times n y con entradas reales tal que si tomamos a D la matriz diagonal de n\times n cuyas entradas en la diagonal principal son \lambda_1,\ldots,\lambda_n, entonces

        \[A=P^{-1}DP.\]

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si A=P^{-1}DP como en el teorema anterior, entonces

    \begin{align*}A^2&=(P^{-1}DP)(P^{-1}DP)\\&=P^{-1}DDP\\&=P^{-1}D^2P,\end{align*}

y de manera inductiva se puede probar que A^k=P^{-1}D^kP. Elevar la matriz D a la k-ésima potencia es sencillo, pues como es una matriz diagonal, su k-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la k.

Problema. Sea A una matriz de n\times n simétrica y de entradas reales. Muestra que si A^k = O_n para algún entero positivo k, entonces A=O_n.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de A. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como A es simétrica y de entradas reales, entonces sus eigenvalores \lambda_1,\ldots, \lambda_n son reales y es diagonalizable. Digamos que su diagonalización es P^{-1} D P. Tenemos que

    \[O_n = A^k = P^{-1} D^k P.\]

Multiplicando por la matriz P a la izquierda, y la matriz P^{-1} a la derecha, tenemos que D^k=O_n. Las entradas de D^k son \lambda_1^k,\ldots,\lambda_n^k, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo,

    \[\lambda_1=\ldots=\lambda_n=0.\]

Concluimos que D=O_n, y que por lo tanto A=P^{-1} O_n P = O_n.

\square

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz

    \[A=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}.\]

Calcula las primeras potencias de A a mano. Conjetura y muestra cómo es A^n en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el n-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz A obtenemos:

    \begin{align*}A&=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\\A^2&=\begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix},\\A^3&=\begin{pmatrix} 1 & 2 \\  2& 3 \end{pmatrix},\\A^4&=\begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix},\\A^5&=\begin{pmatrix} 3 & 5 \\ 5 & 8 \end{pmatrix}.\end{align*}

Al parecer, en las entradas de A van apareciendo los números de Fibonacci. Seamos más concretos. Definimos F_0=0, F_1=1 y para n\geq 0 definimos

    \[F_{n+2}=F_{n}+F_{n+1}.\]

La conjetura es que para todo entero n\geq 1, se tiene que

    \[A^n=\begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1}\end{pmatrix}.\]

Esto se puede probar por inducción. Arriba ya hicimos el caso n=1. Supongamos la conjetura cierta hasta un entero n dado, y consideremos la matriz A^{n+1}. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

    \begin{align*}A^{n+1}&=AA^n\\& =\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1} \end{pmatrix}\\&= \begin{pmatrix} F_n & F_{n+1} \\ F_{n-1} + F_n & F_n + F_{n+1} \end{pmatrix}\\&=\begin{pmatrix} F_n & F_{n+1} \\ F_{n+1} & F_{n+2} \end{pmatrix}.\end{align*}

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz A es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de A. Su polinomio característico es

    \[\begin{vmatrix} \lambda & -1 \\ - 1 & \lambda -1 \end{vmatrix}=\lambda^2-\lambda -1.\]

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de A) son

    \[\frac{1\pm \sqrt{5}}{2}.\]

Por el momento, para simplificar la notación, llamemos \alpha a la de signo más y \beta a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible P de 2\times 2 tal que

    \[A=P^{-1}\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} P.\]

De esta forma,

    \[A^n =  P^{-1}\begin{pmatrix} \alpha^n & 0 \\ 0 & \beta^n \end{pmatrix} P.\]

Aquí no es tan importante determinar concretamente P ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de \alpha^n y \beta^n y de que los coeficientes de esta combinación lineal ya no dependen de n, sino sólo de las entradas de P. En particular, la entrada superior derecha de A^n por un lado es F_n, y por otro lado es r\alpha^n + s\beta ^n.

¿Cómo obtenemos los valores de \alpha y \beta? Basta substituir n=1 y n=2 para obtener un sistema de ecuaciones en \alpha y \beta. Aquí abajo usamos que como \alpha y \beta son raíces de x^2-x-1, entonces \alpha^2=\alpha+1, \beta^2=\beta+1 y \alpha+\beta = 1.

    \[\begin{cases}1= F_1 = r \alpha + s \beta \\1= F_2 = r \alpha^2 + s \beta^2 = r + s + 1.\end{cases}\]

De aquí, obtenemos la solución

    \begin{align*}r&=\frac{1}{\alpha-\beta} = \frac{1}{\sqrt{5}}\\s&=-r = -\frac{1}{\sqrt{5}}.\end{align*}

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es

    \[F_n=\frac{\left(\frac{1+\sqrt{5}}{2}\right)^n - \left(\frac{1-\sqrt{5}}{2}\right)^n}{\sqrt{5}}.\]

\square

Matrices positivas y positivas definidas

Por definición, una matriz simétrica A de n\times n con entradas reales es positiva si para cualquier vector (columna) v en \mathbb{R}^n se tiene que

    \[^t v A v \geq 0.\]

Aquí ^tv es la transposición de v, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector v=0, entonces decimos que A es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz A=\begin{pmatrix} 1 & -1 \\ -1 & 1\end{pmatrix}, pues para cualquier vector v=(x,y) se tiene que

    \[^t v A v = x^2-2xy+y^2=(x-y)^2\geq 0.\]

Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como (1,1). Como puedes verificar, un ejemplo de matriz positiva definida es

    \[B=\begin{pmatrix} 3 & 0 \\ 0 & 4 \end{pmatrix}.\]

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en \mathbb{R}^n. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea A una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B^2 para alguna matriz simétrica B en M_n(\mathbb{R}).
  4. A= {^tC} C para alguna matriz C en M_n(\mathbb{R}).

Hay un resultado análogo para cuando se quiere determinar si una matriz A es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos 3 y 4 se necesita además que B y C sean invertibles.

Problema. Sea A una matriz de n\times n con entradas reales, simétrica y positiva. Muestra que si

    \[\text{tr}(A) = n \sqrt[n]{\det(A)},\]

entonces A conmuta con cualquier matriz de n\times n.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que A se puede diagonalizar con matrices A=P^{-1} D P, donde D es la matriz diagonal que tiene en su diagonal principal a los eigenvalores \lambda_1,\ldots,\lambda_n de A, y P^{-1} es una matriz invertible. Como A y D son similares, se tiene que

    \begin{align*}\text{tr}(A)=\text{tr}(D)=\lambda_1+\ldots+\lambda_n\\\det(A)=\det(D)=\lambda_1\cdot\ldots\cdot\lambda_n.\end{align*}

Como A es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

    \[\frac{\lambda_1+\ldots+\lambda_n}{n} \geq \sqrt[n]{\lambda_1\cdot\ldots\cdot\lambda_n}.\]

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor \lambda, y entonces D=\lambda I_n. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de n\times n, tendríamos entonces que

    \begin{align*}A&=P^{-1}D P \\&=P^{-1}(\lambda I_n) P\\&=(\lambda I_n) (P^{-1}P)\\&=\lambda I_n.\end{align*}

Con esto probamos que A es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de n\times n.

\square

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.

Seminario de Resolución de Problemas: Vectores en geometría

Introducción

Anteriormente, comenzamos esta serie de entradas de geometría platicando de algunas técnicas euclideanas o sintéticas que se pueden usar para resolver problemas en el plano. Después, tomamos herramientas de la geometría analítica, las cuales nos permiten poner problemas en términos de coordenadas y ecuaciones. Lo que haremos ahora es ver varios ejemplos del uso de vectores en geometría.

A diferencia de la geometría analítica, cuando hablamos de soluciones por vectores estamos hablando de aquellas que aprovechan la estructura de espacio vectorial en \mathbb{R}^2. En otras palabras, usamos argumentos en los cuales pensamos a los puntos del plano como vectores, los cuales tienen una dirección y una magnitud. Los vectores tienen operaciones de suma y de producto por un escalar. Además, tienen producto punto, norma y transformaciones dadas por matrices. Apenas tocaremos la superficie del tipo de teoría que se puede usar. Un buen curso de álgebra lineal te puede dar más herramientas para resolver problemas geométricos.

Interpretar puntos como vectores

Pongamos un origen O en el plano. A cada punto P le corresponden ciertas coordenadas dadas por parejas de reales (x,y), que identificaremos con P. Al origen le corresponden las coordenadas (0,0). Si tenemos otro punto Q=(w,z), entonces su suma es el vector P+Q=(x+w,y+z). Si tomamos un real r, el vector rP es el vector de coordenadas (rx,ry).

Suma de vectores
Suma de vectores

La suma P+Q se puede encontrar mediante la ley del paralelogramo: los puntos O,P,P+Q,Q hacen un paralelogramo en ese orden cíclico. La resta Q-P está definida por Q+(-1)P, y la llamamos el vector PQ. Geométricamente coincide con el vector que va «de P a Q«. Observa que el orden es importante y que OP=P.

Resta de vectores
Resta de vectores

Proposición (de la razón). Si tenemos dos puntos P y Q distintos y m,n son reales, entonces podemos encontrar al único punto R en la recta por P y Q tal que

    \[\frac{PR}{RQ}=\frac{m}{n}\]

así:

    \[R=\frac{n}{m+n}P + \frac{m}{m+n} Q.\]

Punto en una recta con cierta razón
Punto en una recta con cierta razón

Veamos dos problemas en los que se usan estas ideas de vectores en geometría, en particular, la proposición de la razón.

Problema. En el triángulo ABC se toman puntos D,E,F sobre los segmentos BC,CA,AB tales que \frac{BD}{DC}=\frac{CE}{EA}=\frac{AF}{FB}=\frac{1}{4}. Muestra que ABC y DEF tienen el mismo gravicentro.

Sugerencia pre-solución. Encuentra una fórmula en términos vectoriales para el gravicentro de un triángulo ABC.

Solución. Tomemos un triángulo PQR y pensemos a sus vértices como vectores. Afirmamos que su gravicentro X es el punto correspondiente a \frac{P+Q+R}{3} Demostraremos esto.

El gravicentro está a un tercio del punto medio hacia el vértice correspondiente
Razón del gravicentro en la mediana

Primero haremos un argumento de geometría sintética. El gravicentro es por definición el punto de intersección de las medianas de un triángulo. Si L es el punto medio de QR y M es el punto medio de RP, entonces X es el punto de intersección de PL y QM. Tenemos que

    \[\frac{RL}{LQ}=1=\frac{RM}{MP},\]

así que por el teorema de Tales se tiene que la recta por L y M es paralela al lado PQ, y \frac{LM}{PQ}=\frac{1}{2}. Esto muestra que los triángulos XLM y XPQ son semejantes en razón 1 a 2. Por lo tanto, \frac{LX}{XP}=\frac{1}{2}.

Ahora hagamos el argumento vectorial, pensando a los puntos como vectores. El punto L está a la mitad de QR, así que por la proposición de la razón,

    \[L=\frac{Q+R}{2}.\]

El punto X cumple \frac{LX}{XP}=\frac{1}{2}, así que de nuevo por la proposición de la razón.

    \begin{align*}X&=\frac{2L+P}{2+1}\\&=\frac{Q+R+P}{3}\\&=\frac{P+Q+R}{3}.\end{align*}

Esto es el resultado auxiliar que queríamos mostrar. Regresemos al problema.

De acuerdo al resultado auxiliar, el gravicentro de ABC es

    \[G:=\frac{A+B+C}{3}.\]

Usando una vez más la proposición de la razón, los puntos D, E y F los podemos calcular como sigue:

    \begin{align*}D&=\frac{4B+C}{4+1}=\frac{4B+C}{5}\\E&=\frac{4C+A}{4+1}=\frac{4C+A}{5}\\F&=\frac{4A+B}{4+1}=\frac{4A+B}{5}.\end{align*}

De esta forma, el gravicentro G' de DEF lo podemos encontrar como sigue:

    \begin{align*}G'&=\frac{D+E+F}{3}\\&=\frac{\frac{4B+C}{5}+\frac{4C+A}{5}+\frac{4A+B}{5}}{3}\\&=\frac{A+B+C}{3}\\&=G.\end{align*}

Esto termina la solución del problema.

\square

Problema. En el paralelogramo ABCD el punto F es el punto medio de CD. Muestra que el segmento AF corta a la diagonal BD en un punto E tal que \frac{DE}{DB}=\frac{1}{3}.

Sugerencia pre-solución. Hay varias formas de hacer las cuentas en este problema, pero el uso de una notación adecuada te hará simplificar muchas operaciones.

Solución. Pensemos a los puntos de la figura como vectores. Coloquemos al punto A en el origen. El punto C está dado por B+D, de modo que

    \[F:=\frac{C+D}{2}=\frac{B+2D}{2}.\]

Vectores en geometría: problema de paralelogramo
Figura auxiliar para problema de paralelogramo

Para encontrar al punto E, notemos que está en las rectas AF y BD. De esta forma, deben existir reales r y s tales que

    \[E=rF\]

y

    \[E=sB+(1-s)D.\]

Expresando F en términos de B y D en la primer ecuación, tenemos que

    \[E=\frac{rB+2rD}{2}=\frac{rB}{2}+rD.\]

De ambas expresiones para E, concluimos que

    \begin{align*}s=\frac{r}{2}\\1-s=r.\end{align*}

Este sistema de ecuaciones tiene solución r=\frac{2}{3}, s=\frac{1}{3}, y por lo tanto E=\frac{B+2D}{3}. De aquí se obtiene \frac{DE}{EB}=\frac{1}{2}, o bien \frac{DE}{DB}=\frac{DE}{DE+EB}=\frac{1}{3}, como queríamos mostrar.

\square

Producto punto, norma y ángulos

Para dos vectores P=(x,y) y Q=(w,z) definimos su producto punto como la cantidad P\cdot Q = xw+yz. El productos puntos es:

  • Conmutativo: P\cdot Q = Q\cdot P
  • Abre sumas: P\cdot (Q+R)=P\cdot Q + P\cdot R
  • Saca escalares: (rP)\cdot Q = r(P\cdot Q).

La norma de P se define como \norm{P}=\sqrt{P\cdot P}, y coincide con la distancia de P al origen. La norma de PQ es entonces \norm{PQ}=\sqrt{(Q-P)\cdot (Q-P)} y coincide con la distancia de P a Q.

El ángulo entre dos vectores PQ y RS se define como el ángulo cuyo coseno es

    \[\frac{PQ \cdot RS}{\norm{PQ}\norm{RS}},\]

y coincide precisamente con el ángulo (orientado) geométrico entre las rectas PQ y RS. De esta forma, las rectas PQ y RS son perpendiculares si y sólo si el producto punto PQ\cdot RS es cero.

Problema. Sea ABC un triángulo con sus vértices pensados como vectores. Sean H y O su ortocentro y circuncentro respectivamente. Supongamos que el circuncentro O está en el origen. Muestra que H=A+B+C.

Sugerencia pre-solución. Trabaja hacia atrás. Define al punto A+B+C y ve que las rectas que unen a los vértices con este punto en efecto son alturas. Para calcular los ángulos, usa el producto punto y sus propiedades.

Solución. Como el circuncentro equidista de A. B y C, tenemos que

    \[\norm{A}=\norm{B}=\norm{C}.\]

Tomemos el punto H'=A+B+C.

Vectores en geometría para encontrar el ortocentro
Ortocentro con vectores

Calculemos el ángulo entre las rectas BC y AH', haciendo su producto punto:

(1)   \begin{align*}BC\cdot AH' &= (C-B)\cdot (H'-A)\\&=(C-B)\cdot(C+B)\\&=C\cdot C + C\cdot B - B\cdot C - B\cdot B\\&=\norm{C}^2 - \norm{B}^2\\&=0.\end{align**}

Observa que estamos usando la linealidad y conmutatividad del producto punto. Al final usamos que A y C tienen la misma norma.

Esto muestra que la recta AH' es la altura al lado BC. De manera análoga, BH' y CH' son las alturas a los lados CA y AB respectivamente. Por lo tanto, H' es el ortocentro, así que H=A+B+C.

\square

Cualquier triángulo ABC en el plano se puede trasladar para que su circuncentro O quede en el origen. El ortocentro estará en H=A+B+C y el gravicentro, como vimos antes, en G=\frac{A+B+C}{3}, que es un múltiplo escalar de H. Por lo tanto, O, H y G están alineados. Acabamos de demostrar con vectores en geometría un clásico resultado euclideano.

Teorema (recta de Euler). En cualquier triángulo ABC, el circuncentro O, el gravicentro G y el ortocentro H están alineados. Además,

    \[\frac{OG}{GH}=\frac{1}{2}.\]

Teorema de la recta de Euler
Teorema de la recta de Euler

Si el circuncentro no está en el origen, ahora podemos usar el teorema de la recta de Euler y la proposición de la razón para concluir que G=\frac{2O+H}{3}. Usando que G=\frac{A+B+C}{3}, obtenemos el siguiente corolario

Corolario. Sea ABC un triángulo en el plano, H su ortocentro y O su circuncentro. Entonces al pensar a los puntos como vectores tenemos que

    \[A+B+C=2O+H.\]

Más problemas

Puedes encontrar más problemas del uso de vectores en geometría en la sección 8.3 del libro Problem Solving through Problems de Loren Larson.

Álgebra Lineal I: Aplicaciones de bases ortogonales y descomposición de Fourier

Introducción

En esta entrada continuamos hablando de bases ortogonales. Como recordatorio, para poder hablar de esto, necesitamos un espacio vectorial sobre \mathbb{R} equipado con un producto interior, y por lo tanto podemos hablar de normas. Una base ortogonal de V es una base en la cual cada par de vectores tiene producto interior 0. Es ortonormal si además cada elemento es de norma 1. Ahora veremos que dada una base ortonormal, podemos hacer una descomposición de Fourier de los vectores de V, que nos permite conocer varias de sus propiedades fácilmente.

La teoría que discutiremos está basada en el contenido de la Sección 10.5 del libro Essential Lineal Algebra with Applications de Titu Andreescu. Las últimas dos secciones de esta entrada son un poco abstractas, pero son la puerta a ideas matemáticas interesantes con muchas aplicaciones dentro de la matemática misma y en el mundo real.

Descomposición de Fourier

Es fácil conocer las coordenadas de un vector en términos de una base ortonormal.

Teorema. Si V es un espacio Euclideano de dimensión n con producto interior \langle\cdot, \cdot\rangle y B=\{e_1,\ldots,e_n\} es una base ortonormal con este producto interior, entonces para cualquier vector v, la coordenada de v con respecto a e_i es \langle v, e_i \rangle.

Demostración. Expresemos a v en la base B como

    \[v=\alpha_1e_1+\ldots+\alpha_n e_n.\]

Tomemos j en 1,2,\ldots,n. Usando la linealidad del producto interior, tenemos que

    \begin{align*}\langle v, e_j \rangle &= \left \langle \sum_{i=1}^n \alpha_i e_i, e_j \right \rangle\\&=\sum_{i=1}^n \alpha_i \langle e_i,e_j \rangle.\end{align*}

Como B es base ortonormal, tenemos que en el lado derecho \langle e_j,e_j\rangle = 1 y que si i\neq j entonces \langle e_i, e_j\rangle=0. De esta forma, el lado derecho de la expresión es \alpha_j, de donde concluimos que

    \[\langle v, e_j \rangle = \alpha_j,\]

como queríamos.

\square

Definición. Si V es un espacio Euclideano de dimensión n con producto interior \langle\cdot, \cdot\rangle y B=\{e_1,\ldots,e_n\} es una base ortonormal, a

    \[v=\sum_{i=1}^n \langle v, e_i \rangle e_i\]

le llamamos la descomposición de Fourier de v con respecto a B.

Ejemplo. Trabajemos en el espacio vectorial V=\mathbb{R}_2[x] de polinomios reales de grado a lo más 2. Ya mostramos anteriormente (con más generalidad) que

    \[\langle p,q \rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1)\]

es un producto interior en V.

Los polinomios \frac{1}{\sqrt{3}}, \frac{x}{\sqrt{2}} y \frac{3x^2-2}{\sqrt{6}} forman una base ortonormal, lo cual se puede verificar haciendo las operaciones y queda de tarea moral. ¿Cómo expresaríamos a la base canónica \{1,x,x^2\} en términos de esta base ortonormal? Los primeros dos son sencillos:

(1)   \begin{align*}1&=\sqrt{3}\cdot \frac{1}{\sqrt{3}}\\x&=\sqrt{2}\cdot \frac{x}{\sqrt{2}}. \end{align*}

Para encontrar el tercero, usamos el teorema de descomposición de Fourier. Para ello, calculamos los siguientes productos interiores:

    \begin{align*}\left\langle x^2, \frac{1}{\sqrt{3}}\right\rangle &= \frac{2}{\sqrt{3}},\\\left \langle x^2, \frac{x}{\sqrt{2}}\right\rangle &=0,\\\left\langle x^2, \frac{3x^2-2}{\sqrt{6}} \right\rangle &=\frac{2}{\sqrt{6}}.\end{align*}

De este modo,

    \[x^2= \frac{2}{\sqrt{3}} \cdot \frac{1}{\sqrt{3}} + \frac{2}{\sqrt{6}}\cdot \frac{3x^2-2}{\sqrt{6}}.\]

\square

Norma usando la descomposición de Fourier

Cuando tenemos bases ortogonales u ortonormales, también podemos calcular la norma de un vector fácilmente.

Teorema. Si V es un espacio Euclideano de dimensión n con producto interior \langle\cdot, \cdot\rangle y B=\{e_1,\ldots,e_n\} es una base ortogonal con este producto interior, entonces para cualquier vector

    \[v=\alpha_1e_1+\ldots+\alpha_ne_n,\]

tenemos que

    \[\norm{v}^2 = \sum_{i=1}^n \alpha_i^2 \norm{e_i}^2.\]

En particular, si B es una base ortonormal, entonces

    \[\norm{v}^2 = \sum_{i=1}^n \langle v, e_i \rangle^2.\]

Demostración. Usando la definición de norma y la bilinealidad del producto interior, tenemos que

    \begin{align*}\norm{v}^2 &= \langle v,v \rangle\\&=\sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j \langle e_i, e_j\rangle.\end{align*}

Como B es base ortogonal, los únicos sumandos que quedan a la derecha son aquellos en los que i=j, es decir,

    \begin{align*}\norm{v}^2&=\sum_{i=1}^n \alpha_i^2 \langle e_i, e_i\rangle\\&=\sum_{i=1}^n \alpha_i^2 \norm{e_i}^2\\\end{align*}

como queríamos mostrar.

Si B es base ortonormal, cada \norm{e_i}^2 es 1, y por el teorema anterior, \alpha_i=\langle v, e_i\rangle. Esto prueba la última afirmación.

\square

Ejemplo. Continuando con el ejemplo anterior, como ya escribimos a x^2 en términos de la base ortogonal, podemos encontrar fácilmente su norma. Tendríamos que

    \begin{align*}\norm{x^2}^2&=\left(\frac{2}{\sqrt{3}}\right)^2+\left(\frac{2}{\sqrt{6}}\right)^2\\&=\frac{4}{3}+\frac{4}{6}\\&=2.\end{align*}

De esta forma, \norm{x^2}=\sqrt{2}. En efecto, esto es lo que obtendríamos si hubiéramos calculado la norma de x^2 con la definición.

\square

Aplicación de descomposición de Fourier a polinomios

Vamos a continuar con un ejemplo que vimos en la entrada anterior. Recordemos que estábamos trabajando en V=\mathbb{R}_n[x], que habíamos elegido n+1 reales distintos x_0,\ldots,x_n, y que a partir de ellos definimos

    \[\langle P, Q\rangle = \sum_{i=0}^n P(x_i)Q(x_i).\]

Mostramos que \langle \cdot , \cdot \rangle es un producto interior y que para j=0,\ldots,n los polinomios

    \[L_i=\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}\]

forman una base ortonormal de V.

Por el teorema de descomposición de Fourier, tenemos que cualquier polinomio P de grado a lo más n+1 con coeficientes reales satisface que

    \[P=\sum_{i=0}^n \langle P, L_i \rangle L_i,\]

lo cual en otras palabras podemos escribir como sigue.

Teorema (de interpolación de Lagrange). Para P un polinomio con coeficientes en los reales de grado a lo más n y x_0,x_1,\ldots,x_n reales distintos, tenemos que

    \[P(x)=\sum_{i=0}^n P(x_i) \left(\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}\right).\]

El teorema de interpolación de Lagrange nos permite decir cuánto vale un polinomio de grado n en cualquier real x conociendo sus valores en n+1 reales distintos. Ya habíamos mostrado este teorema antes con teoría de dualidad. Esta es una demostración alternativa con teoría de bases ortogonales y descomposición de Fourier.

Aplicación de ideas de Fourier en funciones periódicas

También ya habíamos visto que

    \[\langle f,g \rangle = \int_{-\pi}^\pi f(x)g(x)\, dx\]

define un producto interior en el espacio vectorial V de funciones f:\mathbb{R}\to \mathbb{R} continuas y periódicas de periodo 2\pi.

En ese ejemplo, definimos

    \begin{align*}C_n(x)&=\frac{\cos(nx)}{\sqrt{\pi}}\\S_n(x)&=\frac{\sin(nx)}{\sqrt{\pi}}.\end{align*}

y C_0(x)=\frac{1}{\sqrt{2\pi}}, y mostramos que

    \[\mathcal{F}:=\{C_n:n\geq 0\}\cup \{S_n:n\geq 1\}\]

era un conjunto ortonormal.

No se puede mostrar que \mathcal{F} sea una base ortonormal, pues el espacio V es de dimensión infinita, y es bastante más complicado que los espacios de dimensión finita. Sin embargo, la teoría de Fourier se dedica a ver que, por ejemplo, la familia \mathcal{F} es buena aproximando a elementos de V, es decir a funciones continuas y periódicas de periodo 2\pi. No profundizaremos mucho en esto, pero daremos algunos resultados como invitación al área.

Para empezar, restringimos a la familia \mathcal{F} a una familia más pequeña:

    \[\mathcal{F}_n:=\{C_m:0\leq m \leq n\}\cup \{S_m:1\leq m \leq n\}\]

Motivados en la descomposición de Fourier para espacios Euclideanos, definimos a la n-ésima serie parcial de Fourier de una función f en V a la expresión

    \[S_n(f)=\sum_{g\in \mathcal{F}_n} \langle f, g \rangle g.\]

Haciendo las cuentas, se puede mostrar que

    \[S_n(f)=\frac{a_0(f)}{2}+\sum_{k=1}^n \left(a_k(f)\cos(kx)+b_k(f)\sin(kx)\right),\]

en donde para k\geq 1 tenemos

    \[a_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\cos(kx)\, dx\]

y

    \[b_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\sin(kx)\, dx.\]

A los números a_k y b_k se les conoce como los k-ésimos coeficientes de Fourier. Aunque \mathcal{F} no sea una base para V, sí es buena «aproximando» a elementos de V. Por ejemplo, un resultado lindo de Dirichlet dice que si f y su derivada son continuas, entonces

    \[\lim_{n\to \infty} S_n(f)(x) = f(x).\]

Este tipo de teoremas de aproximación se estudian con más a detalle en un curso de análisis matemático avanzado o de análisis de Fourier.

Considera ahora W_n el subespacio de V generado por \mathcal{F}_n. Tomemos una función f cualquiera en V. La n-ésima serie de Fourier de f es un elemento de W_n. De hecho, es precisamente la proyección de f en W_n. Por esta razón,

    \[\norm{f_n}^2\leq \norm{f}^2<\infty\]

Podemos calcular la norma de f_n, usando el resultado para espacios Euclideanos en el espacio (de dimensión finita) W_n. Haciendo esto, podemos reescribir la desigualdad anterior como sigue:

    \[\frac{a_0(f)^2}{2}+\sum_{k=1}^n(a_k(f)^2+b_k(f)^2)\leq \frac{1}{\pi} \norm{f}^2.\]

El lado derecho es constante, y en el lado izquierdo tenemos una suma parcial de la serie

    \[\sum_{k\geq 1}(a_k(f)^2+b_k(f)^2).\]

Los términos son positivos y la sucesión de sumas parciales es acotada, así que la serie converge. Entonces, necesariamente la sucesión de términos debe converger a cero. Acabamos de esbozar la demostración del siguiente teorema.

Teorema (de Riemann-Lebesgue). Sea f una función continua y de periodo 2\pi. Si a_n(f) y b_n(f) son los coeficientes de Fourier de f, entonces

    \[\lim_{n\to \infty} a_n(f) = \lim_{n\to \infty} b_n(f) = 0.\]

De hecho, se puede mostrar que la desigualdad que mostramos se convierte en igualdad cuando n\to \infty. Este es un resultado bello, profundo y cuya demostración queda fuera del alcance de estas notas.

Teorema (de Plancherel). Sea f una función continua y de periodo 2\pi. Si a_n(f) y b_n(f) son los coeficientes de Fourier de f, entonces

    \[\frac{a_0(f)^2}{2}+\sum_{k=1}^\infty(a_k(f)^2+b_k(f)^2)= \frac{1}{\pi} \int_{-\pi}^\pi f(x)^2\, dx.\]

Aunque no daremos la demostración de este resultado, en una entrada posterior veremos cómo podemos aplicarlo.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que los tres polinomios del ejemplo de descomposición de Fourier en efecto forman una base ortogonal.
  • Calcula la norma de x^2 con el producto interior del ejemplo de descomposición de Fourier usando la definición, y verifica que en efecto es \sqrt{2}.
  • Con la misma base ortonormal B de ese ejemplo, calcula las coordenadas y la norma del polinomio 1+x+x^2.
  • Verifica que todo lo que mencionamos se cumple con el producto punto en \mathbb{R}^n y con la base canónica.

Álgebra Superior II: Raíces en los complejos

Introducción

En esta entrada veremos cómo resolver en \mathbb{C} la ecuación w^n=z, en donde z es un complejo y n es un entero positivo. Puedes pensar esto como que aprenderemos a obtener raíces en los complejos, pero sólo para n entero. Más adelante hablaremos de la función exponencial compleja, que nos permitirá elevar a otro tipo de exponentes.

Nuestra herramienta principal será la fórmula de De Moivre, que demostramos en una entrada anterior. Encontrar raíces n-ésimas es una herramienta más en nuestra caja para trabajar con números complejos, que hasta el momento ya incluye resolver ecuaciones cuadráticas complejas y sistemas de ecuaciones lineales complejos.

Introducción a raíces en los complejos

Pensemos en un ejemplo sencillo. ¿Cuáles son los complejos w tales que w^4=1? En \mathbb{R} tenemos dos de ellos: 1 y -1. Como

    \[(-i)^4=i^4=(-1)^2=1,\]

en \mathbb{C} tenemos otras dos soluciones: i y -i. Así, hasta ahora tenemos 4 soluciones en \mathbb{C}: 1, -1, i y -i.

Para mostrar que son las únicas en este sencillo caso, podemos hacer lo siguiente. Expresamos 1 en forma polar 1=\cis(0). Expresamos en forma polar una solución w=s\cis(\alpha), con \theta en [0,2\pi). Por el teorema de De Moivre, tenemos que

    \[1=w^4=s^4\cis(4\alpha).\]

Así, la norma s de w debe satisfacer s^4=1, y además \cis(4\alpha) debe ser 1, por lo que 4\alpha debe ser un múltiplo entero de 2\pi. La norma es un real positivo, así que la única solución para s es 1. Ahora, ¿cuántos argumentos \alpha en [0,2\pi) hacen que 4\alpha sea un múltiplo entero de 2\pi?

Para determinar eso, notemos que 4\alpha está en [0,8\pi), y ahí hay exactamente cuatro múltiplos enteros de 2\pi, que son

    \[0,2\pi, 4\pi, 6\pi.\]

Esto es justo lo que limita las soluciones a que sean a lo más 4.

Podemos continuar para verificar que en efecto son las soluciones que ya encontramos. Las soluciones para \alpha en cada caso son

    \[0,\frac{\pi}{2},\pi,\frac{3\pi}{2}.\]

Concluimos entonces que las soluciones complejas a w^4=1 son, en forma polar,

    \begin{align*}w_1&=\cis(0)\\w_2&=\cis\left(\frac{\pi}{2}\right)\\w_3&=\cis\left(\pi\right)\\w_4&=\cis\left(\frac{3\pi}{2}\right),\end{align*}

que son exactamente 1,i,-1,-i.

El teorema de raíces en los complejos

La discusión anterior funciona en general, para cualquier entero positivo n y para cualquier complejo \mathbb{C}. Siempre tenemos exactamente n soluciones, y sabemos cómo se ven en forma polar.

Teorema. Sea z=r\cis(\theta) un número complejo no cero dado en forma polar y n un entero positivo. Existen exactamente n elementos distintos de \mathbb{C} tales que w^n = z. Están dados en forma polar por

    \[w_j=r^{1/n} \cis\left(\frac{\theta}{n} + j\frac{2\pi}{n}\right)\]

para j=0,1,2\ldots,n-1.

Demostración. Tomemos una solución w y la escribimos en forma polar w=s\cis(\alpha), con \alpha en [0,2\pi). Usando que w es solución y la fórmula de De Moivre, obtenemos que

    \[r\cis(\theta)=s^n\cis(n\alpha).\]

Como s tiene que ser real positivo, obtenemos que s=r^{1/n} (aquí estamos usando la raíz n-ésima en los reales).

El ángulo n\alpha está en el intervalo [0,2n\pi), y debe diferir en un múltiplo entero de 2\pi del ángulo \theta. Como \theta está en [0,2\pi), las únicas posibilidades para n\alpha pueden ser los n valores

    \[\theta, \theta+2\pi,\ldots, \theta+2(n-1)\pi,\]

de donde las soluciones para \alpha son

    \[\frac{\theta}{n},\frac{\theta}{n}+\frac{2\pi}{n}, \ldots, \frac{\theta}{n} + (n-1)\frac{2\pi}{n},\]

respectivamente. Como son ángulos distintos en [0,2\pi), obtenemos las posibles soluciones distintas

    \[r^{1/n} \cis\left(\frac{\theta}{n} + j\frac{2\pi}{n}\right)\quad \text{para $j=0,\ldots,n-1$}.\]

Verificar que en efecto son soluciones es sencillo, ya sea revirtiendo los pasos que hicimos, o usando directamente la fórmula de De Moivre. Esta verificación queda como tarea moral.

\square

Observa que el teorema dice que para obtener una raíz podemos empezar del complejo de norma r^{1/n} y argumento \frac{\theta}{n}, y de ahí obtener el resto de las raíces en los complejos «rotando repetidamente \frac{2\pi}{n} en el plano complejo». Esto muestra que las raíces forman los vértices de un n-ágono regular.

Nos costó un poco de trabajo mostrar que teníamos a lo más n soluciones. En realidad, cualquier ecuación polinomial de grado n, es decir, de la forma

    \[a_nx^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0=0\]

tiene a lo más n soluciones. Esto lo veremos en toda su generalidad en la última unidad, cuando hablemos de polinomios.

Ejemplos de obtener raíces en los complejos

Ejemplo. Encontremos todas las raíces séptimas del complejo 128\cis\left(\frac{14\pi}{13}\right). Para empezar, notamos que 128^{1/7}=2, de modo que todas las raíces tienen norma 2.

Una de las raíces tiene argumento \frac{14\pi}{7\cdot 13}=\frac{2\pi}{13}, y el argumento del resto difiere en múltiplos enteros de \frac{2\pi}{7}. De esta forma, las raíces son

    \begin{align*}w_1&=2\cis\left(\frac{2\pi}{13}\right)\\w_2&=2\cis\left(\frac{2\pi}{13}+\frac{2\pi}{7}\right)=2\cis\left(\frac{40\pi}{91}\right)\\w_3&=2\cis\left(\frac{2\pi}{13}+\frac{4\pi}{7}\right)=2\cis\left(\frac{66\pi}{91}\right)\\w_4&=2\cis\left(\frac{2\pi}{13}+\frac{6\pi}{7})\right=2\cis\left(\frac{92\pi}{91}\right)\\w_5&=2\cis\left(\frac{2\pi}{13}+\frac{8\pi}{7}\right)=2\cis\left(\frac{118\pi}{91}\right)\\w_6&=2\cis\left(\frac{2\pi}{13}+\frac{10\pi}{7}\right)=2\cis\left(\frac{144\pi}{91}\right)\\w_7&=2\cis\left(\frac{2\pi}{13}+\frac{12\pi}{7}\right)=2\cis\left(\frac{170\pi}{91}\right).\end{align*}

\square

Problema. Sabemos que (2-3i)^4=-119+120i. Encuentra las otras raíces cuartas de -119+120i.

Solución. Podríamos pasar -119+120i a forma polar y usar el método anterior. Esto funciona y dará una solución. Pero veamos una solución alternativa más corta, que nos ayuda a entender mejor el teorema de raíces en los complejos.

De acuerdo con lo que probamos, las raíces varían únicamente en argumento, al que se le va sumando \frac{\pi}{2}. Es decir, si tenemos una raíz en el plano complejo, las demás se obtienen de ir rotando \frac{\pi}{2} (recuerda que esto es 90^\circ) desde el origen. Al ir rotando el punto (2,-3) en el plano complejo en este ángulo, obtenemos los puntos (-3,-2), (-2,3) y (3,2), de modo que las otras tres raíces son -3-2i, -2+3i y 3+2i.

Otra forma más de pensarlo es la siguiente. Si ya tenemos una raíz cuarta w de un complejo z, entonces todas las raíces se obtienen multplicando por 1,i,-1, -i. En efecto, por ejemplo,

    \[(iw)^4=i^4w^4=w^4=1.\]

Así, para el problema que nos interesa, las soluciones son

    \begin{align*}w_1&=2-3i\\w_2&=i(2-3i)=3+2i\\w_3&=-(2-3i)=-2+3i\\w_4&=-i(2-3i)=-3-2i,\end{align*}


lo cual coincide con lo que habíamos encontrado antes.

\square

Raíces n-ésimas de la unidad

Un caso particular importante de la teoría desarrollada en la sección anterior es cuando z es 1. Sea n un entero positivo. A un complejo w tal que w^n=1 se le conoce como una raíz n-ésima de la unidad.

Teorema (de las raíces n-ésimas de la unidad). Sea n un entero positivo. Existen exactamente n raíces n-ésimas de la unidad distintas. Si \omega es la que tiene el menor argumento positivo, entonces dichas raíces son

    \[1,\omega, \omega^2,\ldots, \omega^{n-1}.\]

La demostración se sigue fácilmente del teorema de raíces n-ésimas, y queda como tarea moral. Cualquier raíz n-ésima \omega tal que sus primeras potencias generen todas las raíces n-ésimas de la unidad se le conoce como una raíz primitiva.

Las raíces n-ésimas de la unidad tienen una interpretación geométrica bonita. Forman los vértices del n-ágono regular con n vértices, sobre la circunferencia unitaria, y donde uno de los vértices es 1.

Ejemplo. Obtengamos las raíces quintas de la unidad. Primero, obtengamos la de menor argumento positivo, que por el teorema de raíces en los complejos, es

    \[\omega = \cis\left(\frac{2\pi}{5}\right).\]

El resto de las raíces son entonces \omega^2, \omega^3, \omega^4 y 1. Las podemos encontrar en el plano complejo como vértices del siguiente pentágono regular:

Ejemplo de raíces en los complejos: raíces quintas de la unidad
Raíces quintas de la unidad

Cualquiera de \omega, \omega^2, \omega^3 y \omega^4 son raíces primitivas, pero 1 no es raíz primitiva pues sus potentcias sólo son él mismo.

\square

Las raíces n-ésimas de la unidad se utilizan en muchos contextos. Aunque se puede trabajar con ellas de forma explícita, muchas veces se utilizan sólo las propiedades algebraicas que cumplen. A continuación enunciamos algunas.

Teorema. Sea \omega una raíz primitva n-ésima de la unidad. Las raíces n-ésimas de la unidad

    \[\omega_i = \omega^i\]

para i=0,\ldots,n-1 satisfacen las siguientes propiedades:

  • Para n>1, se tiene que \omega_0+\ldots+\omega_{n-1}=0.
  • Para k=0,1,\ldots,n-1, se tiene que

        \[(\omega_k)^{-1}=\overline{\omega_k}=\omega_{n-k}.\]

  • Se tiene que \omega_0\cdot\ldots\cdot \omega_{n-1} = (-1)^{n+1}.

Demostración. Empezamos con el primer inciso. Si n>1, tenemos que 1 no es raíz primitiva, así que para el primer inciso sabemos que \omega\neq 1. Usamos la fórmula para suma de términos en una progresión geométrica:

    \begin{align*}\omega_0+\omega_1&+\ldots+\omega_{n-1}\\&= 1+\omega+\ldots+\omega^{n-1}\\&=\frac{1-\omega^n}{1-\omega}\\&=\frac{1-1}{1-\omega}\\&=0.\end{align*}

Para la segunda parte, notemos que

    \[\omega_k\omega_{n-k}=\omega^k\omega^{n-k}=\omega^n=1,\]

lo cual prueba una de las igualdades. La otra igualdad se sigue del hecho general que el inverso de un complejo de norma 1 es su conjugado, cuya demostración queda como tarea moral.

La tercera parte se sigue de la propiedad anterior. Al multiplicar todas las raíces de la unidad, podemos emparejar a cada raíz con su conjugado para obtener producto 1. Las únicas excepciones es cuando emparejamos a un complejo consigo mismo, es decir, para cuando \omega_k=\overline{\omega_k}, lo cual sucede sólo cuando \omega_k es real. Las únicas posibilidades son 1 ó -1. El 1 no tiene problema pues colabora con un factor 1. Si n es impar, -1 no es raíz n-ésima, así que no contribuye al producto. Si n es par sí. Esto muestra lo que queremos pues (-1)^{n+1} es 1 si n es impar y -1 si es par.

\square

Para un entero positivo n, llamemos (U_n,\cdot) al conjunto de raíces n-ésimas de la unidad equipadas con el producto complejo.

Teorema. Para cada entero positivo n, se tiene que (U_n,\cdot) es un grupo y es isomorfo a (\mathbb{Z}_n,+).

Demostración. El producto de cualesquiera dos raíces n-ésimas es también una raíz n-ésima. Por el teorema anterior, los inversos multiplicativos de las raíces n-ésimas también son raíces n-ésimas. Esto basta para mostrar que se forma un grupo.

Para la segunda parte, notamos que ambos grupos son el grupo cíclico de n elementos. Una correspondencia entre ellos está dada por mandar [1]_n a cualquier raíz primitiva.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra las raíces cúbicas de 8-8i y dibújalas en el plano complejo.
  • Verifica que las soluciones obtenidas en el teorema de raíces n-ésimas en efecto son soluciones.
  • Muestra el teorema de las raíces n-ésimas de la unidad.
  • Prueba que si z es un complejo de norma 1, entonces su inverso es su conjugado.
  • Sea \omega una raíz n-ésima primitiva de la unidad. Muestra que w^k es una raíz primitiva si y sólo si n y k son primos relativos, es decir, \MCD{n,k}=1. Sugerencia: Usa lo que sabemos de soluciones a ecuaciones diofantinas lineales.
  • Encuentra de manera explícita la parte real y la parte imaginaria de todas las raíces quintas de la unidad.
    Sugerencia: La ecuación w^5-1=0 se puede factorizar como

        \[(w-1)(w^4+w^3+w^2+w+1)\]

    y w^4+w^3+w^2+w+1 se puede factorizar como

        \[\left(w^2+\frac{1+\sqrt{5}}{2}w+1\right)\left(w^2+\frac{1-\sqrt{5}}{2}w+1\right).\]

    Usa lo que sabemos de resolver ecuaciones cuadráticas cojmplejas.