Archivo del Autor: Leo

Leo

Acerca de Leo

Hola. Soy Leonardo Martínez. Soy Profesor de Tiempo Completo en la Facultad de Ciencias de la UNAM. Hice un doctorado en Matemáticas en la UNAM, un postdoc en Israel y uno en Francia. Además, me gusta colaborar con proyectos de difusión de las matemáticas como la Olimpiada Mexicana de Matemáticas.

Seis herramientas fundamentales para concursos matemáticos en tiempos de pandemia

La Olimpiada Mexicana de Matemáticas (OMM) se organiza en varios niveles: estatal, nacional y participación en concursos internacionales. Los estudiantes comienzan con la etapa estatal, en donde realizan varios exámenes y además se les prepara mediante entrenamientos. Después de repetir esto algunas veces, algunos estudiantes son elegidos para ir al Concurso Nacional de la OMM, para el cual se preparan adicionalmente.

A grandes rasgos, la forma en la que se organiza una olimpiada estatal se ve así:

En la parte de arriba se ve el flujo de los estudiantes. En la parte de abajo se ven varias actividades que realizan los comités estatales.

En esta época de la pandemia de COVID19, es muy importante encontrar alternativas para realizar muchas de estas actividades de manera digital. La idea de esta entrada de blog es ser un mini-curso introductorio a material y tecnologías de educación a distancia que pueden ser usadas para realizar estas actividades. Si bien está pensada originalmente como una entrada para ayudar a la organización de los concursos estatales de la OMM, el contenido puede:

  • Ser de utilidad incluso cuando salgamos de la pandemia, para tener más alcance.
  • Apoyar a otros concursos de otras ciencias, y otros países, a encontrar alternativas.

Para cada tecnología también hay un video, para ver cada uno de los recursos más en acción. El video introductorio es el siguiente.

Página de la Olimpiada Mexicana de Matemáticas

La página de la Olimpiada Mexicana de Matemáticas es uno de los mejores lugares para encontrar material de entrenamiento gratuito, de calidad, de acceso libre y con soluciones. Además, en esta página están disponibles en versión digital todos los números de la revista Tzaloa, que tiene otro tanto de material.

Otras cosas que se pueden encontrar en la página son los datos de contacto de los organizadores, resultados históricos de México en las olimpiadas internacionales y un sistema para pedir libros de la serie Cuadernos de Olimpiada.

La página de la OMM es http://www.ommenlinea.org. En el siguiente video se exploran con más detalle las distintas secciones.

El blog de Leo

El blog de Leo es precisamente esta página, en donde está esta entrada de blog. Forma parte de los recursos que propongo pues aquí en el blog hay también bastante material para preparar a olímpicos y entrenadores de la Olimpiada. Algunas secciones que pueden ser de utilidad son:

En el siguiente video se explora el blog más a detalle.

Facebook

La red social más popular es Facebook, y una de sus misiones es conectar a las personas. Se puede aprovechar todo el potencial que tienen sus herramientas para dar difusión a los concursos de matemáticas, para estar en contacto con los concursantes y para entrar en contacto con otras comunidades.

Dentro de Facebook, los dos lugares más indicados para ir y estar cerca de la comunidad olímpica matemática de México son:

  • La página de FB de la OMM: Página oficial, manejada por el Comité. Ahí se sube información de eventos, se publican resultados a nivel nacional y se informa de la participación de México en concursos internacionales.
  • El grupo Insommnia: El ambiente es más relajado. Es un grupo extraoficial, pero con una comunidad enorme de olímpicos y ex-olímpicos. Hay chistes, problemas propuestos, videos, discusiones de mejora del proyecto, mini-exámenes, etc.

Cada Comité Estatal puede aprovechar que en Facebook se pueden hacer grupos privados para estar en contacto con organizadores, papás o concursantes.

Hablo más de Facebook y su papel en concursos matemáticos en el siguiente video.

Overleaf

LaTeX es un lenguaje para escribir matemáticas y que se produzca un documento en el cual las matemáticas se vean bonito. Con él se pueden hacer exámenes selectivos, notas de entrenamiento e incluso libros.

Típicamente, para usar LaTeX en una computadora es necesario instalar una distribución y un editor. Overleaf es una página de internet en la cual se puede escribir y compliar LaTeX sin necesidad de instalar nada adicional.

Una ventaja de Overleaf es que lo que se trabaja se queda en la nube, así que se puede acceder a los documentos desde cualqueir computadora con internet. Esto tiene la desventaja de que se necesita tener internet, pero es fácilmente arreglable ya que, de ser necesario, se pueden bajar a una computadora todos los archivos fuente.

Otra ventaja de Overleaf es que se puede hacer colaboración simultánea en un mismo documento. Esto es muy útil para cuando se tiene que escribir matemáticas con otras personas: al hacer notas, escribir artículos de investigación y textos más grandes como libros o tesis.

En el siguiente video hablo más acerca de Overleaf.

Moodle

Un LMS es una plataforma que tiene todo lo que necesita un curso a distancia: herramientas para hacer exámenes, definir actividades, calendarizar, contactar a estudiantes, etc. Uno de los LMS más importantes y de más uso en la docencia a distancia es Moodle.

La principal dificultad con usar Moodle reside en que es necesario descargar un software e instalarlo en un servidor. Esto puede ser muy difícil para alguien que no conoce del tema. Sin embargo, una vez que Moodle queda instalado, es muy facil de usar para profesores y estudiantes (o en este contexto, delegados, entrenadores y concursantes).

El tipo de cosas que se pueden hacer en Moodle incluyen:

  • Tener un sistema de registro de nuevos concursantes
  • Subir notas
  • Subir mini-libros
  • Crear exámenes con límites de tiempo
  • Crear actividades de aprendizaje
  • Hacer cuestionarios
  • Tener foros personalizados

En el siguiente video hablo más a detalle de algunas de estas cosas.

Zoom, Hangouts y otras plataformas de videollamada

Finalmente, me gustaría platicar un poco acerca de opciones para tener videollamadas hoy en día. Sobre todo, me gustaría enfocarme en Zoom y en Hangouts. Ambas son buenas opciones para tener llamadas con grupos de varias personas.

Zoom agarró mucha popularidad en esta época de pandemia, y tiene sentido. Es una herramienta fácil de usar y de instalar que permite:

  • Armar reuniones con muchas personas
  • Compartir la pantalla con los asistentes (por ejemplo, puede servir para dar entrenamientos)
  • Programar reuniones y avisar a los participantes
  • Tener mecanismos de participación por chat, reacciones de «levantar la mano» o «aplaudir»

La versión gratuita de Zoom tiene algunas limitaciones, como que sólo se puede usar por 40 minutos de manera simultánea. La versión de paga permite hacer varias cosas como dividir a un grupo en sub-grupos.

Google Hangouts es una herramienta muy similar. También permite reuniones con muchas personas y compartir la pantalla. Se integra mejor con todo el ecosistema de Google y puede ser muy útil para quienes ya tengan una cuenta ahí.

En el siguiente video hablo de estas y un par de opciones más.

Reflexión final

Esta entrada fue un mini-curso al material y las tecnologías que se pueden usar para seguir organizando concursos matemáticos a distancia. El material que se presentó toma en mente el flujo de participantes en un modelo básico del concurso. También toma en cuenta el tipo de tecnología que podría necesitar un comité organizador local para hacer todas las actividades que se necesitan.

Hay una hipótesis muy fuerte que estamos haciendo: que los organizadores y participantes tienen acceso estable y bueno a internet. Al realizar actividades que aprovechen la tecnología hay que tener en cuenta que esta hipótesis es posible que no se cumpla. Puede suceder que:

  • Haya personas sin acceso a internet
  • Haya personas con acceso sólo con datos, para quienes ver videos es impermisiblemente caro
  • Haya personas con computadora y acceso a internet en su casa, pero de los cuales no puedan disponer
  • Haya personas con todos los recursos tecnológicos, pero viviendo muchas dificultades debido a la pandemia.

Así como muchos otros aspectos de la docencia, es importante tener empatía en el aspecto digital.

Seminario de Resolución de Problemas: Polinomios asociados a matrices y el teorema de Cayley-Hamilton

Introducción

Para terminar esta serie de entradas de álgebra lineal, y con ello el curso de resolución de problemas, hablaremos de polinomios especiales asociados a una matriz: el polinomio mínimo y el polinomio característico. Después, hablaremos del teorema de Cayley-Hamilton, que a grandes rasgos dice que una matriz se anula en su polinomio característico.

Estos resultados forman parte fundamental de la teoría que se aprende en un curso de álgebra lineal. En resolución de problemas, ayudan mucho para entender a los eigenvalores de una matriz, y expresiones polinomiales de matrices.

Polinomio mínimo de una matriz

Podemos evaluar un polinomio en una matriz cuadrada de acuerdo a la siguiente definición.

Definición. Si A es una matriz de n\times n con entradas reales y p(x) es un polinomio en \mathbb{R}[x] de la forma

    \[p(x)=a_0+a_1x+a_2x^2+\ldots+a_nx^n,\]

definimos a la matriz p(A) como la matriz

    \[a_0I_n+a_1A+a_2A^2+\ldots+a_nA^n.\]

De manera análoga se puede dar una definición cuando las entradas de la matriz, o los coeficientes del polinomio, son números complejos.

Cuando una matriz está diagonalizada, digamos A=P^{-1}DP con P invertible y D diagonal, entonces evaluar polinomios en A es sencillo. Se tiene que p(A)=P^{-1} p(D) P, y si las entradas en la diagonal principal de D son d_1,\ldots,d_n, entonces p(D) es diagonal con entradas en la diagonal principal iguales a p(d_1),\ldots,p(d_n).

Dada una matriz A, habrá algunos polinomios p(x) en \mathbb{R}[x] para los cuales p(A)=0. Si p(x) es uno de estos, entonces cualquier eigenvalor de A debe ser raíz de p(x). Veamos un problema de la International Mathematics Competition de 2011 que usa esto. Es el Problema 2 del día 1.

Problema. Determina si existe una matriz A de 3\times 3 con entradas reales tal que su traza es cero y A^2+ {^tA} = I_3.

Sugerencia pre-solución. Busca un polinomio p(x) tal que p(A)=0.

Solución. La respuesta es que no existe dicha matriz. Procedamos por contradicción. Si existiera, podríamos transponer la identidad dada para obtener que

    \begin{align*}A&=I _3- {^t(A^2)}\\&=I_3-({^tA})^2\\&=I_3-(I_3 - A^2)^2\\&=2A^2 - A^4.\end{align*}

De aquí, tendríamos que A^4-2A^2+A = 0, de modo que cualquier eigenvalor de A debe ser una raíz del polinomio

    \[p(x)=x^4-2x^2+x=x(x-1)(x^2+x-1),\]

es decir, debe ser alguno de los números

    \[0,1,\frac{-1+\sqrt{5}}{2}, \frac{-1-\sqrt{5}}{2}.\]

Los eigenvalores de A^2 son los cuadrados de los eigenvalores de A, así que son algunos de los números

    \[0,1,\frac{3+\sqrt{5}}{2}, \frac{3-\sqrt{5}}{2}.\]

Como la traza de A es 0, la suma de sus tres eigenvalores (con multiplicidades), debe ser 0. Como la traza de A^2 es la de I_3-{ ^tA}, que es 3, entonces la suma de los eigenvalores de A al cuadrado (con multiplicidades), debe ser 0. Un sencillo análisis de casos muestra que esto no es posible.

\square

De entre los polinomios que se anulan en A, hay uno especial. El polinomio mínimo de una matriz A con entradas reales es el polinomio mónico \mu_A(x) de menor grado tal que \mu_A(A)=O_n, donde O_n es la matriz de n\times n con puros ceros. Este polinomio siempre es de grado menor o igual a n.

Una propiedad fundamental del polinomio mínimo de una matriz es que es mínimo no sólo en un sentido de grado, sino también de divisibilidad.

Teorema. Sea A una matriz de n\times n con entradas reales. Entonces para cualquier polinomio p(x) en \mathbb{R}[x] tal que p(A)=O_n, se tiene que \mu_A(x) divide a p(x) en \mathbb{R}[x].

Veamos cómo se puede usar este resultado.

Problema. La matriz A de 2\times 2 con entradas reales cumple que

    \[A^3-A^2+A=O_2.\]

Determina los posibles valores que puede tener A^2-A.

Sugerencia pre-solución. Encuentra las posibles opciones que puede tener el polinomio mínimo de A y haz un análisis de casos con respecto a esto.

Solución. La matriz A se anula en el polinomio

    \[p(x)=x^3-x^2+x=x(x^2-x+1),\]

en donde x^2-x+1 tiene discriminante negativo y por lo tanto es irreducible.

El polinomio mínimo \mu_A(x) debe ser un divisor de p(x). Además, es de grado a lo más 2. Esto nos deja con las siguientes opciones:

  • \mu_A(x)=x, de donde A=O_2, y por lo tanto A^2=O_2. De aquí, A^2-A=O_2.
  • \mu_A(x)=x^2-x+1. En este caso, tenemos que A^2-A+I_2=0. Así, A^2-A=-I_2.

Para mostrar que ambas opciones son posibles, en el primer caso usamos A=O_2 y en el segundo caso usamos

    \[A=\begin{pmatrix} 0 & -1 \\ 1 & 1 \end{pmatrix}.\]

\square

Polinomio característico de una matriz

El polinomio característico de una matriz A de n\times n se define como

    \[\chi_A(x)=\det(xI_n - A).\]

Teorema. El polinomio característico de una matriz A cumple que:

  • Es un polinomio mónico en x de grado n.
  • El coeficiente del término de grado n-1 es la traza de A.
  • El coeficiente libre es \chi_A(0)=(-1)^n\det(A).
  • Es igual al polinomio característico de cualquier matriz similar a A.

Para ver ejemplos de cómo obtener el polinomio característico y cómo usar sus propiedades, hacemos referencia a la siguiente entrada:

Propiedades del polinomio característico

En particular, para fines de este curso, es importante leer los ejemplos y problemas resueltos de esa entrada.

El teorema de Cayley-Hamilton y una demostración con densidad

Finalmente, hablaremos de uno de los resultados fundamentales en álgebra lineal.

Teorema (Cayley-Hamilton). Si A es una matriz de n\times n con entradas en \mathbb{C} y \chi_A(x) es su polinomio característico, entonces

    \[\chi_A(A)=O_n.\]

En realidad el teorema de Cayley-Hamilton es válido para matrices más generales. Daremos un esbozo de demostración sólo para matrices con entradas complejas pues eso nos permite introducir una técnica de perturbaciones.

Esbozo de demostración. Vamos a hacer la técnica de la bola de nieve, construyendo familias poco a poco más grandes de matrices que satisfacen el teorema.

Si A es una matriz diagonal, las entradas en su diagonal son sus eigenvalores \lambda_1,\ldots, \lambda_n. Por la discusión al inicio de esta entrada, \chi_A(A) es diagonal con entradas \chi_A(\lambda_1),\ldots,\chi_A(\lambda_n), y como los eigenvalores son raíces del polinomio característico, entonces todos estos valores son 0, y por lo tanto \chi_A(A)=0.

Si A es diagonalizable, digamos, de la forma A=P^{-1} D P, entonces A y D tienen el mismo polinomio característico. Por la discusión al inicio de la entrada, y por el caso anterior:

    \begin{align*}\chi_A(A) &= \chi_D(A)\\&= \chi_D(P^{-1} D P)\\&=P^{-1}\chi_D(D) P\\&=P^{-1}O_n P \\&=O_n.\end{align*}

Si A tiene todos sus eigenvalores distintos, se puede mostrar que A es diagonalizable. Ahora viene la idea clave del argumento de continuidad.

Pensemos al espacio métrico de matrices de n\times n. Afirmamos que las matrices con eigenvalores todos distintos son densas en este espacio métrico. Para ello, tomemos una matriz A. En efecto, como estamos trabajando en \mathbb{C}, existe una matriz invertible P tal que P^{-1}A P es triangular. Como P es invertible, define una transformación continua. Los eigenvalores de P^{-1} A P son sus entradas en la diagonal, y podemos perturbarlos tan poquito como queramos para hacer que todos sean distintos.

De esta forma, existe una sucesión de matrices A_k, todas ellas diagonalizables, tales que A_k \to A conforme k\to \infty. El resultado se sigue entonces de las siguientes observaciones:

  • Los coeficientes del polinomio característico de una matriz dependen continuamente de sus entradas.
  • Las entradas de potencias de una matriz dependen continuamente de sus entradas.
  • Así, la función \chi_{M}(M) es continua en la matriz variable M.

Concluimos como sigue \chi_{A_k}(A_k)=0, por ser cada una de las matrices A_k diagonalizables. Por la continuidad de \chi_{M}(M), tenemos que

    \begin{align*}\chi_A(A)&=\lim_{k\to \infty} \chi_{A_k}(A_k)\\&= \lim_{k\to \infty} O_n \\&= O_n.\end{align*}

\square

Terminamos esta entrada con un problema que usa el teorema de Cayley-Hamilton.

Problema. Muestra que para cualesquiera matrices X,Y,Z de 2\times 2 con entradas reales se cumple que

    \begin{align*}   &ZXYXY + ZYXYX + XYYXZ + YXXYZ\\= &XYXYZ + YXYXZ + ZXYYX + ZYXXY.\end{align*}

Sugerencia pre-solución. Muestra que las matrices reales de 2\times 2 de traza cero conmutan con cualquier matriz de 2\times 2.

Solución. Si A es una matriz de 2\times 2 de traza cero, su polinomio característico es

    \begin{align*}\chi_A(x)&=x^2 - \text{tr}(A) x + \det(A)\\&=x^2 + \det(A).\end{align*}

Por el teorema de Cayley-Hamilton, se satisface entonces que A^2=-\det(A) I_2, así que A^2 es un múltiplo de la identidad, y por lo tanto conmuta con cualquier matriz de 2\times 2.

La identidad que queremos mostrar se puede reescribir como

    \[Z(XY-YX)^2 = (XY-YX)^2Z.\]

La traza de XY es igual a la traza de YX, y como la traza es una transformación lineal, tenemos que

    \[\text{tr}(XY-YX)= \text{tr}(XY)-\text{tr}(YX)=0.\]

El problema se termina aplicando la discusión de arriba a la matriz

    \[A=XY-YX.\]

\square

Más problemas

Puedes encontrar más problemas relacionados con el polinomio mínimo, el polinomio característico y el teorema de Cayley-Hamilton en la Sección 8.2, 8.4 y 8.5 del libro Essential Linear Algebra de Titu Andreescu. También hay más problemas relacionados con el teorema de Cayley-Hamilton en el Capítulo 4 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.

Seminario de Resolución de Problemas: Rango de matrices y el teorema de factorización PJQ

Introducción

El algunas ocasiones es suficiente saber si una matriz es invertible o no. Sin embargo, esta es una distinción muy poco fina. Hay algunos otros problemas en los que se necesita decir más acerca de la matriz. Podemos pensar que una matriz invertible, como transformación lineal, «guarda toda la información» al pasar de un espacio vectorial a otro. Cuando esto no sucede, nos gustaría entender «qué tanta información se guarda». El rango de matrices es una forma de medir esto. Si la matriz es de m\times n, el rango es un número entero que va de cero a n. Mientras mayor sea, «más información guarda».

Por definición, el rango de una matriz A de m\times n es igual a la dimensión del subespacio vectorial de \mathbb{R}^m generado por los vectores columna de A. Una matriz de n\times n tiene rango n si y sólo si es invertible.

Si pensamos a A como la transformación lineal de \mathbb{R}^n a \mathbb{R}^m tal que X\mapsto AX, entonces el rango es precisamente la dimensión de la imagen de A. Esto permite extender la definición de rango a transformaciones lineales arbitrarias, y se estudia con generalidad en un curso de álgebra lineal.

En las siguientes secciones enunciaremos sin demostración algunas propiedades del rango de matrices y las usaremos para resolver problemas.

Propiedades del rango de matrices

Comenzamos enunciando algunas propiedades del rango de matrices

Teorema. Sean m, n y p enteros. Sea B una matriz de n\times p, y A, A' matrices de m\times n. Sean además P una matriz de n\times p cuya transformación lineal asociada es suprayectiva y Q una matriz de r\times m cuya transformación lineal asociada es inyectiva. Entonces:

  1. \rank(A)\leq \min(m,n)
  2. \rank(AB)\leq \min(\rank(A),\rank(B))
  3. \rank(A+A')\leq \rank(A) + \rank(A')
  4. \rank(QA) = \rank(A)
  5. \rank(AP)=\rank(A)

Consideremos el siguiente problema, tomado del libro Essential Linear Algebra de Titu Andreescu.

Problema. Las matrices A y B tienen entradas reales. La matriz A es de 3\times 3, la matriz B es de 2\times 3 y además

    \[AB=\begin{pmatrix} 0 & -1 & -1 \\ -1 & 0 & -1 \\ 1 & 1 & 2 \end{pmatrix}.\]

Determina el valor del producto BA.

Sugerencia pre-solución. Un paso intermedio clave es mostrar que el producto BA es invertible.

Solución. Para empezar, afirmamos que (AB)^2=AB. Esto se puede verificar directamente haciendo el producto de matrices.

Luego, afirmamos que el rango de AB es 2. En efecto, eso se puede hacer fácilmente por definición. Por un lado, la suma de las primeras dos columnas es igual a la tercera, así que el espacio vectorial que generan las tres es de dimensión a lo más dos. Pero es al menos dos, pues las primeras dos columnas son linealmente independientes. Esto muestra la afirmación.

Ahora, usando la propiedad (2) del teorema dos veces, tenemos que

    \begin{align*}\rank(BA)&\geq \rank (A(BA)) \\&\geq \rank (A(BA)B)\\&=\rank((AB)^2) \\&= \rank (AB)\\&=2.\end{align*}

Así, BA es una matriz de 2\times 2 de rango 2 y por lo tanto es invertible.

Consideremos ahora el producto (BA)^3. Desarrollando y usando que (AB)^2=AB, tenemos que

    \begin{align*}(BA)^3 &= BABABA \\&=B(AB)^2 A\\&=BABA\\&=(BA)^2.\end{align*}

Como BA es invertible, entonces (BA)^2 tiene inversa. Si multiplicamos la igualdad (BA)^3 = (BA)^2 por esa inversa, obtenemos que

    \[BA=I_2.\]

\square

El teorema anterior nos permite acotar por arriba el rango del producto de dos matrices. También hay una desigualdad que nos permite acotar por abajo el rango de dicho producto, cuando las matrices son cuadradas.

Teorema (desigualdad de Sylvester). Para matrices A y B de n\times n, se tiene que

    \[\rank(AB)\geq \rank(A) + \rank(B) - n.\]

Problema. La matriz A es de 2020 \times 2020. Muestra que:

  • Si A tiene rango 2017, entonces la matriz A^{673} no puede ser la matriz de 2020\times 2020 de puros ceros, es decir, O_{2020}.
  • Si A tiene rango 2016, entonces la matriz A^{673} puede ser la matriz O_{2020}.

Sugerencia pre-solución. Enuncia una afirmación más general relacionada con el rango que puedas probar por inducción utilizando la desigualdad de Sylvester.

Solución. Para la primer parte, probaremos primero algo más general. Afirmamos que si M es una matriz de n \times n de rango n-s y k es un entero positivo, entonces el rango de la matriz M^k es por lo menos n-ks. Procedemos por inducción sobre k. Si k=1, el resultado es cierto pues M tiene rango n-s=n-1\cdot s.

Supongamos el resultado para cierto entero k. Usando la desigualdad de Sylverster y la hipótesis inductiva, tenemos que

    \begin{align*}\rank(A^{k+1})&\geq \rank(A^k) + \rank(A) - n\\&\geq (n-ks) + (n-s) - n\\&=n-(k+1)s.\end{align*}

Esto muestra la afirmación general.

Si regresamos a la primer parte del problema original y aplicamos el resultado anterior, tenemos que A^{673} es una matriz de rango por lo menos

    \[2020 - 673 \cdot 3 = 2020 - 2019 = 1.\]

De esta forma, A^{673} no puede ser la matriz 0.

Hagamos ahora la segunda parte del problema. Para ello, debemos construir una matriz A de 2020\times 2020 de rango 2016 tal que A^{673} sea la matriz 0. Para ello, consideremos la matriz A tal que sus primeras 4 columnas sean iguales al vector 0, y que sus columnas de la 5 a la 2020 sean los vectores canónicos e_1,\ldots, e_{2016}.

Esta matriz claramente es de rango 2016, pues el espacio generado por sus columnas es el espacio generado por e_1,\ldots, e_{2016}, que es de dimensión 2016. Por otro lado, se puede mostrar inductivamente que para k=1,\ldots,505, se tiene que A^{k} es una matriz en donde sus columnas de 1 a 4k son todas el vector 0, y sus columnas de 4k+1 a 2020 son e_1,\ldots, e_{2020-4k}. En particular, A^{505}=O_{2020}, y entonces A^{673} también es la matriz de puros ceros.

\square

Equivalencias de rango de matrices

Hay muchas formas alternativas para calcular el rango de una matriz. El siguiente teorema resume las equivalencias más usadas en resolución de problemas.

Teorema. Sea A una matriz de m\times n con entradas reales. Los siguientes números son todos iguales:

  • El rango de A, es decir, la dimensión del espacio vectorial generado por los vectores columna de A.
  • La dimensión del espacio vectorial generado por los vectores fila de A. Observa que esto es, por definición, el rango de la transpuesta de A.
  • La cantidad de filas no cero que tiene la forma escalonada reducida de A.
  • (Teorema de rango-nulidad) n-\dim \ker(A), donde \ker(A) es el espacio vectorial de soluciones a AX=0.
  • El tamaño más grande de una submatriz cuadrada de A que sea invertible.
  • La cantidad de eigenvalores complejos distintos de cero contando multiplicidades algebraicas.

Problema. Determina todos los posibles rangos que pueden tener las matrices con entradas reales de la forma

    \[\begin{pmatrix} a & b  & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{pmatrix}.\]

Sugerencia pre-solución. Comienza haciendo casos pequeños. Para dar los ejemplos y mostrar que tienen el rango deseado, usa el teorema de equivalencia de rango para simplificar algunos argumentos.

Solución. El rango de una matriz de 4\times 4 es un entero de 0 a 4. Debemos ver cuáles de estos valores se pueden alcanzar con matrices de la forma dada.

Tomando a=b=c=d=0, obtenemos la matriz O_4, que tiene rango 0. Si a=b=c=d=1, obtenemos la matriz de puros unos, que tiene rango 1. Además, si a=1 y b=c=d=0, obtenemos la matriz identidad, que tiene rango 4.

Si a=b=1 y c=d=0, obtenemos la matriz

    \[A = \begin{pmatrix} 1 & 1 & 0 & 0 \\1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 1 & 1 \end{pmatrix}.\]

Esta matriz tiene sólo dos columnas diferentes, así que su rango es a lo más dos. Pero tiene como submatriz a la matriz

    \[I_2=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix},\]

que tiene rango 2, entonces el rango de A es al menos 2. De esta forma, el rango de A es 2.

Veamos ahora que el rango puede ser 3. Para ello, damos un argumento de determinantes. Llamemos s=a+b+c+d. Sumando las tres últimas filas a la primera y factorizando s, tenemos que

    \begin{align*}\begin{vmatrix} a & b & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}&=\begin{vmatrix} s & s & s & s \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}\\&=s\begin{vmatrix} 1 & 1 & 1 & 1 \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}.\end{align*}

Así, si tomamos a=b=c=1 y d=-3, entonces s=0 y por lo tanto la matriz B que obtenemos no es invertible, así que su rango es a lo más tres. Pero además es de rango al menos tres pues B tiene como submatriz a

    \[\begin{pmatrix} 1 & 1 & -3 \\ 1 & -3 & 1  \\ -3 & 1 & 1 \end{pmatrix},\]

que es invertible pues su determinante es

    \[-3-3-3-1-1+27=16\neq 0.\]

Concluimos que los posibles rangos que pueden tener las matrices de esa forma son 0,1,2,3,4.

\square

El teorema de factorización PJQ

Existen diversos teoremas que nos permiten factorizar matrices en formas especiales. De acuerdo a lo que pida un problema, es posible que se requiera usar uno u otro resultado. El teorema de factorización más útil para cuando se están resolviendo problemas de rango es el siguiente.

Teorema (factorización PJQ). Sea A una matriz de m\times n y r un entero en \{0,\ldots,\min(m,n)\}. El rango de A es igual a r si y sólo si existen matrices invertibles P de m\times m y Q de n\times n tales que A=PJ_rQ, en donde J_r es la matriz de m\times n cuyas primeras r entradas de su diagonal principal son 1 y todas las demás entradas son cero, es decir, en términos de matrices de bloque,

    \[J_r=\begin{pmatrix}I_r & O_{r,n-r} \\O_{m-r,r} & O_{m-r,n-r}\end{pmatrix}.\]

Como evidencia de la utilidad de este teorema, sugerimos que intentes mostrar que el rango por columnas de una matriz es igual al rango por filas, usando únicamente la definición. Esto es relativamente difícil. Sin embargo, con el teorema PJQ es inmediato. Si A es de m\times n y tiene rango r, entonces su factorización PJQ es de la forma

    \[A=PJ_rQ.\]

Entonces al transponer obtenemos

    \begin{align*}^tA&= {^tQ} {^t J_r} {^tP}.\end{align*}

Esto es de nuevo un factorización PJQ, con {^t J_r} la matriz de n\times m que indica que ^t A es de rango r.

Veamos ahora un problema clásico en el que se puede usar la factorización PJQ.

Problema. Sea A una matriz de m \times n y rango r. Muestra que:

  • A puede ser escrita como la suma de r matrices de rango 1.
  • A no puede ser escrita como la suma de r-1 o menos matrices de rango 1.

Sugerencia pre-solución. Para la primer parte, usa el teorema PJQ. Para la segunda parte, usa desigualdades del rango.

Solución. Tomemos A=PJ_rQ una factorización PJQ de A.

Hagamos la primer parte. Para ello, para cada i=1,\ldots,r, consideremos la matriz L_i de m\times n tal que su i-ésima entrada en la diagonal principal es 1 y el resto de sus entradas son iguales a 0.

Por un lado, L_i es de rango 1, pues tiene sólo una columna distinta de cero. De este modo,

    \[\rank(PL_iQ)\leq \rank(PL_i) \leq \rank(L_i)=1,\]

y como P y Q son invertibles,

    \[\rank(PL_iQ)\geq \rank(L_i) \geq 1.\]

Así, para cada i=1,\ldots, r, se tiene que L_i es de rango 1.

Por otro lado,

    \[J_r = L_1 + L_2 + \ldots + L_r,\]

así que

    \begin{align*}A&=PJ_rQ\\&=P(L_1 + L_2 + \ldots + L_r)Q\\&=PL_1Q + PL_2Q + \ldots + PL_rQ.\end{align*}

Esto expresa a A como suma de r matrices de rango 1.

Para la segunda parte del problema, usamos repetidamente que el rango es subaditivo. Si tenemos matrices B_1,\ldots,B_s matrices de m\times n, entonces

    \begin{align*}\rank(B_1&+B_2+\ldots+B_s) & \\&\leq \rank(B_1) + \rank (B_2 + \ldots + B_s)\\&\leq \rank(B_1) + \rank(B_2) + \rank(B_3+\ldots+B_s)\\& vdots \\&\leq \rank(B_1) + \rank(B_2) + \ldots + \rank(B_s).\end{align*}

Si cada B_i es de rango 1, entonces su suma tiene rango a lo más s.

Así, la suma de r-1 o menos matrices de rango 1 tiene rango a lo más r-1, y por lo tanto no puede ser igual a A.

\square

Más problemas

Puedes encontrar más problemas de rango de una matriz en la Sección 5.4 del libro Essential Linear Algebra de Titu Andreescu. El teorema PJQ, así como muchos problemas ejemplo, los puedes encontrar en el Capítulo 5 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si A es una matriz de m\times n, su transpuesta ^tA es la matriz de n\times m que se obtiene de reflejar a las entradas de A en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos A=[a_{ij}], entonces ^tA=[a_{ji}]. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y ^tA = A^{-1}. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si A es una matriz de n\times n con entradas reales y simétrica, entonces:

  • Sus eigenvalores \lambda_1,\ldots,\lambda_n (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal P de n\times n y con entradas reales tal que si tomamos a D la matriz diagonal de n\times n cuyas entradas en la diagonal principal son \lambda_1,\ldots,\lambda_n, entonces

        \[A=P^{-1}DP.\]

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si A=P^{-1}DP como en el teorema anterior, entonces

    \begin{align*}A^2&=(P^{-1}DP)(P^{-1}DP)\\&=P^{-1}DDP\\&=P^{-1}D^2P,\end{align*}

y de manera inductiva se puede probar que A^k=P^{-1}D^kP. Elevar la matriz D a la k-ésima potencia es sencillo, pues como es una matriz diagonal, su k-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la k.

Problema. Sea A una matriz de n\times n simétrica y de entradas reales. Muestra que si A^k = O_n para algún entero positivo k, entonces A=O_n.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de A. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como A es simétrica y de entradas reales, entonces sus eigenvalores \lambda_1,\ldots, \lambda_n son reales y es diagonalizable. Digamos que su diagonalización es P^{-1} D P. Tenemos que

    \[O_n = A^k = P^{-1} D^k P.\]

Multiplicando por la matriz P a la izquierda, y la matriz P^{-1} a la derecha, tenemos que D^k=O_n. Las entradas de D^k son \lambda_1^k,\ldots,\lambda_n^k, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo,

    \[\lambda_1=\ldots=\lambda_n=0.\]

Concluimos que D=O_n, y que por lo tanto A=P^{-1} O_n P = O_n.

\square

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz

    \[A=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}.\]

Calcula las primeras potencias de A a mano. Conjetura y muestra cómo es A^n en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el n-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz A obtenemos:

    \begin{align*}A&=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\\A^2&=\begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix},\\A^3&=\begin{pmatrix} 1 & 2 \\  2& 3 \end{pmatrix},\\A^4&=\begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix},\\A^5&=\begin{pmatrix} 3 & 5 \\ 5 & 8 \end{pmatrix}.\end{align*}

Al parecer, en las entradas de A van apareciendo los números de Fibonacci. Seamos más concretos. Definimos F_0=0, F_1=1 y para n\geq 0 definimos

    \[F_{n+2}=F_{n}+F_{n+1}.\]

La conjetura es que para todo entero n\geq 1, se tiene que

    \[A^n=\begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1}\end{pmatrix}.\]

Esto se puede probar por inducción. Arriba ya hicimos el caso n=1. Supongamos la conjetura cierta hasta un entero n dado, y consideremos la matriz A^{n+1}. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

    \begin{align*}A^{n+1}&=AA^n\\& =\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1} \end{pmatrix}\\&= \begin{pmatrix} F_n & F_{n+1} \\ F_{n-1} + F_n & F_n + F_{n+1} \end{pmatrix}\\&=\begin{pmatrix} F_n & F_{n+1} \\ F_{n+1} & F_{n+2} \end{pmatrix}.\end{align*}

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz A es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de A. Su polinomio característico es

    \[\begin{vmatrix} \lambda & -1 \\ - 1 & \lambda -1 \end{vmatrix}=\lambda^2-\lambda -1.\]

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de A) son

    \[\frac{1\pm \sqrt{5}}{2}.\]

Por el momento, para simplificar la notación, llamemos \alpha a la de signo más y \beta a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible P de 2\times 2 tal que

    \[A=P^{-1}\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} P.\]

De esta forma,

    \[A^n =  P^{-1}\begin{pmatrix} \alpha^n & 0 \\ 0 & \beta^n \end{pmatrix} P.\]

Aquí no es tan importante determinar concretamente P ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de \alpha^n y \beta^n y de que los coeficientes de esta combinación lineal ya no dependen de n, sino sólo de las entradas de P. En particular, la entrada superior derecha de A^n por un lado es F_n, y por otro lado es r\alpha^n + s\beta ^n.

¿Cómo obtenemos los valores de \alpha y \beta? Basta substituir n=1 y n=2 para obtener un sistema de ecuaciones en \alpha y \beta. Aquí abajo usamos que como \alpha y \beta son raíces de x^2-x-1, entonces \alpha^2=\alpha+1, \beta^2=\beta+1 y \alpha+\beta = 1.

    \[\begin{cases}1= F_1 = r \alpha + s \beta \\1= F_2 = r \alpha^2 + s \beta^2 = r + s + 1.\end{cases}\]

De aquí, obtenemos la solución

    \begin{align*}r&=\frac{1}{\alpha-\beta} = \frac{1}{\sqrt{5}}\\s&=-r = -\frac{1}{\sqrt{5}}.\end{align*}

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es

    \[F_n=\frac{\left(\frac{1+\sqrt{5}}{2}\right)^n - \left(\frac{1-\sqrt{5}}{2}\right)^n}{\sqrt{5}}.\]

\square

Matrices positivas y positivas definidas

Por definición, una matriz simétrica A de n\times n con entradas reales es positiva si para cualquier vector (columna) v en \mathbb{R}^n se tiene que

    \[^t v A v \geq 0.\]

Aquí ^tv es la transposición de v, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector v=0, entonces decimos que A es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz A=\begin{pmatrix} 1 & -1 \\ -1 & 1\end{pmatrix}, pues para cualquier vector v=(x,y) se tiene que

    \[^t v A v = x^2-2xy+y^2=(x-y)^2\geq 0.\]

Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como (1,1). Como puedes verificar, un ejemplo de matriz positiva definida es

    \[B=\begin{pmatrix} 3 & 0 \\ 0 & 4 \end{pmatrix}.\]

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en \mathbb{R}^n. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea A una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B^2 para alguna matriz simétrica B en M_n(\mathbb{R}).
  4. A= {^tC} C para alguna matriz C en M_n(\mathbb{R}).

Hay un resultado análogo para cuando se quiere determinar si una matriz A es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos 3 y 4 se necesita además que B y C sean invertibles.

Problema. Sea A una matriz de n\times n con entradas reales, simétrica y positiva. Muestra que si

    \[\text{tr}(A) = n \sqrt[n]{\det(A)},\]

entonces A conmuta con cualquier matriz de n\times n.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que A se puede diagonalizar con matrices A=P^{-1} D P, donde D es la matriz diagonal que tiene en su diagonal principal a los eigenvalores \lambda_1,\ldots,\lambda_n de A, y P^{-1} es una matriz invertible. Como A y D son similares, se tiene que

    \begin{align*}\text{tr}(A)=\text{tr}(D)=\lambda_1+\ldots+\lambda_n\\\det(A)=\det(D)=\lambda_1\cdot\ldots\cdot\lambda_n.\end{align*}

Como A es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

    \[\frac{\lambda_1+\ldots+\lambda_n}{n} \geq \sqrt[n]{\lambda_1\cdot\ldots\cdot\lambda_n}.\]

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor \lambda, y entonces D=\lambda I_n. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de n\times n, tendríamos entonces que

    \begin{align*}A&=P^{-1}D P \\&=P^{-1}(\lambda I_n) P\\&=(\lambda I_n) (P^{-1}P)\\&=\lambda I_n.\end{align*}

Con esto probamos que A es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de n\times n.

\square

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.

Seminario de Resolución de Problemas: Cálculo de determinantes

Introducción

Una de las habilidades fundamentales que hay que desarrollar para resolver problemas de álgebra lineal es el cálculo de determinantes. Como vimos en la entrada anterior, conocer el determinante de una matriz nos permite saber si es invertible. Así mismo, los determinantes permiten encontrar soluciones a sistemas de ecuaciones lineales, y más adelante veremos que están relacionados con el rango. Además, los determinantes juegan un papel muy importante en otras áreas de las matemáticas, como cálculo y teoría de gráficas.

Todo parte de la siguiente definición:

Definición. Para una matriz A de n \times n con entradas reales A=[a_{ij}], el determinante de A es

    \[\det A = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},\]

donde la suma se hace sobre todas las permutaciones (funciones biyectivas) \sigma de \{1,\ldots,n\} a sí mismo y \text{sign}(\sigma) es el signo de la permutación.

A \det A también lo escribimos a veces en notación de «matriz con barras verticales» como sigue:

    \begin{align*}\det A = \begin{vmatrix}a_{11} & a_{12} & \ldots & a_{1n}\\a_{21} & a_{22} & \ldots & a_{2n}\\\vdots & & \ddots & \vdots\\a_{n1} & a_{n2} & \ldots & a_{nn}.\end{vmatrix}.\end{align*}

La definición permite mostrar de maneras muy elegantes las propiedades que cumplen los determinantes, pero no es nada práctica para cuando se quieren hacer las cuentas. Como la suma se hace sobre todas las permutaciones \sigma de un conjunto de n elementos, si quisiéramos calcular determinantes por definición se tendrían que hacer n! productos, y luego sumar todos estos resultados.

Por esta razón, es muy importante encontrar otras formas de evaluar determinantes. Para empezar, esta entrada hará referencia a dos enlaces del blog en los que se discuten las propiedades básicas de determinantes. Luego, se hablará de dos tipos especiales de determinantes: los de Vandermonde y los de matrices circulantes.

Técnicas básicas de cálculo de determinantes

Lo primero y más importante es que conozcas las teoría básica para cálculo de determinantes. Aquí en el blog hay una entrada que sirve justo para conocer las propiedades y técnicas principales para encontrar determinantes.

Técnicas básicas de cálculo de determinantes

Además, es también muy importante que sepas calcular determinantes usando la expansión de Laplace. En la siguiente entrada puedes ver el enunciado de la técnica, y cómo se usa en varios ejemplos:

Problemas de cálculo de determinantes

Para fines de este curso, es importante que revises esas entradas. Puedes saltarte las demostraciones de los resultados principales, pero presta atención a cómo se usan en cada uno de los problemas.

Las siguientes secciones presentan técnicas avanzadas que a veces resultan útiles. Sin embargo, tómalas como temas optativos, dando prioridad a primero dominar los básicos.

Determinantes de Vandermonde

Teorema (determinante de Vandermonde). Sean a_1,\ldots,a_n números reales. El determinante de la matriz de Vandermonde

    \begin{align*}\begin{pmatrix}1&a_1 & a_1^2 & \ldots & a_1^{n-1}\\1 & a_2 & a_2^2 & \ldots & a_2^{n-1}\\1&a_3 & a_3^2 & \ldots & a_3^{n-1}\\\vdots& & & \ddots & \vdots\\1& a_n & a_n^2 & \ldots & a_n^{n-1}\\\end{pmatrix}\end{align*}

es igual a

    \[\prod_{1\leq i < j \leq n} (a_j-a_i).\]

Ejemplo. La matriz

    \[\begin{pmatrix} 1 & a & a^2 \\ 1 & b & b^2 \\ 1 & c & c^2\end{pmatrix}\]

es una matriz de Vandermonde, así que su determinante es

    \[(b-a)(c-a)(c-b).\]

\square

Veamos un problema en el que aparece una matriz de Vandermonde.

Problema. Sean a, b y c reales distintos de 0. Muestra que el determinante de

    \[\begin{vmatrix}a^2 & b^2 & c^2\\ c^2& a^2 & b^2 \\ ca & ab & bc \end{vmatrix}\]

es

    \[(a^2-bc)(b^2-ca)(c^2-ab).\]

Sugerencia pre-solución. Formula un problema equivalente usando propiedades de determinantes para que quede un determinante del tipo de Vandermonde. Aprovecha la simetría para ahorrar algunas cuentas.

Solución. Como el determinante es homogéneo en cada columna, podemos factorizar a^2 de la primera, b^2 de la segunda y c^2 de la tercera para obtener que

    \begin{align*}\begin{vmatrix}a^2 & b^2 & c^2\\ c^2& a^2 & b^2 \\ ca & ab & bc \end{vmatrix} &= (abc)^2 \begin{vmatrix}1 & 1 & 1 \\ \frac{c^2}{a^2}& \frac{a^2}{b^2} & \frac{b^2}{c^2} \\ \frac{c}{a} & \frac{a}{b} & \frac{b}{c} \end{vmatrix}\\&=-(abc)^2 \begin{vmatrix}1 & 1 & 1 \\ \frac{c}{a} & \frac{a}{b} & \frac{b}{c} \\ \frac{c^2}{a^2}& \frac{a^2}{b^2} & \frac{b^2}{c^2} \end{vmatrix}.\end{align*}

Aquí también usamos que al intercambiar dos filas (o columnas), el determinante de una matriz cambia de signo.

Una matriz tiene el mismo determinante que su transpuesta, y la transpuesta de esta última matriz es de Vandermonde, de modo que

    \[-(abc)^2 \begin{vmatrix}1 & 1 & 1 \\ \frac{c}{a} & \frac{a}{b} & \frac{b}{c} \\ \frac{c^2}{a^2}& \frac{a^2}{b^2} & \frac{b^2}{c^2} \end{vmatrix} = -(abc)^2 \left(\frac{a}{b}-\frac{c}{a}\right)\left(\frac{b}{c}-\frac{c}{a}\right)\left(\frac{b}{c}-\frac{a}{b}\right).\]

Vamos a partir esta última expresión en factores simétricos. Tenemos que

    \[ab\left(\frac{a}{b}-\frac{c}{a}\right)=a^2-bc.\]

De manera similar, tenemos también

    \[-ca\left(\frac{b}{c}-\frac{c}{a}\right)=c^2-ab\]

y

    \[bc\left(\frac{b}{c}-\frac{a}{b}\right)=b^2-ac.\]

Así, concluimos que

    \[\begin{vmatrix}a^2 & b^2 & c^2\\ c^2& a^2 & b^2 \\ ca & ab & bc \end{vmatrix}= (a^2-bc)(b^2-ca)(c^2-ab).\]

\square

Determinantes de matrices circulantes

Teorema (determinantes circulantes) Sean a_1,\ldots, a_n números reales. El determinante de la matriz circulante

    \begin{align*}\begin{pmatrix}a_1& a_n & a_{n-1} & \ldots & a_2\\a_2&a_1& a_{n}& \ldots & a_3\\a_3 & a_2& a_1& \ldots & a_4\\\vdots& & & \ddots & \vdots\\a_n& a_{n-1} & a_{n-2} &\ldots & a_1.\end{pmatrix}\end{align*}

es

    \[\prod_{j=0}^{n-1} (a_1 + a_n \omega_j + a_{n-1} \omega_j^2 + \ldots + a_2 \omega_j^{n-1}),\]

en donde \omega_j es la n-ésima raíz de la unidad dada por \omega_j:= e^{j \cdot \frac{2\pi i}{n}}.

Ejemplo. La matriz

    \[\begin{pmatrix} a & b & c \\ c & a & b \\ b & c & a\end{pmatrix}\]

es una matriz circulante, así que su determinante es

    \[(a+b+c)(a+\omega b + \omega^2 c)(a+\omega^2 b+ \omega c),\]

donde \omega es la raíz cúbica de la unidad de argumento positivo mínimo.

\square

El siguiente problema apareció en la tercera edición de la Olimpiada Iberoamericana de Matemática Universitaria. El enunciado en esa ocasión fue un poco distinto, pero lo adaptamos a la notación de esta entrada.

Problema. Sea n\geq 3 un entero Muestra que el determinante de la matriz circulante en donde a_1=a_n=a_{n-1}=1 y a_2=\ldots=a_{n-1}=0 es 3 si n no es un múltiplo de 3 y es 0 si n es un múltiplo de 3.

Sugerencia pre-solución. Para empezar, aplica el teorema de determinantes de matrices circulantes. Luego, necesitarás además un argumento de polinomios y de números complejos.

Solución. Para empezar, llamemos A_n a la matriz del problema. Como A_n es una matriz circulante, su determinante es

    \[\det(A_n) = \prod_{j=0}^{n-1} (1 + \omega_j + \omega_j^2).\]

El polinomio 1+x+x^2 se factoriza como (\eta-x)(\eta^2-x), donde \eta es la raíz cúbica de la unidad de argumento positivo mínimo. De esta forma, podemos reescribir al determinante de A_n como

    \[\det(A_n) = \prod_{j=0}^{n-1} (\eta-\omega_j)(\eta^2-\omega_j).\]

El polinomio h(x)=x^n-1 se factoriza como

    \[h(x)=(x-\omega_0)(x-\omega_1)\ldots(x-\omega_{n-1}),\]

así que \det(A_n) es precisamente el producto de h(\eta) con h(\eta^2). En otras palabras,

    \begin{align*}\det(A_n)&= (\eta^n-1)(\eta^{2n}-1)\\&=\eta^{3n}+1-(\eta^n+\eta^{2n})\\&=2-(\eta^n+\eta^{2n})\end{align*}

Finalmente, hacemos un análisis de casos:

  • Si n es múltiplo de 3, entonces \eta^n = \eta^{2n} = 1 y entonces \det(A_n)=0.
  • Si n no es múltiplo de 3, entonces n y 2n no son congruentes módulo 3, y entonces \eta^n y \eta^{2n} son \eta y \eta^2 en algún orden. Así,

        \[(\eta^n+\eta^{2n})=\eta+\eta^2=-1,\]

    y por lo tanto \det(A_n)=3.

\square

Más problemas

Puedes encontrar más problemas de cálculo de determinantes en la Sección 7.4 y la Sección 7.5 del libro Essential Linear Algebra de Titu Andreescu.