Seis herramientas fundamentales para concursos matemáticos en tiempos de pandemia

La Olimpiada Mexicana de Matemáticas (OMM) se organiza en varios niveles: estatal, nacional y participación en concursos internacionales. Los estudiantes comienzan con la etapa estatal, en donde realizan varios exámenes y además se les prepara mediante entrenamientos. Después de repetir esto algunas veces, algunos estudiantes son elegidos para ir al Concurso Nacional de la OMM, para el cual se preparan adicionalmente.

A grandes rasgos, la forma en la que se organiza una olimpiada estatal se ve así:

En la parte de arriba se ve el flujo de los estudiantes. En la parte de abajo se ven varias actividades que realizan los comités estatales.

En esta época de la pandemia de COVID19, es muy importante encontrar alternativas para realizar muchas de estas actividades de manera digital. La idea de esta entrada de blog es ser un mini-curso introductorio a material y tecnologías de educación a distancia que pueden ser usadas para realizar estas actividades. Si bien está pensada originalmente como una entrada para ayudar a la organización de los concursos estatales de la OMM, el contenido puede:

  • Ser de utilidad incluso cuando salgamos de la pandemia, para tener más alcance.
  • Apoyar a otros concursos de otras ciencias, y otros países, a encontrar alternativas.

Para cada tecnología también hay un video, para ver cada uno de los recursos más en acción. El video introductorio es el siguiente.

Página de la Olimpiada Mexicana de Matemáticas

La página de la Olimpiada Mexicana de Matemáticas es uno de los mejores lugares para encontrar material de entrenamiento gratuito, de calidad, de acceso libre y con soluciones. Además, en esta página están disponibles en versión digital todos los números de la revista Tzaloa, que tiene otro tanto de material.

Otras cosas que se pueden encontrar en la página son los datos de contacto de los organizadores, resultados históricos de México en las olimpiadas internacionales y un sistema para pedir libros de la serie Cuadernos de Olimpiada.

La página de la OMM es http://www.ommenlinea.org. En el siguiente video se exploran con más detalle las distintas secciones.

El blog de Leo

El blog de Leo es precisamente esta página, en donde está esta entrada de blog. Forma parte de los recursos que propongo pues aquí en el blog hay también bastante material para preparar a olímpicos y entrenadores de la Olimpiada. Algunas secciones que pueden ser de utilidad son:

En el siguiente video se explora el blog más a detalle.

Facebook

La red social más popular es Facebook, y una de sus misiones es conectar a las personas. Se puede aprovechar todo el potencial que tienen sus herramientas para dar difusión a los concursos de matemáticas, para estar en contacto con los concursantes y para entrar en contacto con otras comunidades.

Dentro de Facebook, los dos lugares más indicados para ir y estar cerca de la comunidad olímpica matemática de México son:

  • La página de FB de la OMM: Página oficial, manejada por el Comité. Ahí se sube información de eventos, se publican resultados a nivel nacional y se informa de la participación de México en concursos internacionales.
  • El grupo Insommnia: El ambiente es más relajado. Es un grupo extraoficial, pero con una comunidad enorme de olímpicos y ex-olímpicos. Hay chistes, problemas propuestos, videos, discusiones de mejora del proyecto, mini-exámenes, etc.

Cada Comité Estatal puede aprovechar que en Facebook se pueden hacer grupos privados para estar en contacto con organizadores, papás o concursantes.

Hablo más de Facebook y su papel en concursos matemáticos en el siguiente video.

Overleaf

LaTeX es un lenguaje para escribir matemáticas y que se produzca un documento en el cual las matemáticas se vean bonito. Con él se pueden hacer exámenes selectivos, notas de entrenamiento e incluso libros.

Típicamente, para usar LaTeX en una computadora es necesario instalar una distribución y un editor. Overleaf es una página de internet en la cual se puede escribir y compliar LaTeX sin necesidad de instalar nada adicional.

Una ventaja de Overleaf es que lo que se trabaja se queda en la nube, así que se puede acceder a los documentos desde cualqueir computadora con internet. Esto tiene la desventaja de que se necesita tener internet, pero es fácilmente arreglable ya que, de ser necesario, se pueden bajar a una computadora todos los archivos fuente.

Otra ventaja de Overleaf es que se puede hacer colaboración simultánea en un mismo documento. Esto es muy útil para cuando se tiene que escribir matemáticas con otras personas: al hacer notas, escribir artículos de investigación y textos más grandes como libros o tesis.

En el siguiente video hablo más acerca de Overleaf.

Moodle

Un LMS es una plataforma que tiene todo lo que necesita un curso a distancia: herramientas para hacer exámenes, definir actividades, calendarizar, contactar a estudiantes, etc. Uno de los LMS más importantes y de más uso en la docencia a distancia es Moodle.

La principal dificultad con usar Moodle reside en que es necesario descargar un software e instalarlo en un servidor. Esto puede ser muy difícil para alguien que no conoce del tema. Sin embargo, una vez que Moodle queda instalado, es muy facil de usar para profesores y estudiantes (o en este contexto, delegados, entrenadores y concursantes).

El tipo de cosas que se pueden hacer en Moodle incluyen:

  • Tener un sistema de registro de nuevos concursantes
  • Subir notas
  • Subir mini-libros
  • Crear exámenes con límites de tiempo
  • Crear actividades de aprendizaje
  • Hacer cuestionarios
  • Tener foros personalizados

En el siguiente video hablo más a detalle de algunas de estas cosas.

Zoom, Hangouts y otras plataformas de videollamada

Finalmente, me gustaría platicar un poco acerca de opciones para tener videollamadas hoy en día. Sobre todo, me gustaría enfocarme en Zoom y en Hangouts. Ambas son buenas opciones para tener llamadas con grupos de varias personas.

Zoom agarró mucha popularidad en esta época de pandemia, y tiene sentido. Es una herramienta fácil de usar y de instalar que permite:

  • Armar reuniones con muchas personas
  • Compartir la pantalla con los asistentes (por ejemplo, puede servir para dar entrenamientos)
  • Programar reuniones y avisar a los participantes
  • Tener mecanismos de participación por chat, reacciones de «levantar la mano» o «aplaudir»

La versión gratuita de Zoom tiene algunas limitaciones, como que sólo se puede usar por 40 minutos de manera simultánea. La versión de paga permite hacer varias cosas como dividir a un grupo en sub-grupos.

Google Hangouts es una herramienta muy similar. También permite reuniones con muchas personas y compartir la pantalla. Se integra mejor con todo el ecosistema de Google y puede ser muy útil para quienes ya tengan una cuenta ahí.

En el siguiente video hablo de estas y un par de opciones más.

Reflexión final

Esta entrada fue un mini-curso al material y las tecnologías que se pueden usar para seguir organizando concursos matemáticos a distancia. El material que se presentó toma en mente el flujo de participantes en un modelo básico del concurso. También toma en cuenta el tipo de tecnología que podría necesitar un comité organizador local para hacer todas las actividades que se necesitan.

Hay una hipótesis muy fuerte que estamos haciendo: que los organizadores y participantes tienen acceso estable y bueno a internet. Al realizar actividades que aprovechen la tecnología hay que tener en cuenta que esta hipótesis es posible que no se cumpla. Puede suceder que:

  • Haya personas sin acceso a internet
  • Haya personas con acceso sólo con datos, para quienes ver videos es impermisiblemente caro
  • Haya personas con computadora y acceso a internet en su casa, pero de los cuales no puedan disponer
  • Haya personas con todos los recursos tecnológicos, pero viviendo muchas dificultades debido a la pandemia.

Así como muchos otros aspectos de la docencia, es importante tener empatía en el aspecto digital.

Seminario de Resolución de Problemas: Polinomios asociados a matrices y el teorema de Cayley-Hamilton

Introducción

Para terminar esta serie de entradas de álgebra lineal, y con ello el curso de resolución de problemas, hablaremos de polinomios especiales asociados a una matriz: el polinomio mínimo y el polinomio característico. Después, hablaremos del teorema de Cayley-Hamilton, que a grandes rasgos dice que una matriz se anula en su polinomio característico.

Estos resultados forman parte fundamental de la teoría que se aprende en un curso de álgebra lineal. En resolución de problemas, ayudan mucho para entender a los eigenvalores de una matriz, y expresiones polinomiales de matrices.

Polinomio mínimo de una matriz

Podemos evaluar un polinomio en una matriz cuadrada de acuerdo a la siguiente definición.

Definición. Si A es una matriz de n\times n con entradas reales y p(x) es un polinomio en \mathbb{R}[x] de la forma

    \[p(x)=a_0+a_1x+a_2x^2+\ldots+a_nx^n,\]

definimos a la matriz p(A) como la matriz

    \[a_0I_n+a_1A+a_2A^2+\ldots+a_nA^n.\]

De manera análoga se puede dar una definición cuando las entradas de la matriz, o los coeficientes del polinomio, son números complejos.

Cuando una matriz está diagonalizada, digamos A=P^{-1}DP con P invertible y D diagonal, entonces evaluar polinomios en A es sencillo. Se tiene que p(A)=P^{-1} p(D) P, y si las entradas en la diagonal principal de D son d_1,\ldots,d_n, entonces p(D) es diagonal con entradas en la diagonal principal iguales a p(d_1),\ldots,p(d_n).

Dada una matriz A, habrá algunos polinomios p(x) en \mathbb{R}[x] para los cuales p(A)=0. Si p(x) es uno de estos, entonces cualquier eigenvalor de A debe ser raíz de p(x). Veamos un problema de la International Mathematics Competition de 2011 que usa esto. Es el Problema 2 del día 1.

Problema. Determina si existe una matriz A de 3\times 3 con entradas reales tal que su traza es cero y A^2+ {^tA} = I_3.

Sugerencia pre-solución. Busca un polinomio p(x) tal que p(A)=0.

Solución. La respuesta es que no existe dicha matriz. Procedamos por contradicción. Si existiera, podríamos transponer la identidad dada para obtener que

    \begin{align*}A&=I _3- {^t(A^2)}\\&=I_3-({^tA})^2\\&=I_3-(I_3 - A^2)^2\\&=2A^2 - A^4.\end{align*}

De aquí, tendríamos que A^4-2A^2+A = 0, de modo que cualquier eigenvalor de A debe ser una raíz del polinomio

    \[p(x)=x^4-2x^2+x=x(x-1)(x^2+x-1),\]

es decir, debe ser alguno de los números

    \[0,1,\frac{-1+\sqrt{5}}{2}, \frac{-1-\sqrt{5}}{2}.\]

Los eigenvalores de A^2 son los cuadrados de los eigenvalores de A, así que son algunos de los números

    \[0,1,\frac{3+\sqrt{5}}{2}, \frac{3-\sqrt{5}}{2}.\]

Como la traza de A es 0, la suma de sus tres eigenvalores (con multiplicidades), debe ser 0. Como la traza de A^2 es la de I_3-{ ^tA}, que es 3, entonces la suma de los eigenvalores de A al cuadrado (con multiplicidades), debe ser 0. Un sencillo análisis de casos muestra que esto no es posible.

\square

De entre los polinomios que se anulan en A, hay uno especial. El polinomio mínimo de una matriz A con entradas reales es el polinomio mónico \mu_A(x) de menor grado tal que \mu_A(A)=O_n, donde O_n es la matriz de n\times n con puros ceros. Este polinomio siempre es de grado menor o igual a n.

Una propiedad fundamental del polinomio mínimo de una matriz es que es mínimo no sólo en un sentido de grado, sino también de divisibilidad.

Teorema. Sea A una matriz de n\times n con entradas reales. Entonces para cualquier polinomio p(x) en \mathbb{R}[x] tal que p(A)=O_n, se tiene que \mu_A(x) divide a p(x) en \mathbb{R}[x].

Veamos cómo se puede usar este resultado.

Problema. La matriz A de 2\times 2 con entradas reales cumple que

    \[A^3-A^2+A=O_2.\]

Determina los posibles valores que puede tener A^2-A.

Sugerencia pre-solución. Encuentra las posibles opciones que puede tener el polinomio mínimo de A y haz un análisis de casos con respecto a esto.

Solución. La matriz A se anula en el polinomio

    \[p(x)=x^3-x^2+x=x(x^2-x+1),\]

en donde x^2-x+1 tiene discriminante negativo y por lo tanto es irreducible.

El polinomio mínimo \mu_A(x) debe ser un divisor de p(x). Además, es de grado a lo más 2. Esto nos deja con las siguientes opciones:

  • \mu_A(x)=x, de donde A=O_2, y por lo tanto A^2=O_2. De aquí, A^2-A=O_2.
  • \mu_A(x)=x^2-x+1. En este caso, tenemos que A^2-A+I_2=0. Así, A^2-A=-I_2.

Para mostrar que ambas opciones son posibles, en el primer caso usamos A=O_2 y en el segundo caso usamos

    \[A=\begin{pmatrix} 0 & -1 \\ 1 & 1 \end{pmatrix}.\]

\square

Polinomio característico de una matriz

El polinomio característico de una matriz A de n\times n se define como

    \[\chi_A(x)=\det(xI_n - A).\]

Teorema. El polinomio característico de una matriz A cumple que:

  • Es un polinomio mónico en x de grado n.
  • El coeficiente del término de grado n-1 es la traza de A.
  • El coeficiente libre es \chi_A(0)=(-1)^n\det(A).
  • Es igual al polinomio característico de cualquier matriz similar a A.

Para ver ejemplos de cómo obtener el polinomio característico y cómo usar sus propiedades, hacemos referencia a la siguiente entrada:

Propiedades del polinomio característico

En particular, para fines de este curso, es importante leer los ejemplos y problemas resueltos de esa entrada.

El teorema de Cayley-Hamilton y una demostración con densidad

Finalmente, hablaremos de uno de los resultados fundamentales en álgebra lineal.

Teorema (Cayley-Hamilton). Si A es una matriz de n\times n con entradas en \mathbb{C} y \chi_A(x) es su polinomio característico, entonces

    \[\chi_A(A)=O_n.\]

En realidad el teorema de Cayley-Hamilton es válido para matrices más generales. Daremos un esbozo de demostración sólo para matrices con entradas complejas pues eso nos permite introducir una técnica de perturbaciones.

Esbozo de demostración. Vamos a hacer la técnica de la bola de nieve, construyendo familias poco a poco más grandes de matrices que satisfacen el teorema.

Si A es una matriz diagonal, las entradas en su diagonal son sus eigenvalores \lambda_1,\ldots, \lambda_n. Por la discusión al inicio de esta entrada, \chi_A(A) es diagonal con entradas \chi_A(\lambda_1),\ldots,\chi_A(\lambda_n), y como los eigenvalores son raíces del polinomio característico, entonces todos estos valores son 0, y por lo tanto \chi_A(A)=0.

Si A es diagonalizable, digamos, de la forma A=P^{-1} D P, entonces A y D tienen el mismo polinomio característico. Por la discusión al inicio de la entrada, y por el caso anterior:

    \begin{align*}\chi_A(A) &= \chi_D(A)\\&= \chi_D(P^{-1} D P)\\&=P^{-1}\chi_D(D) P\\&=P^{-1}O_n P \\&=O_n.\end{align*}

Si A tiene todos sus eigenvalores distintos, se puede mostrar que A es diagonalizable. Ahora viene la idea clave del argumento de continuidad.

Pensemos al espacio métrico de matrices de n\times n. Afirmamos que las matrices con eigenvalores todos distintos son densas en este espacio métrico. Para ello, tomemos una matriz A. En efecto, como estamos trabajando en \mathbb{C}, existe una matriz invertible P tal que P^{-1}A P es triangular. Como P es invertible, define una transformación continua. Los eigenvalores de P^{-1} A P son sus entradas en la diagonal, y podemos perturbarlos tan poquito como queramos para hacer que todos sean distintos.

De esta forma, existe una sucesión de matrices A_k, todas ellas diagonalizables, tales que A_k \to A conforme k\to \infty. El resultado se sigue entonces de las siguientes observaciones:

  • Los coeficientes del polinomio característico de una matriz dependen continuamente de sus entradas.
  • Las entradas de potencias de una matriz dependen continuamente de sus entradas.
  • Así, la función \chi_{M}(M) es continua en la matriz variable M.

Concluimos como sigue \chi_{A_k}(A_k)=0, por ser cada una de las matrices A_k diagonalizables. Por la continuidad de \chi_{M}(M), tenemos que

    \begin{align*}\chi_A(A)&=\lim_{k\to \infty} \chi_{A_k}(A_k)\\&= \lim_{k\to \infty} O_n \\&= O_n.\end{align*}

\square

Terminamos esta entrada con un problema que usa el teorema de Cayley-Hamilton.

Problema. Muestra que para cualesquiera matrices X,Y,Z de 2\times 2 con entradas reales se cumple que

    \begin{align*}   &ZXYXY + ZYXYX + XYYXZ + YXXYZ\\= &XYXYZ + YXYXZ + ZXYYX + ZYXXY.\end{align*}

Sugerencia pre-solución. Muestra que las matrices reales de 2\times 2 de traza cero conmutan con cualquier matriz de 2\times 2.

Solución. Si A es una matriz de 2\times 2 de traza cero, su polinomio característico es

    \begin{align*}\chi_A(x)&=x^2 - \text{tr}(A) x + \det(A)\\&=x^2 + \det(A).\end{align*}

Por el teorema de Cayley-Hamilton, se satisface entonces que A^2=-\det(A) I_2, así que A^2 es un múltiplo de la identidad, y por lo tanto conmuta con cualquier matriz de 2\times 2.

La identidad que queremos mostrar se puede reescribir como

    \[Z(XY-YX)^2 = (XY-YX)^2Z.\]

La traza de XY es igual a la traza de YX, y como la traza es una transformación lineal, tenemos que

    \[\text{tr}(XY-YX)= \text{tr}(XY)-\text{tr}(YX)=0.\]

El problema se termina aplicando la discusión de arriba a la matriz

    \[A=XY-YX.\]

\square

Más problemas

Puedes encontrar más problemas relacionados con el polinomio mínimo, el polinomio característico y el teorema de Cayley-Hamilton en la Sección 8.2, 8.4 y 8.5 del libro Essential Linear Algebra de Titu Andreescu. También hay más problemas relacionados con el teorema de Cayley-Hamilton en el Capítulo 4 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.

Seminario de Resolución de Problemas: Rango de matrices y el teorema de factorización PJQ

Introducción

El algunas ocasiones es suficiente saber si una matriz es invertible o no. Sin embargo, esta es una distinción muy poco fina. Hay algunos otros problemas en los que se necesita decir más acerca de la matriz. Podemos pensar que una matriz invertible, como transformación lineal, «guarda toda la información» al pasar de un espacio vectorial a otro. Cuando esto no sucede, nos gustaría entender «qué tanta información se guarda». El rango de matrices es una forma de medir esto. Si la matriz es de m\times n, el rango es un número entero que va de cero a n. Mientras mayor sea, «más información guarda».

Por definición, el rango de una matriz A de m\times n es igual a la dimensión del subespacio vectorial de \mathbb{R}^m generado por los vectores columna de A. Una matriz de n\times n tiene rango n si y sólo si es invertible.

Si pensamos a A como la transformación lineal de \mathbb{R}^n a \mathbb{R}^m tal que X\mapsto AX, entonces el rango es precisamente la dimensión de la imagen de A. Esto permite extender la definición de rango a transformaciones lineales arbitrarias, y se estudia con generalidad en un curso de álgebra lineal.

En las siguientes secciones enunciaremos sin demostración algunas propiedades del rango de matrices y las usaremos para resolver problemas.

Propiedades del rango de matrices

Comenzamos enunciando algunas propiedades del rango de matrices

Teorema. Sean m, n y p enteros. Sea B una matriz de n\times p, y A, A' matrices de m\times n. Sean además P una matriz de n\times p cuya transformación lineal asociada es suprayectiva y Q una matriz de r\times m cuya transformación lineal asociada es inyectiva. Entonces:

  1. \rank(A)\leq \min(m,n)
  2. \rank(AB)\leq \min(\rank(A),\rank(B))
  3. \rank(A+A')\leq \rank(A) + \rank(A')
  4. \rank(QA) = \rank(A)
  5. \rank(AP)=\rank(A)

Consideremos el siguiente problema, tomado del libro Essential Linear Algebra de Titu Andreescu.

Problema. Las matrices A y B tienen entradas reales. La matriz A es de 3\times 3, la matriz B es de 2\times 3 y además

    \[AB=\begin{pmatrix} 0 & -1 & -1 \\ -1 & 0 & -1 \\ 1 & 1 & 2 \end{pmatrix}.\]

Determina el valor del producto BA.

Sugerencia pre-solución. Un paso intermedio clave es mostrar que el producto BA es invertible.

Solución. Para empezar, afirmamos que (AB)^2=AB. Esto se puede verificar directamente haciendo el producto de matrices.

Luego, afirmamos que el rango de AB es 2. En efecto, eso se puede hacer fácilmente por definición. Por un lado, la suma de las primeras dos columnas es igual a la tercera, así que el espacio vectorial que generan las tres es de dimensión a lo más dos. Pero es al menos dos, pues las primeras dos columnas son linealmente independientes. Esto muestra la afirmación.

Ahora, usando la propiedad (2) del teorema dos veces, tenemos que

    \begin{align*}\rank(BA)&\geq \rank (A(BA)) \\&\geq \rank (A(BA)B)\\&=\rank((AB)^2) \\&= \rank (AB)\\&=2.\end{align*}

Así, BA es una matriz de 2\times 2 de rango 2 y por lo tanto es invertible.

Consideremos ahora el producto (BA)^3. Desarrollando y usando que (AB)^2=AB, tenemos que

    \begin{align*}(BA)^3 &= BABABA \\&=B(AB)^2 A\\&=BABA\\&=(BA)^2.\end{align*}

Como BA es invertible, entonces (BA)^2 tiene inversa. Si multiplicamos la igualdad (BA)^3 = (BA)^2 por esa inversa, obtenemos que

    \[BA=I_2.\]

\square

El teorema anterior nos permite acotar por arriba el rango del producto de dos matrices. También hay una desigualdad que nos permite acotar por abajo el rango de dicho producto, cuando las matrices son cuadradas.

Teorema (desigualdad de Sylvester). Para matrices A y B de n\times n, se tiene que

    \[\rank(AB)\geq \rank(A) + \rank(B) - n.\]

Problema. La matriz A es de 2020 \times 2020. Muestra que:

  • Si A tiene rango 2017, entonces la matriz A^{673} no puede ser la matriz de 2020\times 2020 de puros ceros, es decir, O_{2020}.
  • Si A tiene rango 2016, entonces la matriz A^{673} puede ser la matriz O_{2020}.

Sugerencia pre-solución. Enuncia una afirmación más general relacionada con el rango que puedas probar por inducción utilizando la desigualdad de Sylvester.

Solución. Para la primer parte, probaremos primero algo más general. Afirmamos que si M es una matriz de n \times n de rango n-s y k es un entero positivo, entonces el rango de la matriz M^k es por lo menos n-ks. Procedemos por inducción sobre k. Si k=1, el resultado es cierto pues M tiene rango n-s=n-1\cdot s.

Supongamos el resultado para cierto entero k. Usando la desigualdad de Sylverster y la hipótesis inductiva, tenemos que

    \begin{align*}\rank(A^{k+1})&\geq \rank(A^k) + \rank(A) - n\\&\geq (n-ks) + (n-s) - n\\&=n-(k+1)s.\end{align*}

Esto muestra la afirmación general.

Si regresamos a la primer parte del problema original y aplicamos el resultado anterior, tenemos que A^{673} es una matriz de rango por lo menos

    \[2020 - 673 \cdot 3 = 2020 - 2019 = 1.\]

De esta forma, A^{673} no puede ser la matriz 0.

Hagamos ahora la segunda parte del problema. Para ello, debemos construir una matriz A de 2020\times 2020 de rango 2016 tal que A^{673} sea la matriz 0. Para ello, consideremos la matriz A tal que sus primeras 4 columnas sean iguales al vector 0, y que sus columnas de la 5 a la 2020 sean los vectores canónicos e_1,\ldots, e_{2016}.

Esta matriz claramente es de rango 2016, pues el espacio generado por sus columnas es el espacio generado por e_1,\ldots, e_{2016}, que es de dimensión 2016. Por otro lado, se puede mostrar inductivamente que para k=1,\ldots,505, se tiene que A^{k} es una matriz en donde sus columnas de 1 a 4k son todas el vector 0, y sus columnas de 4k+1 a 2020 son e_1,\ldots, e_{2020-4k}. En particular, A^{505}=O_{2020}, y entonces A^{673} también es la matriz de puros ceros.

\square

Equivalencias de rango de matrices

Hay muchas formas alternativas para calcular el rango de una matriz. El siguiente teorema resume las equivalencias más usadas en resolución de problemas.

Teorema. Sea A una matriz de m\times n con entradas reales. Los siguientes números son todos iguales:

  • El rango de A, es decir, la dimensión del espacio vectorial generado por los vectores columna de A.
  • La dimensión del espacio vectorial generado por los vectores fila de A. Observa que esto es, por definición, el rango de la transpuesta de A.
  • La cantidad de filas no cero que tiene la forma escalonada reducida de A.
  • (Teorema de rango-nulidad) n-\dim \ker(A), donde \ker(A) es el espacio vectorial de soluciones a AX=0.
  • El tamaño más grande de una submatriz cuadrada de A que sea invertible.
  • La cantidad de eigenvalores complejos distintos de cero contando multiplicidades algebraicas.

Problema. Determina todos los posibles rangos que pueden tener las matrices con entradas reales de la forma

    \[\begin{pmatrix} a & b  & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{pmatrix}.\]

Sugerencia pre-solución. Comienza haciendo casos pequeños. Para dar los ejemplos y mostrar que tienen el rango deseado, usa el teorema de equivalencia de rango para simplificar algunos argumentos.

Solución. El rango de una matriz de 4\times 4 es un entero de 0 a 4. Debemos ver cuáles de estos valores se pueden alcanzar con matrices de la forma dada.

Tomando a=b=c=d=0, obtenemos la matriz O_4, que tiene rango 0. Si a=b=c=d=1, obtenemos la matriz de puros unos, que tiene rango 1. Además, si a=1 y b=c=d=0, obtenemos la matriz identidad, que tiene rango 4.

Si a=b=1 y c=d=0, obtenemos la matriz

    \[A = \begin{pmatrix} 1 & 1 & 0 & 0 \\1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 1 & 1 \end{pmatrix}.\]

Esta matriz tiene sólo dos columnas diferentes, así que su rango es a lo más dos. Pero tiene como submatriz a la matriz

    \[I_2=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix},\]

que tiene rango 2, entonces el rango de A es al menos 2. De esta forma, el rango de A es 2.

Veamos ahora que el rango puede ser 3. Para ello, damos un argumento de determinantes. Llamemos s=a+b+c+d. Sumando las tres últimas filas a la primera y factorizando s, tenemos que

    \begin{align*}\begin{vmatrix} a & b & c & d \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}&=\begin{vmatrix} s & s & s & s \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}\\&=s\begin{vmatrix} 1 & 1 & 1 & 1 \\ b & a & d & c \\ c & d & a & b \\ d & c & b & a \end{vmatrix}.\end{align*}

Así, si tomamos a=b=c=1 y d=-3, entonces s=0 y por lo tanto la matriz B que obtenemos no es invertible, así que su rango es a lo más tres. Pero además es de rango al menos tres pues B tiene como submatriz a

    \[\begin{pmatrix} 1 & 1 & -3 \\ 1 & -3 & 1  \\ -3 & 1 & 1 \end{pmatrix},\]

que es invertible pues su determinante es

    \[-3-3-3-1-1+27=16\neq 0.\]

Concluimos que los posibles rangos que pueden tener las matrices de esa forma son 0,1,2,3,4.

\square

El teorema de factorización PJQ

Existen diversos teoremas que nos permiten factorizar matrices en formas especiales. De acuerdo a lo que pida un problema, es posible que se requiera usar uno u otro resultado. El teorema de factorización más útil para cuando se están resolviendo problemas de rango es el siguiente.

Teorema (factorización PJQ). Sea A una matriz de m\times n y r un entero en \{0,\ldots,\min(m,n)\}. El rango de A es igual a r si y sólo si existen matrices invertibles P de m\times m y Q de n\times n tales que A=PJ_rQ, en donde J_r es la matriz de m\times n cuyas primeras r entradas de su diagonal principal son 1 y todas las demás entradas son cero, es decir, en términos de matrices de bloque,

    \[J_r=\begin{pmatrix}I_r & O_{r,n-r} \\O_{m-r,r} & O_{m-r,n-r}\end{pmatrix}.\]

Como evidencia de la utilidad de este teorema, sugerimos que intentes mostrar que el rango por columnas de una matriz es igual al rango por filas, usando únicamente la definición. Esto es relativamente difícil. Sin embargo, con el teorema PJQ es inmediato. Si A es de m\times n y tiene rango r, entonces su factorización PJQ es de la forma

    \[A=PJ_rQ.\]

Entonces al transponer obtenemos

    \begin{align*}^tA&= {^tQ} {^t J_r} {^tP}.\end{align*}

Esto es de nuevo un factorización PJQ, con {^t J_r} la matriz de n\times m que indica que ^t A es de rango r.

Veamos ahora un problema clásico en el que se puede usar la factorización PJQ.

Problema. Sea A una matriz de m \times n y rango r. Muestra que:

  • A puede ser escrita como la suma de r matrices de rango 1.
  • A no puede ser escrita como la suma de r-1 o menos matrices de rango 1.

Sugerencia pre-solución. Para la primer parte, usa el teorema PJQ. Para la segunda parte, usa desigualdades del rango.

Solución. Tomemos A=PJ_rQ una factorización PJQ de A.

Hagamos la primer parte. Para ello, para cada i=1,\ldots,r, consideremos la matriz L_i de m\times n tal que su i-ésima entrada en la diagonal principal es 1 y el resto de sus entradas son iguales a 0.

Por un lado, L_i es de rango 1, pues tiene sólo una columna distinta de cero. De este modo,

    \[\rank(PL_iQ)\leq \rank(PL_i) \leq \rank(L_i)=1,\]

y como P y Q son invertibles,

    \[\rank(PL_iQ)\geq \rank(L_i) \geq 1.\]

Así, para cada i=1,\ldots, r, se tiene que L_i es de rango 1.

Por otro lado,

    \[J_r = L_1 + L_2 + \ldots + L_r,\]

así que

    \begin{align*}A&=PJ_rQ\\&=P(L_1 + L_2 + \ldots + L_r)Q\\&=PL_1Q + PL_2Q + \ldots + PL_rQ.\end{align*}

Esto expresa a A como suma de r matrices de rango 1.

Para la segunda parte del problema, usamos repetidamente que el rango es subaditivo. Si tenemos matrices B_1,\ldots,B_s matrices de m\times n, entonces

    \begin{align*}\rank(B_1&+B_2+\ldots+B_s) & \\&\leq \rank(B_1) + \rank (B_2 + \ldots + B_s)\\&\leq \rank(B_1) + \rank(B_2) + \rank(B_3+\ldots+B_s)\\& vdots \\&\leq \rank(B_1) + \rank(B_2) + \ldots + \rank(B_s).\end{align*}

Si cada B_i es de rango 1, entonces su suma tiene rango a lo más s.

Así, la suma de r-1 o menos matrices de rango 1 tiene rango a lo más r-1, y por lo tanto no puede ser igual a A.

\square

Más problemas

Puedes encontrar más problemas de rango de una matriz en la Sección 5.4 del libro Essential Linear Algebra de Titu Andreescu. El teorema PJQ, así como muchos problemas ejemplo, los puedes encontrar en el Capítulo 5 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz A es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en M_n(\mathbb{R}) siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo F, no tenemos la garantía de que las matrices simétricas en M_n(F) también lo sean.

Problema. Demuestra que la matriz simétrica con coeficientes complejos

A=\begin{pmatrix} 1 & i \\ i & -1 \end{pmatrix}

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si A fuese diagonalizable, es decir, que existe una matriz invertible P y una diagonal D tal que A=P^{-1}DP, entonces A y D tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de A: buscamos \lambda \in \mathbb{C} tal que \text{det}(\lambda I-A)=0,

    \begin{align*}\text{det}(\lambda I-A)&=\begin{vmatrix} \lambda -1 & -i \\ i & \lambda +1 \end{vmatrix} \\&=(\lambda-1)(\lambda+1)-i^2=\lambda^2 -1+1 \\&=\lambda^2=0.\end{align*}

Por lo tanto, el eigenvalor con multiplicidad 2 de A (y también el eigenvalor de D) es \lambda =0. Si D es de la forma

D=\begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix},

es fácil ver (y calcular) que sus eigenvalores son a y b, pero por lo anterior, podemos concluir que a=b=0, y por lo tanto D es la matriz cero. Si fuese así, A=P^{-1}DP=0, contradiciendo la definición de A.

\square

Problema. Sea A una matriz simétrica con entradas reales y supongamos que A^k=I para algún entero positivo k. Prueba que A^2=I.

Solución. Dado que A es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son k-raíces de la unidad, entonces deben ser \pm 1. Esto implica que todos los eigenvalores de A^2 son iguales a 1. Dado que A^2 también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto A^2=I.

\square

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio V, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

\norm{T}=\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}.

Por ende, decimos que una transformación es acotada si su norma es acotada, \norm{T}<\infty.

Problema. Sea V un espacio euclideano y sea T una transformación lineal simétrica en V. Sean \lambda_1,\ldots,\lambda_n los eigenvalores de T. Prueba que

\sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}} =\max_{1\leq i\leq n} |\lambda_i|.

Solución. Renumerando a los eigenvalores, podemos decir que \max_i |\lambda_i|=|\lambda_n|. Sea e_1,\ldots,e_n una base ortonormal de V tal que T(e_i)=\lambda_i e_i para todo i. Si x\in V\setminus {0}, podemos escribirlo como x=x_1e_1+\ldots+x_n e_n para algunos reales x_i. Entonces, por linealidad de T,

T(x)=\sum_{i=1}^n \lambda_i x_ie_i.

Dado que |\lambda_i|\leq |\lambda_n| para toda i, tenemos que

\frac{\norm{T(x)}}{\norm{x}}=\sqrt{\frac{\sum_{i=1}^n \lambda_i^2 x_i^2}{\sum_{i=1}^n x_i^2}}\leq |\lambda_n|,

por lo tanto

    \begin{align*} \max_{1\leq i\leq n} |\lambda_i|&=|\lambda_n|=\frac{\norm{T(e_n)}}{\norm{e_n}}\\&\leq \sup_{x\in V\setminus{0}} \frac{\norm{T(x)}}{\norm{x}}\\ &\leq |\lambda_n|= \max_{1\leq i\leq n} |\lambda_i|. \end{align*}

Obteniendo lo que queremos.

\square

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

A=\frac{1}{7}\begin{pmatrix} -2 & 6 & -3 \\ 6 & 3 & 2 \\ -3 & 2 & 6 \end{pmatrix}.

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

    \begin{align*}0&=\text{det}(\lambda I-A)=\begin{vmatrix} \lambda+2/7 & -6/7 & 3/7 \\ -6/7 & \lambda-3/7 & -2/7 \\ 3/7 & -2/7 & \lambda-6/7 \end{vmatrix} \\&= \lambda^3-\lambda^2-\lambda+1 \\&= (\lambda -1)(\lambda^2 -1),\end{align*}

entonces los eigenvalores de A son 1,-1, (\lambda=1 tiene multiplicidad 2).

Ahora, hay que encontrar los vectores v=(x,y,z) tal que Av=\lambda v, para todo eigenvalor \lambda.

Si \lambda=-1,

(\lambda I-A)v=\frac{1}{7}\begin{pmatrix} -5 & -6 & 3 \\ -6 & -10 & -2 \\ 3 & -2 & -13 \end{pmatrix}v=0,

reduciendo, obtenemos que v=(3\alpha, -2\alpha, \alpha) para todo \alpha\in \mathbb{R}.

Si \lambda=1, resolviendo de la misma manera (\lambda I-A)v=(I-A)v=0, tenemos que v=(\beta,\gamma,-3\beta+2\gamma) para todo \beta,\gamma. Entonces el conjunto de eigenvectores es

B=\{ v_1=(3,-2,1), \quad v_2=(1,0,-3), \quad v_3=(0,1,2) \}.

Es fácil ver que el conjunto B es linealmente independiente, más aún \text{dim}(\mathbb{R}^3)=3=|B|, por lo tanto, B es la base consistente con los eigenvectores de A.

\square

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!