Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Seminario de Resolución de Problemas: El teorema espectral y matrices positivas

Introducción

En esta entrada hablaremos de matrices simétricas y de matrices positivas. Nos enfocaremos en el caso en el que sus entradas sean números reales. Ambos tipos de matrices son fundamentales en la teoría de álgebra lineal. Tanto para las matrices simétricas como para las positivas hay resultados de caracterización que podemos utilizar en varios problemas matemáticos.

El teorema espectral para matrices simétricas reales

Si A es una matriz de m\times n, su transpuesta ^tA es la matriz de n\times m que se obtiene de reflejar a las entradas de A en su diagonal principal. Otra forma de decirlo es que si en términos de entradas tenemos A=[a_{ij}], entonces ^tA=[a_{ji}]. Una matriz y su transpuesta comparten muchas propiedades, como su determinante, su polinomio característico, su rango, sus eigenvalores, etc.

Decimos que una matriz es simétrica si es igual a su transpuesta. Una matriz es ortogonal si es invertible y ^tA = A^{-1}. Las matrices simétricas y ortogonales con entradas reales son muy importantes y cumplen propiedades bonitas.

Teorema (teorema espectral). Si A es una matriz de n\times n con entradas reales y simétrica, entonces:

  • Sus eigenvalores \lambda_1,\ldots,\lambda_n (contando multiplicidades), son todos reales.
  • Existe una matriz ortogonal P de n\times n y con entradas reales tal que si tomamos a D la matriz diagonal de n\times n cuyas entradas en la diagonal principal son \lambda_1,\ldots,\lambda_n, entonces

        \[A=P^{-1}DP.\]

No todas las matrices se pueden diagonalizar. Cuando una matriz sí se puede diagonalizar, entonces algunas operaciones se hacen más sencillas. Por ejemplo si A=P^{-1}DP como en el teorema anterior, entonces

    \begin{align*}A^2&=(P^{-1}DP)(P^{-1}DP)\\&=P^{-1}DDP\\&=P^{-1}D^2P,\end{align*}

y de manera inductiva se puede probar que A^k=P^{-1}D^kP. Elevar la matriz D a la k-ésima potencia es sencillo, pues como es una matriz diagonal, su k-ésima potencia consiste simplemente en elevar cada una de las entradas en su diagonal a la k.

Problema. Sea A una matriz de n\times n simétrica y de entradas reales. Muestra que si A^k = O_n para algún entero positivo k, entonces A=O_n.

Sugerencia pre-solución. La discusión anterior te permite enunciar la hipótesis en términos de los eigenvalores de A. Modifica el problema a demostrar que todos ellos son cero.

Solución. Como A es simétrica y de entradas reales, entonces sus eigenvalores \lambda_1,\ldots, \lambda_n son reales y es diagonalizable. Digamos que su diagonalización es P^{-1} D P. Tenemos que

    \[O_n = A^k = P^{-1} D^k P.\]

Multiplicando por la matriz P a la izquierda, y la matriz P^{-1} a la derecha, tenemos que D^k=O_n. Las entradas de D^k son \lambda_1^k,\ldots,\lambda_n^k, y la igualdad anterior muestra que todos estos números son iguales a cero. De este modo,

    \[\lambda_1=\ldots=\lambda_n=0.\]

Concluimos que D=O_n, y que por lo tanto A=P^{-1} O_n P = O_n.

\square

Veamos ahora un bello problema que motiva una fórmula para los números de Fibonacci desde la teoría del álgebra lineal.

Problema. Toma la matriz

    \[A=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}.\]

Calcula las primeras potencias de A a mano. Conjetura y muestra cómo es A^n en términos de la sucesión de Fibonacci. A partir de esto, encuentra una fórmula para el n-ésimo término de la sucesión de Fibonacci.

Sugerencia pre-solución. Para empezar, haz las primeras potencias y busca un patrón. Luego, para la demostración de esa parte, procede por inducción. Hay varias formas de escribir a la sucesión de Fibonacci, usa una notación que sea cómoda.

Solución. Al calcular las primeras potencias de la matriz A obtenemos:

    \begin{align*}A&=\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\\A^2&=\begin{pmatrix} 1 & 1 \\ 1 & 2 \end{pmatrix},\\A^3&=\begin{pmatrix} 1 & 2 \\  2& 3 \end{pmatrix},\\A^4&=\begin{pmatrix} 2 & 3 \\ 3 & 5 \end{pmatrix},\\A^5&=\begin{pmatrix} 3 & 5 \\ 5 & 8 \end{pmatrix}.\end{align*}

Al parecer, en las entradas de A van apareciendo los números de Fibonacci. Seamos más concretos. Definimos F_0=0, F_1=1 y para n\geq 0 definimos

    \[F_{n+2}=F_{n}+F_{n+1}.\]

La conjetura es que para todo entero n\geq 1, se tiene que

    \[A^n=\begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1}\end{pmatrix}.\]

Esto se puede probar por inducción. Arriba ya hicimos el caso n=1. Supongamos la conjetura cierta hasta un entero n dado, y consideremos la matriz A^{n+1}. Tenemos haciendo el producto de matrices, usando la hipótesis inductiva y la recursión de Fibonacci, que

    \begin{align*}A^{n+1}&=AA^n\\& =\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} F_{n-1} & F_n \\ F_n & F_{n+1} \end{pmatrix}\\&= \begin{pmatrix} F_n & F_{n+1} \\ F_{n-1} + F_n & F_n + F_{n+1} \end{pmatrix}\\&=\begin{pmatrix} F_n & F_{n+1} \\ F_{n+1} & F_{n+2} \end{pmatrix}.\end{align*}

Esto termina el argumento inductivo y prueba la conjetura.

Para encontrar una fórmula para los Fibonaccis, lo que haremos ahora es usar el teorema espectral. Esto lo podemos hacer pues la matriz A es de entradas reales y simétrica. Para encontrar la matriz diagonal de la factorización, necesitamos a los eigenvalores de A. Su polinomio característico es

    \[\begin{vmatrix} \lambda & -1 \\ - 1 & \lambda -1 \end{vmatrix}=\lambda^2-\lambda -1.\]

Usando la fórmula cuadrática, las raíces de este polinomio (y por tanto, los eigenvalores de A) son

    \[\frac{1\pm \sqrt{5}}{2}.\]

Por el momento, para simplificar la notación, llamemos \alpha a la de signo más y \beta a la raíz de signo menos. Por el teorema espectral, existe una matriz invertible P de 2\times 2 tal que

    \[A=P^{-1}\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} P.\]

De esta forma,

    \[A^n =  P^{-1}\begin{pmatrix} \alpha^n & 0 \\ 0 & \beta^n \end{pmatrix} P.\]

Aquí no es tan importante determinar concretamente P ni realizar las cuentas, sino darnos cuenta de que tras realizarlas cada entrada será una combinación lineal de \alpha^n y \beta^n y de que los coeficientes de esta combinación lineal ya no dependen de n, sino sólo de las entradas de P. En particular, la entrada superior derecha de A^n por un lado es F_n, y por otro lado es r\alpha^n + s\beta ^n.

¿Cómo obtenemos los valores de \alpha y \beta? Basta substituir n=1 y n=2 para obtener un sistema de ecuaciones en \alpha y \beta. Aquí abajo usamos que como \alpha y \beta son raíces de x^2-x-1, entonces \alpha^2=\alpha+1, \beta^2=\beta+1 y \alpha+\beta = 1.

    \[\begin{cases}1= F_1 = r \alpha + s \beta \\1= F_2 = r \alpha^2 + s \beta^2 = r + s + 1.\end{cases}\]

De aquí, obtenemos la solución

    \begin{align*}r&=\frac{1}{\alpha-\beta} = \frac{1}{\sqrt{5}}\\s&=-r = -\frac{1}{\sqrt{5}}.\end{align*}

Finalmente, todo este trabajo se resume a que una fórmula para los números de Fibonacci es

    \[F_n=\frac{\left(\frac{1+\sqrt{5}}{2}\right)^n - \left(\frac{1-\sqrt{5}}{2}\right)^n}{\sqrt{5}}.\]

\square

Matrices positivas y positivas definidas

Por definición, una matriz simétrica A de n\times n con entradas reales es positiva si para cualquier vector (columna) v en \mathbb{R}^n se tiene que

    \[^t v A v \geq 0.\]

Aquí ^tv es la transposición de v, es decir, el mismo vector, pero como vector fila.

Si además la igualdad se da sólo para el vector v=0, entonces decimos que A es positiva definida. Un ejemplo sencillo de matriz positiva es la matriz A=\begin{pmatrix} 1 & -1 \\ -1 & 1\end{pmatrix}, pues para cualquier vector v=(x,y) se tiene que

    \[^t v A v = x^2-2xy+y^2=(x-y)^2\geq 0.\]

Sin embargo, esta matriz no es positiva definida pues la expresión anterior se anula en vectores no cero como (1,1). Como puedes verificar, un ejemplo de matriz positiva definida es

    \[B=\begin{pmatrix} 3 & 0 \\ 0 & 4 \end{pmatrix}.\]

Las matrices reales que son positivas definidas son importantes pues caracterizan todos los productos interiores en \mathbb{R}^n. Una vez que se tiene un producto interior en un espacio vectorial de dimensión finita, se pueden aprovechar muchas de sus propiedades o consecuencias, por ejemplo, la desigualdad de Cauchy-Schwarz o la existencia de bases ortogonales para hacer descomposiciones de Fourier.

Para cuando se quieren resolver problemas, es muy útil conocer varias equivalencias de que una matriz sea positiva.

Equivalencias para matrices positivas

El siguiente resultado enuncia algunas de las equivalencias para que una matriz sea positiva

Teorema. Sea A una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B^2 para alguna matriz simétrica B en M_n(\mathbb{R}).
  4. A= {^tC} C para alguna matriz C en M_n(\mathbb{R}).

Hay un resultado análogo para cuando se quiere determinar si una matriz A es positiva definida. En ese caso, los eigenvalores tienen que ser todos positivos. Para los puntos 3 y 4 se necesita además que B y C sean invertibles.

Problema. Sea A una matriz de n\times n con entradas reales, simétrica y positiva. Muestra que si

    \[\text{tr}(A) = n \sqrt[n]{\det(A)},\]

entonces A conmuta con cualquier matriz de n\times n.

Sugerencia pre-solución. Necesitarás usar que matrices similares tienen la misma traza y el mismo determinante, o una versión particular para este problema.

Solución. Las siguientes son propiedades de la traza y el determinante:

  • El determinante de una matriz diagonal es el producto de las entradas en su diagonal.
  • Si tenemos dos matrices similares, entonces tienen la misma traza.

En particular, las hipótesis implican, por el teorema espectral, que A se puede diagonalizar con matrices A=P^{-1} D P, donde D es la matriz diagonal que tiene en su diagonal principal a los eigenvalores \lambda_1,\ldots,\lambda_n de A, y P^{-1} es una matriz invertible. Como A y D son similares, se tiene que

    \begin{align*}\text{tr}(A)=\text{tr}(D)=\lambda_1+\ldots+\lambda_n\\\det(A)=\det(D)=\lambda_1\cdot\ldots\cdot\lambda_n.\end{align*}

Como A es positiva, entonces todos sus eigenvalores son no negativos, así que satisfacen la desigualdad MA-MG:

    \[\frac{\lambda_1+\ldots+\lambda_n}{n} \geq \sqrt[n]{\lambda_1\cdot\ldots\cdot\lambda_n}.\]

Por la última hipótesis del problema, esta desigualdad es de hecho una igualdad. Pero la igualdad en MA-MG se alcanza si y sólo si todos los números son iguales entre sí. Tenemos entonces que todos los eigenvalores son iguales a un cierto valor \lambda, y entonces D=\lambda I_n. Como cualquier múltiplo escalar de la matriz identidad conmuta con cualquier matriz de n\times n, tendríamos entonces que

    \begin{align*}A&=P^{-1}D P \\&=P^{-1}(\lambda I_n) P\\&=(\lambda I_n) (P^{-1}P)\\&=\lambda I_n.\end{align*}

Con esto probamos que A es de hecho un múltiplo de la matriz identidad, y por lo tanto conmuta con cualquier matriz de n\times n.

\square

Más problemas

Puedes encontrar más problemas del teorema espectral, de formas y matrices positivas en la Sección 10.2 y la Sección 10.8 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Problemas de eigenvalores, eigenvectores y polinomio característico.

Para esta entrada haremos uso de las definiciones y propiedades básicas de eigenvalores y polinomio característico vistas en las clases del miércoles y viernes de la semana pasada.

Problema 1. Encuentra los valores propios de la matriz.

    \[A=\begin{pmatrix}0 & -1\\1 & 0\end{pmatrix}\]

Solución. Consideremos a A como una matriz con entradas complejas. Sea \lambda un eigenvalor y x un vector no nulo tal que Ax=\lambda x. Si x_1,x_2 son las coordenadas de x, la condición Ax=\lambda x es equivalente a las ecuaciones

    \[-x_2=\lambda x_1, \hspace{0.5cm} x_1=\lamda x_2.\]

Sustituyendo x_1 en la primera ecuación se sigue que -x_2=\lambda ^2 x_2.
Si x_2=0, entonces x_1=0, lo cual es imposible. Por lo tanto x_2\neq 0 y necesariamente \lambda ^2 =-1, entonces \lambda\in \{-i,i\}. Conversamente, i y -i son ambos eigenvalores, ya que podemos escoger x_2=1 y x_1=\lambda como solución del sistema anterior. Así que vista como matriz compleja, A tiene dos valores propios \pm i.

Por otro lado, si vemos a A como matriz con entradas reales, y \lambda\in \mathbb{R} es un eigenvalor y x un eigenvector como arriba, entonces

    \[(\lambda^2 +1)x_2=0.\]

Como \lambda es real, \lambda^2 +1 es distinto de cero y así x_2=0, luego x_1=0 y x=0. Así que, en conclusión, vista como matriz con entradas reales, A no tiene eigenvalores.

Problema 2. Encuentra el polinomio característico y los eigenvalores de la matriz

    \[A=\begin{pmatrix}0 & 1 & 1\\1 & 0 & 1\\1 & 1 & 1\end{pmatrix} \in M_3(F_2).\]

Solución. \chi_A(\lambda)= \det (\lambda I_3 -A)= \det (\lambda I_3 +A) (pues -1=1 en F_2).

\begin{vmatrix}\lambda & 1 & 1\\1 & \lambda & 1\\1 & 1 & \lambda + 1 \end{vmatrix} = \begin{vmatrix}1+ \lambda & 0 & 1\\1 + \lambda & 1+ \lambda & 1\\0 & \lambda & \lambda + 1 \end{vmatrix}

La igualdad anterior se obtiene de sumar la segunda columna a la primera y la tercera columna a la segunda.

Ahora vemos que

\begin{vmatrix}\lambda +1 & 0 & 1\\1+  \lambda & 1+ \lambda & 1\\0 & \lambda & \lambda + 1 \end{vmatrix} = (\lambda +1)\begin{vmatrix}1 & 0 & 1\\1 & 1+ \lambda & 1\\0 & \lambda & \lambda + 1 \end{vmatrix}

=(\lambda +1)(\lambda +1)^2=(\lambda +1)^3.

Por lo tanto, \chi_A(\lambda)=(\lambda +1)^3, y así el único eigenvalor es 1.

\square

Problema 3. Sean a_0, a_1, \dots, a_{n-1}\in F y sea

A=\begin{pmatrix}0 & 0 & 0 & \dots & 0 & a_0\\1 & 0 & 0 & \dots & 0 & a_1\\0 & 1 & 0 & \dots & 0 & a_2\\\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\0 & 0 & 0 & \dots & 1 & a_{n-1}\end{pmatrix}.

Demuestra que

    \[\chi_A=x^n-a_{n-1}x^{n-1}-\dots - a_0.\]

Demostración. Sea P=x^n-a_{n-1}x^{n-1}-\dots -a_1x- a_0. Considera la matriz

    \[B=xI_n-A=\begin{pmatrix}x & 0 & 0 & \dots  & 0 & -a_0\\1 & x & 0 & \dots & 0 & -a_1\\0 & 1 & x & \dots & 0  & -a_2\\\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\0 & 0 & 0 & \dots & -1 & x -a_{n-1}\end{pmatrix}.\]

Sumando a la primera fila de B la segunda fila multiplicada por x, la tercera fila multiplicada por x^2, \dots, la n-ésima fila multiplicada por x^{n-1} obtenemos la matriz.

    \[C=\begin{pmatrix}0 & 0 & 0 & \dots & 0 & P\\-1 & x & 0 & \dots & 0 & -a_1\\0 & -1 & x & \dots & 0 & -a_2\\\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\0 & 0 & 0 & \dots & -1 & x -a_{n-1}\end{pmatrix}.\]

Tenemos que \chi_A=\det B = \det C y, desarrollando \det C con respecto a la primera fila, obtenemos

    \[\det C = (-1)^{n+1}P\cdot \begin{vmatrix} -1 & x & \dots & 0\\0 & -1 & \dots & 0\\\vdots & \vdots & \ddots & \vdots \\0 & 0 & \dots & -1\end{vmatrix} = (-1)^{n+1}P(-1)^{n-1}=P.\]

\square

Problema 4. Sea A\in M_n(F) una matriz con polinomio característico

    \[\chi_A(t)=(-1)^nt^n+\dots +a_1t+a_0.\]


Demuestra que\chi_A(0)=a_0. Deduce que A es invertible si y sólo si a_0\neq 0.

Demostración. Es fácil ver que \chi_A(0)=a_0, ya que a_0 es el término independiente. Por otro lado, recordamos que \chi_A(t)=\det(A-tI_n), entonces \chi_A(0)=\det A. se sigue que \chi_A(0)=a_0= \det A, y por la última igualdad sabemos que A es invertible si y sólo si a_0\neq 0.

\square

Problema 5. Demuestra que cualquier matriz A\in M_n(\mathbb{R}) es suma de dos matrices invertibles.

Demostración. Veamos que existen B,C\in M_n(\mathbb{R}) tales que A=B+C.
Definimos la matriz B como: b_{ii}=-1 si a_{ii}=0 y b_{ii}=a_{ii} si a_{ii}\neq 0,b_{ij}=a_{ij} si i>j y b_{ij}=0 si i<j.

Similarmente definimos la matriz C como: c_{ii}=1 si a_{ii}=0, c_{ii}=a_{ii} si a_{ii}\neq 0, c_{ij}=a_{ij} si i<j y c_{ij}=0 si i>j.

Por construcción B y C son matrices triangulares con todas sus entradas diagonales distintas de cero. Por lo tanto 0\not\in\{\det B, \det C\}, es decir, B y C son invertibles. Además por la manera en la que construimos las matrices B y C se tiene que A=B+C.

\square

Seminario de Resolución de Problemas: Cálculo de determinantes

Introducción

Una de las habilidades fundamentales que hay que desarrollar para resolver problemas de álgebra lineal es el cálculo de determinantes. Como vimos en la entrada anterior, conocer el determinante de una matriz nos permite saber si es invertible. Así mismo, los determinantes permiten encontrar soluciones a sistemas de ecuaciones lineales, y más adelante veremos que están relacionados con el rango. Además, los determinantes juegan un papel muy importante en otras áreas de las matemáticas, como cálculo y teoría de gráficas.

Todo parte de la siguiente definición:

Definición. Para una matriz A de n \times n con entradas reales A=[a_{ij}], el determinante de A es

    \[\det A = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},\]

donde la suma se hace sobre todas las permutaciones (funciones biyectivas) \sigma de \{1,\ldots,n\} a sí mismo y \text{sign}(\sigma) es el signo de la permutación.

A \det A también lo escribimos a veces en notación de «matriz con barras verticales» como sigue:

    \begin{align*}\det A = \begin{vmatrix}a_{11} & a_{12} & \ldots & a_{1n}\\a_{21} & a_{22} & \ldots & a_{2n}\\\vdots & & \ddots & \vdots\\a_{n1} & a_{n2} & \ldots & a_{nn}.\end{vmatrix}.\end{align*}

La definición permite mostrar de maneras muy elegantes las propiedades que cumplen los determinantes, pero no es nada práctica para cuando se quieren hacer las cuentas. Como la suma se hace sobre todas las permutaciones \sigma de un conjunto de n elementos, si quisiéramos calcular determinantes por definición se tendrían que hacer n! productos, y luego sumar todos estos resultados.

Por esta razón, es muy importante encontrar otras formas de evaluar determinantes. Para empezar, esta entrada hará referencia a dos enlaces del blog en los que se discuten las propiedades básicas de determinantes. Luego, se hablará de dos tipos especiales de determinantes: los de Vandermonde y los de matrices circulantes.

Técnicas básicas de cálculo de determinantes

Lo primero y más importante es que conozcas las teoría básica para cálculo de determinantes. Aquí en el blog hay una entrada que sirve justo para conocer las propiedades y técnicas principales para encontrar determinantes.

Técnicas básicas de cálculo de determinantes

Además, es también muy importante que sepas calcular determinantes usando la expansión de Laplace. En la siguiente entrada puedes ver el enunciado de la técnica, y cómo se usa en varios ejemplos:

Problemas de cálculo de determinantes

Para fines de este curso, es importante que revises esas entradas. Puedes saltarte las demostraciones de los resultados principales, pero presta atención a cómo se usan en cada uno de los problemas.

Las siguientes secciones presentan técnicas avanzadas que a veces resultan útiles. Sin embargo, tómalas como temas optativos, dando prioridad a primero dominar los básicos.

Determinantes de Vandermonde

Teorema (determinante de Vandermonde). Sean a_1,\ldots,a_n números reales. El determinante de la matriz de Vandermonde

    \begin{align*}\begin{pmatrix}1&a_1 & a_1^2 & \ldots & a_1^{n-1}\\1 & a_2 & a_2^2 & \ldots & a_2^{n-1}\\1&a_3 & a_3^2 & \ldots & a_3^{n-1}\\\vdots& & & \ddots & \vdots\\1& a_n & a_n^2 & \ldots & a_n^{n-1}\\\end{pmatrix}\end{align*}

es igual a

    \[\prod_{1\leq i < j \leq n} (a_j-a_i).\]

Ejemplo. La matriz

    \[\begin{pmatrix} 1 & a & a^2 \\ 1 & b & b^2 \\ 1 & c & c^2\end{pmatrix}\]

es una matriz de Vandermonde, así que su determinante es

    \[(b-a)(c-a)(c-b).\]

\square

Veamos un problema en el que aparece una matriz de Vandermonde.

Problema. Sean a, b y c reales distintos de 0. Muestra que el determinante de

    \[\begin{vmatrix}a^2 & b^2 & c^2\\ c^2& a^2 & b^2 \\ ca & ab & bc \end{vmatrix}\]

es

    \[(a^2-bc)(b^2-ca)(c^2-ab).\]

Sugerencia pre-solución. Formula un problema equivalente usando propiedades de determinantes para que quede un determinante del tipo de Vandermonde. Aprovecha la simetría para ahorrar algunas cuentas.

Solución. Como el determinante es homogéneo en cada columna, podemos factorizar a^2 de la primera, b^2 de la segunda y c^2 de la tercera para obtener que

    \begin{align*}\begin{vmatrix}a^2 & b^2 & c^2\\ c^2& a^2 & b^2 \\ ca & ab & bc \end{vmatrix} &= (abc)^2 \begin{vmatrix}1 & 1 & 1 \\ \frac{c^2}{a^2}& \frac{a^2}{b^2} & \frac{b^2}{c^2} \\ \frac{c}{a} & \frac{a}{b} & \frac{b}{c} \end{vmatrix}\\&=-(abc)^2 \begin{vmatrix}1 & 1 & 1 \\ \frac{c}{a} & \frac{a}{b} & \frac{b}{c} \\ \frac{c^2}{a^2}& \frac{a^2}{b^2} & \frac{b^2}{c^2} \end{vmatrix}.\end{align*}

Aquí también usamos que al intercambiar dos filas (o columnas), el determinante de una matriz cambia de signo.

Una matriz tiene el mismo determinante que su transpuesta, y la transpuesta de esta última matriz es de Vandermonde, de modo que

    \[-(abc)^2 \begin{vmatrix}1 & 1 & 1 \\ \frac{c}{a} & \frac{a}{b} & \frac{b}{c} \\ \frac{c^2}{a^2}& \frac{a^2}{b^2} & \frac{b^2}{c^2} \end{vmatrix} = -(abc)^2 \left(\frac{a}{b}-\frac{c}{a}\right)\left(\frac{b}{c}-\frac{c}{a}\right)\left(\frac{b}{c}-\frac{a}{b}\right).\]

Vamos a partir esta última expresión en factores simétricos. Tenemos que

    \[ab\left(\frac{a}{b}-\frac{c}{a}\right)=a^2-bc.\]

De manera similar, tenemos también

    \[-ca\left(\frac{b}{c}-\frac{c}{a}\right)=c^2-ab\]

y

    \[bc\left(\frac{b}{c}-\frac{a}{b}\right)=b^2-ac.\]

Así, concluimos que

    \[\begin{vmatrix}a^2 & b^2 & c^2\\ c^2& a^2 & b^2 \\ ca & ab & bc \end{vmatrix}= (a^2-bc)(b^2-ca)(c^2-ab).\]

\square

Determinantes de matrices circulantes

Teorema (determinantes circulantes) Sean a_1,\ldots, a_n números reales. El determinante de la matriz circulante

    \begin{align*}\begin{pmatrix}a_1& a_n & a_{n-1} & \ldots & a_2\\a_2&a_1& a_{n}& \ldots & a_3\\a_3 & a_2& a_1& \ldots & a_4\\\vdots& & & \ddots & \vdots\\a_n& a_{n-1} & a_{n-2} &\ldots & a_1.\end{pmatrix}\end{align*}

es

    \[\prod_{j=0}^{n-1} (a_1 + a_n \omega_j + a_{n-1} \omega_j^2 + \ldots + a_2 \omega_j^{n-1}),\]

en donde \omega_j es la n-ésima raíz de la unidad dada por \omega_j:= e^{j \cdot \frac{2\pi i}{n}}.

Ejemplo. La matriz

    \[\begin{pmatrix} a & b & c \\ c & a & b \\ b & c & a\end{pmatrix}\]

es una matriz circulante, así que su determinante es

    \[(a+b+c)(a+\omega b + \omega^2 c)(a+\omega^2 b+ \omega c),\]

donde \omega es la raíz cúbica de la unidad de argumento positivo mínimo.

\square

El siguiente problema apareció en la tercera edición de la Olimpiada Iberoamericana de Matemática Universitaria. El enunciado en esa ocasión fue un poco distinto, pero lo adaptamos a la notación de esta entrada.

Problema. Sea n\geq 3 un entero Muestra que el determinante de la matriz circulante en donde a_1=a_n=a_{n-1}=1 y a_2=\ldots=a_{n-1}=0 es 3 si n no es un múltiplo de 3 y es 0 si n es un múltiplo de 3.

Sugerencia pre-solución. Para empezar, aplica el teorema de determinantes de matrices circulantes. Luego, necesitarás además un argumento de polinomios y de números complejos.

Solución. Para empezar, llamemos A_n a la matriz del problema. Como A_n es una matriz circulante, su determinante es

    \[\det(A_n) = \prod_{j=0}^{n-1} (1 + \omega_j + \omega_j^2).\]

El polinomio 1+x+x^2 se factoriza como (\eta-x)(\eta^2-x), donde \eta es la raíz cúbica de la unidad de argumento positivo mínimo. De esta forma, podemos reescribir al determinante de A_n como

    \[\det(A_n) = \prod_{j=0}^{n-1} (\eta-\omega_j)(\eta^2-\omega_j).\]

El polinomio h(x)=x^n-1 se factoriza como

    \[h(x)=(x-\omega_0)(x-\omega_1)\ldots(x-\omega_{n-1}),\]

así que \det(A_n) es precisamente el producto de h(\eta) con h(\eta^2). En otras palabras,

    \begin{align*}\det(A_n)&= (\eta^n-1)(\eta^{2n}-1)\\&=\eta^{3n}+1-(\eta^n+\eta^{2n})\\&=2-(\eta^n+\eta^{2n})\end{align*}

Finalmente, hacemos un análisis de casos:

  • Si n es múltiplo de 3, entonces \eta^n = \eta^{2n} = 1 y entonces \det(A_n)=0.
  • Si n no es múltiplo de 3, entonces n y 2n no son congruentes módulo 3, y entonces \eta^n y \eta^{2n} son \eta y \eta^2 en algún orden. Así,

        \[(\eta^n+\eta^{2n})=\eta+\eta^2=-1,\]

    y por lo tanto \det(A_n)=3.

\square

Más problemas

Puedes encontrar más problemas de cálculo de determinantes en la Sección 7.4 y la Sección 7.5 del libro Essential Linear Algebra de Titu Andreescu.

Álgebra Lineal I: Teorema espectral para matrices simétricas reales

Introducción

En esta entrada demostramos el teorema espectral para matrices simétricas reales en sus dos formas. Como recordatorio, lo que probaremos es lo siguiente.

Teorema. Sea V un espacio euclideano y T:V\to V una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Teorema. Sea A una matriz simétrica en \mathbb{R}^n. Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en \mathbb{R}^n, tales que

    \[A=P^{-1}DP.\]

Para ello, usaremos los tres resultados auxiliares que demostramos en la entrada de eigenvalores de matrices simétricas reales. Los enunciados precisos están en ese enlace. Los resumimos aquí de manera un poco informal.

  • Los eigenvalores complejos de matrices simétricas reales son números reales.
  • Si una transformación T es simétrica y W es un subespacio estable bajo T, entonces W^\bot también lo es. Además, T restringida a W o a W^\bot también es simétrica.
  • Es lo mismo que una matriz sea diagonalizable, a que exista una base formada eigenvectores de la matriz.

Además de demostrar el teorema espectral, al final de la entrada probaremos una de sus consecuencias más importantes. Veremos una clasificación de las matrices que inducen formas bilineales positivas.

Demostración de la primera versión del teorema espectral

Comenzamos mostrando la siguiente versión del teorema espectral.

Teorema. Sea V un espacio euclideano y T:V\to V una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Demostración. Como V es espacio Euclideano, entonces tiene cierta dimensión finita n. Haremos inducción fuerte sobre n. Si n=1, el polinomio característico de T es de grado 1 y con coeficientes reales, así que tiene una raíz \lambda real. Si v es un eigenvector de T para \lambda, entonces \frac{v}{\norm{v}} también es eigenvector de T y conforma una base ortonormal para V.

Supongamos que el resultado es cierto para todo espacio Euclideano de dimensión menor a n y tomemos V espacio Euclideano de dimensión n. Por el teorema fundamental del álgebra, el polinomio característico de T tiene por lo menos una raíz \lambda en \mathbb{C}. Como T es simétrica, cualquier matriz A que represente a T también, y \lambda sería una raíz del polinomio característico de A. Por el resultado que vimos en la entrada anterior, \lambda es real.

Consideremos el kernel W de la transformación \lambda \text{id} - T. Si W es de dimensión n, entonces W=V, y por lo tanto T(v)=\lambda v para todo vector v en V, es decir, todo vector no cero de V es eigenvector de T. De esta forma, cualquier base ortonormal de V satisface la conclusión. De esta forma, podemos suponer que W\neq V y que por lo tanto 1\leq \dim W \leq n-1, y como

    \[V=W\oplus W^\bot,\]

se obtiene que 1\leq \dim W^\bot \leq n-1. Sea B una base ortonormal de W, que por lo tanto está formada por eigenvectores de T con eigenvalor \lambda.

Como la restricción T_1 de T a W^\bot es una transformación simétrica, podemos aplicar la hipótesis inductiva y encontrar una base ortonormal B' de eigenvectores de T_1 (y por lo tanto de T) para W^\bot.

Usando de nuevo que

    \[V=W\oplus W^\bot,\]

tenemos que B\cup B' es una base de V formada por eigenvectores de T.

El producto interior de dos elementos distintos de B, o de dos elementos distintos de B' es cero, pues individualmente son bases ortonormales. El producto de un elemento de B y uno de B' es cero pues un elemento está en W y el otro en W^\bot. Además, todos los elementos de B\cup B' tiene norma 1, pues vienen de bases ortogonales. Esto muestra que B\cup B' es una base ortonormal de V que consiste de eigenvectores de T.

\square

Demostración de la segunda versión del teorema espectral

Veamos ahora la demostración del teorema espectral en su enunciado con matrices.

Teorema. Sea A una matriz simétrica en \mathbb{R}^n. Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en \mathbb{R}^n, tales que

    \[A=P^{-1}DP.\]

Demostración. Como A es una matriz simétrica, la transformación T:F^n\to F^n dada por T(X)=AX es simétrica. Aplicando la primer versión del teorema espectral, existe una base ortonormal de F^n que consiste de eigenvectores de T. Digamos que estos eigenvectores son C_1,\ldots,C_n. Por definición de T, estos eigenvectores de T son exactamente eigenvectores de A.

Anteriormente demostramos que si construimos a una matriz B usando a C_1,\ldots,C_n como columnas y tomamos la matriz diagonal D cuyas entradas son los eigenvalores correspondientes \lambda_1,\ldots,\lambda_n, entonces

    \[A=BDB^{-1}.\]

Afirmamos que la matriz B es ortogonal. En efecto, la fila j de la matriz ^t B es precisamente C_j. De esta forma, la entrada (i,j) del producto {^tB} B es precisamente el producto punto de C_i con C_j. Como la familia C_1,\ldots,C_n es ortonormal, tenemos que dicho producto punto es uno si i=j y cero en otro caso. De aquí, se concluye que {^tB} B=I_n.

Si una matriz es ortogonal, entonces su inversa también. Esto es sencillo de demostrar y queda como tarea moral. Así, definiendo P=B^{-1}, tenemos la igualdad

    \[A=P^{-1}DP,\]

con D diagonal y P ortogonal, justo como lo afirma el teorema.

\square

Matrices positivas y positivas definidas

Una matriz A simétrica en M_n(\mathbb{R}) induce una forma bilineal simétrica en \mathbb{R}^n mediante la asignación

    \[(x,y) \mapsto {^t x} A y,\]

con forma cuadrática correspondiente

    \[x \mapsto {^t x} A x.\]

Definición. Una matriz A en M_n(\mathbb{R}) es positiva o positiva definida si su forma bilineal asociada es positiva o positiva definida respectivamente.

Una de las aplicaciones del teorema espectral es que nos permite dar una clasificación de las matrices simétricas positivas.

Teorema. Sea A una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B^2 para alguna matriz simétrica B en M_n(\mathbb{R}).
  4. A= {^tC} C para alguna matriz C en M_n(\mathbb{R}).

Demostración. (1) implica (2). Supongamos que A es positiva y tomemos \lambda un eigenvalor de A. Tomemos v un eigenvector de eigenvalor \lambda. Tenemos que:

    \begin{align*}\lambda \norm{v}^2 &=\lambda {^tv} v\\&= {^t v} (\lambda v)\\&={^t v} Av\\&\geq 0.  \end{align*}

Como \norm{v}^2\geq 0, debemos tener \lambda \geq 0.

(2) implica (3). Como A es matriz simétrica, por el teorema espectral tiene una diagonalización A=P^{-1}DP con P una matriz invertible y D una matriz diagonal cuyas entradas son los eigenvalores \lambda_1,\ldots,\lambda_n de A. Como los eigenvalores son no negativos, podemos considerar la matriz diagonal E cuyas entradas son los reales \sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}. Notemos que E^2=D, así que si definimos a la matriz B=P^{-1}EP, tenemos que

    \[B^2=P^{-1}E^2 P = P^{-1}DP = A.\]

Además, B es simétrica pues como E es diagonal y P es ortogonal, tenemos que

    \begin{align*}{^tB} &= {^t P} {^t E} {^t (P^{-1})}\\&= P^{-1} E P\\&= B.\end{align*}

(3) implica (4). Es inmediato, tomando C=B y usando que B es simétrica.

(4) implica (1). Si A= {^tC} C y tomamos un vector v en \mathbb{R}^n, tenemos que

    \begin{align*}{^t v} A v &= {^tv} {^tC} C v\\&= {^t(Cv)} (Cv)\\&=\norm{Cv}^2\\&\geq 0,\end{align*}

lo cual muestra que A es positiva.

\square

También hay una versión de este teorema para matrices simétricas positivas definidas. Enunciarlo y demostrarlo queda como tarea moral.

En una entrada final, se verá otra consecuencia linda del teorema espectral: el teorema de descomposición polar. Dice que cualquier matriz con entradas reales se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Más allá del teorema espectral

Durante el curso introdujimos varias de las nociones fundamentales de álgebra lineal. Con ellas logramos llegar a uno de los teoremas más bellos: el teorema espectral. Sin embargo, la teoría de álgebra lineal no termina aquí. Si en tu formación matemática profundizas en el área, verás otros temas y resultados fundamentales como los siguientes:

  • El teorema de Cayley-Hamiltón: toda matriz se anula en su polinomio característico.
  • La clasificación de matrices diagonalizables: una matriz es diagonalizable si y sólo si su polinomio característico se factoriza en el campo de la matriz, y la multiplicidad algebraica de sus eigenvalores corresponde con la multiplicidad geométrica.
  • El teorema de la forma canónica de Jordan: aunque una matriz no se pueda diagonalizar, siempre puede ser llevada a una forma estándar «bonita».
  • Productos interiores con imágenes en \mathbb{C}, a los que también se les conoce como formas hermitianas.
  • Los polinomios mínimos de matrices y transformaciones, que comparten varias propiedades con el polinomio característico, pero dan información un poco más detallada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Muestra que la inversa de una matriz ortogonal es ortogonal.
  • Encuentra una base ortonormal de \mathbb{R}^3 conformada por eigenvectores de la matriz \begin{pmatrix}10 & 0 & -7\\ 0 & 3 & 0 \\ -7 & 0 & 10\end{pmatrix}.
  • Determina si la matriz anterior es positiva y/o positiva definida.
  • Enuncia y demuestra un teorema de clasificación de matrices simétricas positivas definidas.
  • Muestra que la matriz

        \[\begin{pmatrix}5 & 1 & 7\\1 & 10 & -7\\7 & -7 & 18\end{pmatrix}\]

    es positiva.