Archivo de la etiqueta: traza

Ecuaciones Diferenciales I: El plano Traza – Determinante

Las matemáticas son la creación más poderosa y bella del espíritu humano.
– Stefan Banach

Introducción

Con esta entrada culminaremos el estudio de los sistemas lineales. En la unidad 3 hicimos un estudio analítico y en esta unidad un estudio cualitativo, aunque reducido a un sistema compuesto por dos ecuaciones, esto con el fin de hacer al mismo tiempo un estudio geométrico en el plano.

A continuación presentamos un breve resumen de los visto en las entradas anteriores.

Clasificación de los planos fase y los puntos de equilibrio

El sistema que estudiamos todo este tiempo fue

\begin{align*}
x^{\prime} &= ax + by \\
y^{\prime} &= cx + dy \label{1} \tag{1}
\end{align*}

Este sistema lo podemos escribir en forma matricial como

$$\begin{pmatrix}
x^{\prime} \\ y^{\prime}
\end{pmatrix} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} \begin{pmatrix}
x \\ y
\end{pmatrix} \label{2} \tag{2}$$

Si

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
x^{\prime} \\ y^{\prime}
\end{pmatrix}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
x \\ y
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix}$$

entonces el sistema (\ref{2}) se escribe como

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{3} \tag{3}$$

Vimos que la naturaleza y estabilidad del punto de equilibrio quedó caracterizada por los valores propios de la matriz $\mathbf{A}$ del sistema.

El único punto de equilibrio de los sistemas lineales es el origen $Y_{0} = (0, 0)$, siempre que el determinante de $\mathbf{A}$ sea distinto de cero. En la entrada anterior teníamos que $|\mathbf{A}| = 0$, es por ello que obtuvimos infinitos puntos de equilibrio y es que el hecho de que tengamos valores propios nulos es un caso especial y poco común.

En el caso en el que no hay valores propios nulos, sabemos que en función del comportamiento de las trayectorias en relación con el punto de equilibrio aislado $Y_{0} = (0, 0)$, este punto se denominará: nodo, punto silla, centro, foco, atractor o repulsor. Recordemos cuando se da cada caso.

  1. El punto de equilibrio es un nodo.

    Este caso ocurre cuando los valores propios $\lambda_{1}$ y $\lambda_{2}$ son reales y del mismo signo.
  • Si $\lambda_{1} < \lambda_{2} < 0$, entonces todas las trayectorias se acercan al origen, de manera que el punto de equilibrio es un nodo atractor y será asintóticamente estable.
Nodo atractor.
  • Si $\lambda_{1} > \lambda_{2} > 0$, entonces todas las trayectorias se alejan del origen, por tanto, el punto de equilibrio es un nodo repulsor y será inestable.
Nodo repulsor.
  1. El punto crítico es un punto silla.

    Este caso se presenta cuando los valores propios $\lambda_{1}$ y $\lambda_{2}$ son reales y de distinto signo.
  • Si $\lambda_{1} < 0$ y $\lambda_{2} > 0$ ocurre que dos trayectorias rectas se acercan al origen y otras dos trayectorias rectas se separan de él, mientras que el resto de trayectorias al pasar cerca del origen inmediatamente se alejan de él. Esto nos permite concluir que todo punto silla es inestable.
Punto silla.
  1. El punto crítico es un centro.

    Este caso se presenta cuando los valores propios son imaginarios puros.
  • Si $\lambda_{1} = i \beta$ y $\lambda_{2} = -i \beta$, entonces las trayectorias serán curvas cerradas que rodean al origen, en general tienen forma de elipses, de modo que ninguna trayectoria tiende a él cuando $t \rightarrow + \infty $ o $t \rightarrow -\infty $, esto hace que el punto de equilibrio sea estable, pero no asintóticamente estable.
Centro.
  1. El punto crítico es un foco.

    En este caso los valores propios son complejos conjugados y tienen parte real no nula.
  • Si $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha < 0$, entonces las trayectorias son curvas en forma de espiral que, conforme $t \rightarrow + \infty$ todas se acercan al origen, es por ello que el punto de equilibrio es asintóticamente estable.
Foco estable.
  • Si $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha > 0$, entonces las trayectorias son curvas en forma de espiral que, conforme $t \rightarrow + \infty$ todas se separan del origen, es por ello que el punto de equilibrio es inestable.
Foco inestable.
  1. El punto crítico es un atractor o un repulsor.

    Este caso se presenta cuando un sistema lineal tiene valores propios reales, del mismo signo, pero además iguales.
  • Si $\lambda_{1} = \lambda_{2} < 0$, entonces las trayectorias tienden hacia el origen en forma de rayos o curvas dependiendo de si es posible determinar dos vectores propios o uno propio y otro generalizado. En este caso el punto de equilibrio es un atractor y es asintóticamente estable.
Atractor.
  • Si $\lambda_{1} = \lambda_{2} > 0$, entonces las trayectorias se alejan el origen en forma de rayos o curvas dependiendo de si es posible determinar dos vectores propios o uno propio y otro generalizado. En este caso el punto de equilibrio es un repulsor y es inestable.
Repulsor.
  1. Los puntos críticos son una recta.

    En este caso particular hay infinitos puntos de equilibrio, todos sobre una recta y ocurre cuando uno o ambos valores propios son cero.
Líneas de puntos fijos inestables.
Líneas de puntos fijos estables.

Como podemos ver, las características de las trayectorias y de los puntos de equilibrio en el plano fase quedan determinadas por los valores propios de la matriz de coeficientes $\mathbf{A}$. Sin embargo, estas características también se pueden describir en términos de la traza $T$ y del determinante $D$ de la matriz de coeficientes $A$, veamos como es esto.

La traza y el determinante de la matriz de coeficientes

Consideremos la matriz de coeficientes

$$\mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} \label{4} \tag{4}$$

Sabemos que la traza de una matriz se define como la suma de los elementos de la diagonal principal de dicha matriz. En nuestro caso, la traza de $\mathbf{A}$ es

$$T = Tr(\mathbf{A}) = a + d \label{5} \tag{5}$$

Por otro lado, el determinante de la matriz $\mathbf{A}$ es

$$D = |\mathbf{A}| = ad -bc \label{6} \tag{6}$$

Consideremos la ecuación característica de $\mathbf{A}$.

$$|\mathbf{A} -\lambda \mathbf{I}| = \begin{vmatrix}
a -\lambda & b \\ c & d -\lambda
\end{vmatrix} = 0 \label{7} \tag{7}$$

El polinomio característico es

$$P(\lambda) = (a -\lambda)(d -\lambda) -bc = \lambda^{2} -(a + d) \lambda + (ad -bc) \label{8} \tag{8}$$

Si sustituimos las ecuaciones (\ref{5}) y (\ref{6}) en la ecuación característica se tiene

$$\lambda^{2} -T \lambda + D = 0 \label{9} \tag{9}$$

Las raíces de esta ecuación cuadrática son

$$\lambda_{1} = \dfrac{T + \sqrt{T^{2} -4D}}{2} \hspace{1cm} y \hspace{1cm} \lambda_{2} = \dfrac{T -\sqrt{T^{2} -4D}}{2} \label{10} \tag{10}$$

Hemos logrado escribir a los valores propios de $\mathbf{A}$ en términos de la traza y del determinante de la misma matriz $\mathbf{A}$.

De tarea moral, usando (\ref{10}) calcula explícitamente las operaciones $(\lambda_{1} + \lambda_{2})$ y $(\lambda_{1} \cdot \lambda_{2})$ y verifica que se satisfacen las siguientes relaciones importantes.

$$T = \lambda_{1} + \lambda_{2} \label{11} \tag{11}$$

y

$$D = \lambda_{1} \lambda_{2} \label{12} \tag{12}$$

Es decir, la traza y el determinante de $\mathbf{A}$ también se pueden escribir en términos de los valores propios de $\mathbf{A}$.

El análisis cualitativo que hemos hecho a lo largo de las últimas entradas ha sido en función de los valores propios, recordemos que las posibilidades son

Valores propios reales y distintos:

  • $\lambda_{1} < \lambda_{2} < 0$.
  • $\lambda_{1} > \lambda_{2} > 0$.
  • $\lambda_{1} < 0$ y $\lambda_{2} > 0$.

Valores propios complejos:

  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha < 0$.
  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha = 0$.
  • $\lambda_{1} = \alpha + i \beta$ y $\lambda_{2} = \alpha -i \beta$ con $\alpha > 0$.

Valores propios repetidos:

  • $\lambda_{1} = \lambda_{2} < 0$.
  • $\lambda_{1} = \lambda_{2} > 0$.

Valores propios nulos

  • $\lambda_{1} = 0$ y $\lambda_{2} < 0$.
  • $\lambda_{1} = 0$ y $\lambda_{2} > 0$.
  • $\lambda_{1} = \lambda_{2} = 0$.

Sin embargo, ahora podemos analizar cada caso pero en función de los valores de la traza $T$ y el determinante $D$ de $\mathbf{A}$, ya que inmediatamente podemos notar de (\ref{10}) que los valores propios de $\mathbf{A}$ son complejos si $T^{2} -4D < 0$, son repetidos si $T^{2} -4D = 0$, y son reales y distintos si $T^{2} -4D > 0$.

El plano Traza – Determinante

Comenzaremos a hacer un nuevo bosquejo para los sistemas lineales examinando el conocido plano traza – determinante. El eje $T$ corresponderá a la línea horizontal y representa a la traza, mientras que el eje $D$ corresponderá a la vertical y representa al determinante. En este plano la curva

$$T^{2} -4D = 0$$

o su equivalente,

$$D(T) = \dfrac{T^{2}}{4} \label{13} \tag{13}$$

es una parábola con concavidad hacia arriba. Arriba de ésta encontramos $T^{2} -4D < 0$, y abajo de ella $T^{2} -4D > 0$, tal como se muestra en la siguiente figura.

Plano traza – determinante.

Para usar este plano, calculamos primero $T$ y $D$ para una matriz $\mathbf{A}$ dada y luego localizamos el punto $(T, D)$ en el plano. De forma inmediata podremos visualizar si los valores propios son reales, repetidos o complejos, dependiendo de la posición de $(T, D)$ respecto a la parábola.

Ejemplo: Determinar el tipo de valores propios que tiene el siguiente sistema lineal.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & 5 \\ -2 & 6
\end{pmatrix} \mathbf{Y}$$

Solución: La matriz de coeficientes es

$$\mathbf{A} = \begin{pmatrix}
4 & 5 \\ -2 & 6
\end{pmatrix}$$

Vemos que

$$T = 4 + 6 = 10$$

y

$$D = 4(6) -5(-2) = 24 + 10 = 34$$

Ahora bien

$$T^{2} -4D = (10)^{2} -4(34) = 100 -136 = -36$$

Como $T^{2} -4D < 0$, entonces inmediatamente concluimos que los valores propios son complejos conjugados. Ahora bien, aún no sabemos si se trata de un centro o algún tipo de espiral, pero por el momento no nos preocupemos por ello.

Sólo con el fin de conocer el tipo de soluciones que tiene el sistema, su plano fase es el siguiente.

Plano fase del sistema.

Las trayectorias del sistema corresponden a espirales y el punto de equilibrio es un foco inestable. Observa que la figura ya nos da los valores de la traza, el determinante y el discriminante, aunque con una notación distinta.

Ahora puedes regresar a visualizar los planos fase de todos los ejemplos que hicimos en las 4 entradas anteriores y poner más atención en los valores de la traza y el determinante.

$\square$

Por su puesto que podemos hacer mucho más en el plano traza – determinante. Por ejemplo, desearíamos no sólo saber si los valores propios de $\mathbf{A}$ son complejos, repetidos o reales, sino que también conocer si tienen parte real nula o distinta de cero o si son reales positivos, negativos o de distinto signo, etcétera.

A continuación haremos un análisis más detallado sobre las raíces (\ref{10}) y veremos que tipo de información nos proporciona sobre los sistemas lineales.

Recordemos que los valores propios de $\mathbf{A}$, en términos de la traza y el determinante de $\mathbf{A}$ son

$$\lambda_{1} = \dfrac{T + \sqrt{T^{2} -4D}}{2} \hspace{1cm} y \hspace{1cm} \lambda_{2} = \dfrac{T -\sqrt{T^{2} -4D}}{2}$$

Atendiendo a los diferentes valores de $T$ y $D$, se tiene:

  1. Si $T^{2} -4D < 0$, entonces los valores propios $\lambda_{1}$ y $\lambda_{2}$ son complejos conjugados con parte real igual a $T /2$. Se tienen los siguientes casos:
  • Los valores propios son imaginarios puros si $T = 0$ (centro y estabilidad).
  • Los valores propios tienen parte real negativa cuando $T < 0$ (foco y estabilidad asintótica).
  • Los valores propios tienen parte real positiva cuando $T > 0$ (foco e inestabilidad).

    Si consideramos el plano traza – determinante y denotamos por $O$ al origen podremos asegurar que por encima de la parábola $T^{2} -4D = 0$ se tiene:
  • En el eje $OD$ se presentan los centros y hay estabilidad.
  • A la izquierda del eje $OD$ se presentan los focos y hay estabilidad asintótica.
  • A la derecha del eje $OD$ también se presentan focos, pero hay inestabilidad.
  1. Si $D < 0$, entonces se tiene $T^{2} -4D > T^{2}$. En este caso los valores propios son reales y de distinto signo, lo que significa que se presentarán puntos silla e inestabilidad. En el plano traza – determinante los encontraremos por debajo del eje $T$.
  1. Si $D > 0$ y $T^{2} -4D \geq 0$, entonces los valores propios son reales y tienen el mismo signo que $T$. Los casos posibles son:
  • Si $T < 0$, se tiene:
    • Cuando $T^{2} -4D = 0$, los valores propios son iguales y negativos (atractor y estabilidad asintótica).
    • Cuando $T^{2} -4D > 0$, los valores propios son reales, distintos y negativos (nodo atractor y estabilidad asintótica).
  • Si $T > 0$, se tiene:
    • Cuando $T^{2} -4D = 0$, los valores propios son iguales y positivos (repulsor e inestabilidad).
    • Cuando $T^{2} -4D > 0$, los valores propios son reales, distintos y positivos (nodo repulsor e inestabilidad).
  1. Si $D = 0$, entonces uno o ambos valores propios son cero. Los siguientes casos se obtienen directamente de (\ref{11}) y (\ref{12}).
  • Si $T = 0$ (origen), entonces ambos valores propios son cero (recta de puntos de equilibrio y trayectorias paralelas a dicha recta).
  • Si $T > 0$, entonces un valor propio es cero y el otro es positivo (recta de puntos de equilibrio inestables y trayectorias rectas que se alejan de la recta de puntos de equilibrio).
  • Si $T < 0$, entonces un valor propio es cero y el otro es negativo (recta de puntos de equilibrio asintóticamente estables y trayectorias rectas que tienden a la recta de puntos de equilibrio).

¡Todo lo que hemos aprendido sobre sistemas lineales homogéneos compuestos por dos ecuaciones diferenciales de primer orden con coeficientes constantes, incluyendo todas las características anteriores, se resume en el siguiente diagrama!.

Plano traza – determinante con todas las posibilidades de planos fase.

Veamos un ejemplo.

Ejemplo: Caracterizar el siguiente sistema lineal.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
3 & -4 \\ 1 & -1
\end{pmatrix} \mathbf{Y}$$

Solución: La matriz de coeficientes es

$$\mathbf{A} = \begin{pmatrix}
3 & -4 \\ 1 & -1
\end{pmatrix}$$

Vemos que

$$T = 3 + (-1) = 2$$

y

$$D = 3(-1) -(-4)(1) = -3 + 4 = 1$$

tenemos, entonces

$$T^{2} -4D = (2)^{2} -4(1) = 4 -4 = 0$$

Como $T > 0$, $D > 0$ y $T^{2} -4D = 0$, vamos al punto 3 y deducimos que el sistema lineal tiene valores propios iguales y positivos. De acuerdo a las ecuaciones (\ref{11}) y (\ref{12}) se tiene el siguiente sistema.

\begin{align*}
T &= 2 = \lambda_{1} + \lambda_{2} \\
D &= 1 = \lambda_{1}\lambda_{2}
\end{align*}

De la primer ecuación obtenemos $\lambda_{1} = 2 -\lambda_{2}$, sustituyendo en la segunda ecuación se tiene

$$1 = (2 -\lambda_{2}) \lambda_{2}$$

de aquí obtenemos la ecuación cuadrática

$$\lambda_{2}^{2} -2 \lambda_{2} + 1 = 0$$

Las raíces son

$$\lambda_{2} = \dfrac{2 \pm \sqrt{4 -4}}{2} = 1$$

La única raíz es $\lambda_{2} = 1$, sustituyendo en cualquier ecuación del sistema obtenemos que $\lambda_{1} = 1$. Por lo tanto, el único valor propio de la matriz $\mathbf{A}$ es $\lambda = 1$ (iguales y positivos, tal como lo habíamos deducido).

Si vamos al plano traza – determinante, como $T > 0$ y $D > 0$, entonces estamos en el primer cuadrante, pero además $T^{2} -4D = 0$, así que estamos situados sobre la parábola del primer cuadrante, exactamente en el punto $(T, D) = (2, 1)$, esto nos permite concluir que el plano fase del sistema corresponde a repulsor.

El plano fase del sistema es el siguiente.

Plano fase del sistema.

Efectivamente se trata de un repulsor.

$\square$

Debido a que cada punto del plano traza – determinante representa un plano fase distinto, el plano traza – determinante es un ejemplo de lo que se conoce como plano paramétrico.

El plano paramétrico

El plano traza – determinante es un ejemplo de un plano paramétrico. Los elementos de la matriz $\mathbf{A}$ son parámetros que se pueden ajustar, cuando esos elementos cambian, la traza y el determinante de la matriz también se modifican y el punto $(T, D)$ se mueve en el plano paramétrico. Cuando este punto entra en las diversas regiones del plano traza – determinante, debemos imaginar que los retratos fase asociados también experimentan transformaciones.

El plano traza – determinante es un esquema de clasificación del comportamiento de todas las posibles soluciones de sistemas lineales.

En este enlace se tiene acceso a una herramienta visual del plano paramétrico. En él se puede mover el punto $(T, D)$ a lo largo de las diferentes regiones del plano traza – determinante a la vez que visualizamos el tipo de planos fase que se generan. ¡Pruébalo y diviértete!

Con esto concluimos el estudio de los sistemas lineales. Cabe mencionar que el plano traza – determinante no da una información completa sobre el sistema lineal tratado.

Por ejemplo, a lo largo de la parábola $T^{2} -4D = 0$ tenemos valores propios repetidos, pero no podemos determinar si tenemos uno o varios vectores propios linealmente independientes. para saberlo es preciso calcularlos.

De modo similar, no podemos determinar la dirección en que las soluciones se mueven alrededor del origen si $T^{2}-4D < 0$. Por ejemplo, las dos matrices

$$\mathbf{A} = \begin{pmatrix}
0 & 1 \\ -1 & 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{B} = \begin{pmatrix}
0 & -1 \\ 1 & 0
\end{pmatrix}$$

tienen traza $T = 0$ y determinante $D = 1$, pero las soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ se mueven alrededor del origen en el sentido de las manecillas del reloj, mientras que las soluciones de $\mathbf{Y}^{\prime} = \mathbf{BY}$ viajan en el sentido opuesto.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Hacer un análisis cualitativo de los siguientes sistemas lineales apoyándose de la traza y el determinante de la matriz de coeficientes $\mathbf{A}$, así como del plano traza – determinante. Es decir, de acuerdo al valor de la traza $T$, el determinante $D$ y el discriminante $T^{2} -4D$, determinar que tipo de valores propios tiene el sistema, así como el tipo de plano fase y estabilidad del punto de equilibrio.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    5 & 4 \\ -2 & 3
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & -1 \\ -2 & 3
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 \\ 4 & 1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -1 \\ 1 & 3
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    6 & 3 \\ 2 & 1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & -5 \\ 2 & 2
    \end{pmatrix} \mathbf{Y}$

Más adelante…

Estamos cerca de concluir el curso. En las próximas entradas estudiaremos de manera cualitativa a los sistemas no lineales compuestos por dos ecuaciones diferenciales de primer orden.

En particular, en la siguiente entrada veremos que alrededor de un punto de equilibrio de un sistema no lineal las trayectorias son muy parecidas a las de un sistema lineal lo que nos permitirá observar el comportamiento que tienen las soluciones del sistema no lineal, al menos cerca de un punto de equilibrio.

Entradas relacionadas

Álgebra Lineal I: Propiedades del polinomio característico

Introducción

En esta entrada continuamos con el estudio de eigenvalores y eigenvectores de matrices y trasformaciones lineales. Para ello, estudiaremos más a profundidad el polinomio característico.

Como recordatorio, en una entrada pasada demostramos que si $A$ es una matriz en $M_n(F)$, entonces la expresión $\det (\lambda I_n – A)$ es un polinomio en $\lambda$ de grado $n$ con coeficientes en $F$. A partir de ello, definimos el polinomio característico de $A$ como $$\chi_A(\lambda)=\det(\lambda I_n – A).$$

En esta entrada probaremos algunas propiedades importantes del polinomio característico de matrices. Además, hablaremos de la multiplicidad algebraica de los eigenvalores. Finalmente enunciaremos sin demostración dos teoremas fundamentales en álgebra lineal: el teorema de caracterización de matrices diagonalizables y el teorema de Cayley-Hamilton.

Las raíces del polinomio característico son los eigenvalores

Ya vimos que las raíces del polinomio característico son los eigenvalores. Pero hay que tener cuidado. Deben ser las raíces que estén en el campo en el cual la matriz esté definida. Veamos un ejemplo más.

Problema. Encuentra el polinomio característico y los eigenvalores de la matriz \begin{align*}
\begin{pmatrix}
0&1&0&0\\
2&0&-1&0\\
0& 7 & 0 & 6\\
0 & 0 & 3 & 0
\end{pmatrix}.
\end{align*}

Solución. Debemos encontrar las raíces del polinomio dado por el siguiente determinante:
\begin{align*}
\begin{vmatrix}
\lambda&-1&0&0\\
-2&\lambda&1&0\\
0& -7 & \lambda & -6\\
0 & 0 & -3 & \lambda
\end{vmatrix}.
\end{align*}

Haciendo expansión de Laplace en la primer columna, tenemos que este determinante es igual a

\begin{align*}
\lambda\begin{vmatrix}
\lambda&1&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}
+2\begin{vmatrix}
-1&0&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}.
\end{align*}

Para calcular los determinantes de cada una de las matrices de $3\times 3$ podemos aplicar la fórmula por diagonales para obtener:
\begin{align*}
\lambda\begin{vmatrix}
\lambda&1&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}&=
\lambda(\lambda^3-18\lambda+7\lambda)\\
&=\lambda(\lambda^3-11\lambda)\\
&=\lambda^4-11\lambda^2
\end{align*}

y
\begin{align*}
2\begin{vmatrix}
-1&0&0\\
-7 & \lambda & -6\\
0 & -3 & \lambda
\end{vmatrix}&=
2(-\lambda^2+18)\\
&=-2\lambda^2+36.
\end{align*}

Concluimos que el polinomio característico es
\begin{align*}
\lambda^4-13\lambda^2+36&=(\lambda^2-4)(\lambda^2-9)\\
&=(\lambda+2)(\lambda-2)(\lambda+3)(\lambda-3).
\end{align*}

De esta factorización, las raíces del polinomio (y por lo tanto los eigenvalores que buscamos) son $-2,2,-3,3$.

Si quisiéramos encontrar un eigenvector para, por ejemplo, el eigenvalor $-2$, tenemos que encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo $$(-2I_n-A)X=0.$$

$\square$

Propiedades del polinomio característico

Veamos ahora algunas propiedades importantes del polinomio característico. El primer resultado habla del polinomio característico de matrices triangulares superiores. Un resultado análogo se cumple para matrices inferiores, y su enunciado y demostración quedan como tarea moral.

Proposición. Si $A=[a_{ij}]$ es una matriz triangular superior en $M_n(F)$, entonces su polinomio característico es $$\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).$$

Demostración. Como $A$ es triangular superior, entonces $\lambda I_n -A$ también, y sus entradas diagonales son precisamente $\lambda-a_{ii}$ para $i=1,\ldots,n$. Como el determinante de una matriz triangular es el producto de sus entradas en la diagonal, tenemos que $$\chi_A(\lambda)=\prod_{i=1}^n (\lambda-a_{ii}).$$

$\square$

Como el polinomio característico es un determinante, podemos aprovechar otras propiedades de determinantes para obtener otros resultados.

Proposición. Una matriz y su transpuesta tienen el mismo polinomio característico.

Demostración. Sea $A$ una matriz en $M_n(F)$. Una matriz y su transpuesta tienen el mismo determinante. Además, transponer es una transformación lineal. De este modo:
\begin{align*}
\chi_A(\lambda)&=\det(\lambda I_n – A)\\
&=\det({^t(\lambda I_n-A)})\\
&=\det(\lambda({^tI_n})-{^tA})\\
&=\det(\lambda I_n – {^tA})\\
&=\chi_{^tA}(\lambda).
\end{align*}

$\square$

Ya antes habíamos mostrado que matrices similares tienen los mismos eigenvalores, pero que dos polinomios tengan las mismas raíces no necesariamente implica que sean iguales. Por ejemplo, los polinomios $$(x-1)^2(x+1) \quad \text{y} \quad (x+1)^2(x-1)$$ tienen las mismas raíces, pero no son iguales.

De esta forma, el siguiente resultado es más fuerte de lo que ya habíamos demostrado antes.

Proposición. Sean $A$ y $P$ matrices en $M_n(F)$ con $P$ invertible. Entonces $A$ y $P^{-1}AP$ tienen el mismo polinomio característico.

Demostración. El resultado se sigue de la siguiente cadena de igualdades, en donde usamos que $\det(P)\det(P^{-1})=1$ y que el determinante es multiplicativo:

\begin{align*}
\chi_{P^{-1}AP}(\lambda) &= \det(P) \chi_{P^{-1}AP}(\lambda) \det(P)^{-1}\\
&=\det(P) \det(\lambda I_n – P^{-1}AP) \det(P^{-1})\\
&=\det(P(\lambda I_n – P^{-1}AP)P^{-1})\\
&=\det(\lambda PP^{-1}-PP^{-1}APP^{-1})\\
&=\det(\lambda I_n – A)\\
&=\chi_{A}(\lambda)
\end{align*}

$\square$

Ten cuidado. El determinante es multiplicativo, pero el polinomio característico no es multiplicativo. Esto es evidente por el siguiente argumento. Si $A$ y $B$ son matrices en $M_n(F)$, entonces $\chi_A(\lambda)$ y $\chi_B(\lambda)$ son cada uno polinomios de grado $n$, así que su producto es un polinomio de grado $2n$, que por lo tanto no puede ser igual al polinomio característico $\chi_{AB}(\lambda)$ pues este es de grado $n$. Así mismo, $\chi_{A^2}(\lambda)$ no es $\chi_{A}(\lambda)^2$.

Una última propiedad que nos interesa es mostrar que el determinante de una matriz y su traza aparecen en los coeficientes del polinomio característico.

Teorema. Sea $A$ una matriz en $M_n(F)$ y $\chi_A(\lambda)$ su polinomio característico. Entonces $\chi_{A}(\lambda)$ es de la forma $$\lambda^n-(\text{tr} A) \lambda^{n-1}+\ldots+(-1)^n \det A.$$

Demostración. Tenemos que mostrar tres cosas:

  • El polinomio $\chi_{A}$ es mónico, es decir, tiene coeficiente principal $1$,
  • que el coeficiente del término de grado $n-1$ es $-\text{tr} A$ y
  • el coeficiente libre es $(-1)^n \det A$.

El coeficiente libre de un polinomio es su evaluación en cero. Usando la homogeneidad del determinante, dicho coeficiente es:
\begin{align*}
\chi_A(0)&=\det(0\cdot I_n-A)\\
&=\det(-A)\\
&=(-1)^n\det(A).
\end{align*}

Esto muestra el tercer punto.

Para el coeficiente del término de grado $n-1$ y el coeficiente principal analicemos con más detalle la fórmula del determinante
\begin{align*}
\begin{vmatrix}
\lambda – a_{11} & -a_{12} & \ldots & -a_{1n}\\
-a_{21} & \lambda – a_{22} & \ldots & -a_{1n}\\
\vdots & & \ddots & \\
-a_{n1} & -a_{n2} & \ldots & \lambda – a_{nn}
\end{vmatrix}
\end{align*}
en términos de permutaciones.

Como discutimos anteriormente, la única forma de obtener un término de grado $n$ es cuando elegimos a la permutación identidad. Pero esto también es cierto para términos de grado $n-1$, pues si no elegimos a la identidad, entonces la permutación elige por lo menos dos entradas fuera de la diagonal, y entonces el grado del producto de entradas correspondiente es a lo más $n-2$.

De este modo, los únicos términos de grado $n$ y $n-1$ vienen del producto $$(\lambda-a_{11})\cdot\ldots\cdot(\lambda-a_{nn}).$$

El único término de grado $n$ viene de elegir $\lambda$ en todos los factores, y se obtiene el sumando $\lambda^n$, lo cual muestra que el polinomio es mónico.

Los únicos términos de grado $n-1$ se obtienen de elegir $\lambda$ en $n-1$ factores y un término del estilo $-a_{ii}$. Al considerar todas las opciones, el término de grado $n-1$ es $$-(a_{11}+a_{22}+\ldots+a_{nn})\lambda^{n-1}=-(\text{tr} A) \lambda^{n-1},$$ que era lo último que debíamos mostrar.

$\square$

Ejemplo. El teorema anterior muestra que si $A$ es una matriz en $M_2(F)$, es decir, de $2\times 2$, entonces $$\chi_A(\lambda)=\lambda^2 – (\text{tr}A) \lambda +\det A.$$ De manera explícita en términos de las entradas tendríamos entonces que si $A=\begin{pmatrix} a & b \\ c & d \end{pmatrix}$, entonces su polinomio característico es $$\lambda^2-(a+d)\lambda+(ad-bc).$$

Como ejemplo, si $A=\begin{pmatrix} 5 & 2 \\ -8 & -3 \end{pmatrix}$, entonces su polinomio característico es $$\lambda^2 -2\lambda +1=(\lambda-1)^2.$$ Su único eigenvalor sería entonces $1$.

$\square$

Suma y producto de eigenvalores de matrices complejas

A veces queremos referirnos al conjunto de todos los eigenvalores de una matriz.

Definición. Para $A$ una matriz en $M_n(F)$, el espectro de $A$ es el conjunto de eigenvalores de $A$. Lo denotamos por $\text{spec} (A)$

Tenemos una definición análoga para el espectro de una transformación lineal. Esa definición da un poco de intuición de por qué los teoremas de diagonalización de matrices se llaman teoremas espectrales. La siguiente definición habla de un sentido en el cual un eigenvalor «se repite».

Definición. Sea $A$ una matriz en $M_n(F)$ y $\lambda$ un eigenvalor de $A$. La multiplicidad algebraica de $\lambda$ es el mayor entero $m_{\lambda}$ tal que $(x-\lambda)^{m_\lambda}$ divide a $\chi_A(x)$.

Cuando estamos en $\mathbb{C}$, por el teorema fundamental del álgebra todo polinomio de grado $n$ se puede factorizar en exactamente $n$ términos lineales. Además, los polinomios característicos son mónicos. De este modo, si tenemos una matriz $A$ en $M_n(\mathbb{C})$, su polinomio característico se puede factorizar como sigue:

$$\chi_A(\lambda) = \prod_{j=1}^n (\lambda-\lambda_j),$$

en donde $\lambda_1,\ldots,\lambda_n$ son eigenvalores de $A$, no necesariamente distintos, pero en donde cada eigenvalor aparece en tantos términos como su multiplicidad algebraica.

Desarrollando parcialmente el producto del lado derecho, tenemos que el coeficiente de $\lambda^{n-1}$ es $$-(\lambda_1+\ldots+\lambda_n)$$ y que el coeficiente libre es $$(-1)^n\lambda_1\cdot\ldots\cdot\lambda_n.$$ Combinando este resultado con el de la sección anterior y agrupando eigenvalores por multiplicidad, se demuestra el siguiente resultado importante. Los detalles de la demostración quedan como tarea moral.

Teorema. Sea $A$ una matriz en $M_n(\mathbb{C})$

  • La traza $A$ es igual a la suma de los eigenvalores, contando multiplicidades algebraicas, es decir: $$\text{tr} A = \sum_{\lambda \in \text{spec}(A)} m_{\lambda} \lambda.$$
  • El determinante de $A$ es igual al producto de los eigenvalores, contando multiplicidades algebraicas, es decir: $$\det A = \prod_{\lambda \in \text{spec} (A)} \lambda^{m_{\lambda}}.$$

Veamos un problema en donde se usa este teorema.

Problema. Sea $A$ una matriz en $M_n(\mathbb{C})$ tal que $A^2-4A+3I_n=0$. Muestra que el determinante de $A$ es una potencia de $3$.

Solución. Sea $\lambda$ un eigenvalor de $A$ y $v$ un eigenvector para $\lambda$. Tenemos que $$A^2v=A(\lambda v) = \lambda(Av)=\lambda^2 v.$$ De esta forma, tendríamos que
\begin{align*}
0&=(A^2-4A+3I_n)v\\
&=(\lambda^2 v – 4\lambda v + 3 v)\\
&=(\lambda^2-4\lambda+3) v.
\end{align*}

Como $v$ no es el vector $0$, debe suceder que $\lambda^2-4\lambda+3=0$. Como $\lambda^2-4\lambda+3 = (\lambda-3)(\lambda-1)$, entonces $\lambda=1$ ó $\lambda=3$. Con esto concluimos que los únicos posibles eigenvectores de $A$ son $1$ y $3$.

Como $A$ es una matriz en $\mathbb{C}$, tenemos entonces que su polinomio característico es de la forma $(x-1)^a(x-3)^b$ con $a$ y $b$ enteros no negativos tales que $a+b=n$. Pero entonces por el teorema de producto de eigenvalores, tenemos que el determinante es $1^a\cdot 3^b=3^b$, con lo que queda demostrado que es una potencia de $3$.

$\square$

Dos teoremas fundamentales de álgebra lineal (opcional)

Tenemos todo lo necesario para enunciar dos resultados de álgebra lineal. Sin embargo, las demostraciones de estos resultados requieren de más teoría, y se ven en un siguiente curso. No los demostraremos ni los usaremos en el resto de este curso, pero te pueden servir para anticipar el tipo de resultados que verás al continuar tu formación en álgebra lineal.

El primer resultado fundamental es una caracterización de las matrices que pueden diagonalizarse. Para ello necesitamos una definición adicional. Hay otro sentido en el cual un eigenvalor $\lambda$ de una matriz $A$ puede repetirse.

Definición. Sea $A$ una matriz en $M_n(F)$ y $\lambda$ un eigenvalor de $A$. La multiplicidad geométrica de $\lambda$ es la dimensión del kernel de la matriz $\lambda I_n -A$ pensada como transformación lineal.

En estos términos, el primer teorema al que nos referimos queda enunciado como sigue.

Teorema. Una matriz $A$ en $M_n(F)$ es diagonalizable si y sólo si su polinomio característico $\chi_A(\lambda)$ se puede factorizar en términos lineales en $F[\lambda]$ y además, para cada eigenvalor, su multiplicidad algebraica es igual a su multiplicidad geométrica.

Ejemplo. La matriz $$A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$$ tiene como polinomio característico a $\chi_A(\lambda)=\lambda^2+1$. Este polinomio no se puede factorizar en $\mathbb{R}[x]$, así que $A$ no es diagonalizable con matrices de entradas reales.

Sin embargo, en $\mathbb{C}$ tenemos la factorización en términos lineales $\lambda^2+1=(\lambda+i)(\lambda-i),$ que dice que $i$ y $-i$ son eigenvalores de multiplicidad algebraica $1$. Se puede mostrar que la multiplicidad geométrica también es $1$. Así, $A$ sí es diagonalizable con matrices de entradas complejas.

$\square$

El segundo resultado fundamental dice que «cualquier matriz se anula en su polinomio característico». Para definir correctamente esto, tenemos que decir qué quiere decir evaluar un polinomio en una matriz. La definición es más o menos natural.

Definición. Si $A$ es una matriz en $M_n(F)$ y $p$ es un polinomio en $F[\lambda]$ de la forma $$p(\lambda)=a_0+a_1\lambda+a_2\lambda^2+\ldots+a_n\lambda^n,$$ definimos a la matriz $p(A)$ como la matriz $$a_0I_n+a_1A+a_2A^2+\ldots+a_nA^n.$$

En estos términos, el resultado queda enunciado como sigue.

Teorema (Cayley-Hamilton). Si $A$ es una matriz en $M_n(F)$ y $\chi_A(x)$ es su polinomio característico, entonces $$\chi_A(A)=O_n.$$

Ejemplo. Tomemos de nuevo a la matriz $$A=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$$ del ejemplo anterior. Su polinomio característico es $x^2+1$. En efecto, verificamos que se cumple el teorema de Cayley-Hamilton pues:
\begin{align*}
A^2+I_2 &= \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix} + \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} -1 & 0 \\ 0 & -1 \end{pmatrix}+\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.
\end{align*}

$\square$

Tarea moral

  • Enuncia y demuestra cómo es el polinomio característico de una matriz triangular inferior.
  • Completa los detalles de la demostración del teorema de suma y producto de eigenvalores. Úsalo para encontrar la suma y producto (con multiplicidades) de los eigenvalores de la matriz $$\begin{pmatrix}5 & 0 & -1 & 2 \\ 3 & -2 & 1 & -2 \\ 0 & 0 & 0 & 5\\ 0 & 2 & 4 & 0 \end{pmatrix}.$$
  • Sea $A$ una matriz en $M_n(F)$. ¿Cómo es el polinomio característico de $-A$ en términos del polinomio característico de $A$?
  • Tomemos $A$ una matriz en $M_n(F)$ y $k$ un entero positivo. Muestra que si $\lambda$ es un eigenvalor de la matriz $A$, entonces $\lambda^k$ es un eigenvalor de la matriz $A^k$.

De la sección opcional:

  • Demuestra, haciendo todas las cuentas, el caso particular del teorema de Cayley-Hamilton para matrices de $2\times 2$.
  • Ya sabemos calcular el polinomio característico de matrices diagonales. Muestra el teorema de Cayley-Hamilton en este caso particular.
  • Las matrices diagonales trivialmente son diagonalizables. Muestra que la multiplicidad algebraica de sus eigenvalores en efecto coincide con la multiplicidad geométrica.

Más adelante…

En esta entrada estudiamos algunas propiedades de los eigenvalores y eigenvectores de transformaciones lineales y matrices; vimos cómo obtener eigenvalores de una matriz a partir del polinomio característico y enunciamos dos teoremas muy importantes como parte opcional del curso.

En la siguiente entrada haremos varios ejercicios para desarrollar un poco de práctica al obtener los eigenvalores y eigenvectores de una transformación lineal y de una matriz.

Entradas relacionadas

Álgebra Lineal I: Problemas de definición y propiedades de determinantes

Introducción

En esta entrada haremos una serie de problemas que nos ayudarán como repaso de los temas vistos durante las últimas dos semanas. Mostraremos algunas propiedades bastante interesantes acerca de las transformaciones alternantes y antisimétricas, así como de la transformación estrella de esta semana: el determinante.

Problemas de transformaciones antisimétricas

En la entrada del miércoles 6 de mayo, hablábamos sobre la equivalencia entre transformaciones alternantes y antisimétricas, justo resaltamos que ésto no es cierto si el campo $F$ es $\mathbb{Z}_2$, y el siguiente ejemplo lo expone:

Ejemplo. Sea $f:\mathbb{Z}_2 \times \mathbb{Z}_2 \rightarrow \mathbb{Z}_2$ definido como $f(x,y)=xy$. Claramente $f$ es bilineal, pero no es alternate ya que $f(1,1)=1\neq 0$. Por otro lado, $f$ es antisimétrica, porque $f(x,y)+f(y,x)=xy+yx=2xy=0$.

$\square$

De manera natural surge la pregunta: ¿cómo podemos construir una transformación $d$-lineal antisimétrica o alternante? El siguiente problema muestra un camino para obtener una transformación antisimétrica dada un mapeo $d$-lineal $f$.

Problema. Sea $f:V^d \rightarrow W$ una transformación $d$-lineal. Demuestra que

$A(f):=\sum_{\sigma \in S_d} \text{sign}(\sigma) \sigma (f)$

es un mapeo $d$-lineal antisimétrico.

Solución. Es fácil ver que $A(f)$ es una transformación $d$-lineal, dado que $A(f)$ es una combinación lineal de mapeos $d$-lineales. Queremos probar que, para $\tau \in S_d$, $\tau (A(f))=\text{sign}(\tau) A(f)$. Notemos que

\begin{align*}
\tau(A(f)) &= \sum_{\sigma \in S_d} \text{sign}(\sigma) \tau(\sigma(f)) \\
&= \sum_{\sigma \in S_d} \text{sign}(\sigma) (\tau\sigma)(f).
\end{align*}

Usando el hecho que $\text{sign}(\tau)\text{sign}(\sigma)=\text{sign}(\tau\sigma)$ y que $\{ \tau \sigma : \sigma \in S_d \}=S_d$, obtenemos que

\begin{align*}
\text{sign}(\tau)\tau(A(f)) &= \sum_{\sigma \in S_d} \text{sign}(\tau\sigma) (\tau\sigma)(f) \\
&= \sum_{\eta \in S_d} \text{sign}(\eta) (\eta)(f) =A(f).
\end{align*}

Por lo tanto, $\tau(A(f))=\text{sign}(\tau)A(f)$.

$\square$

Problemas de determinantes

Ahora continuando con la discusiones del determinante, sabemos que éste es una forma $n$-lineal alternante, y además que cualquier otra forma $n$-lineal alternante varía de $\det(b_1,\ldots,b_n)$ únicamente por un factor multiplicativo. Otro resultado interesante ese teorema es el siguiente:

Problema. Sea $V$ un espacio vectorial sobre $F$ de dimensión finita. Sea $e_1,\ldots,e_n$ una base de $V$ y sea $T:V\rightarrow V$ una transformación lineal. Demuestra que para todo $v_1,\ldots,v_n\in V$ tenemos que

$\sum_{i=1}^n \det(v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots, v_n) =\text{Tr}(T)\cdot \det(v_1,\ldots,v_n),$

donde todos los determinantes están calculados en la base canónica y $\text{Tr}(T)$ es la traza de la matriz de $T$ (con respecto a la base canónica).

Solución. Definimos el mapeo $\phi:V^n\rightarrow F$ como

$\phi(v_1,\ldots,v_n)=\sum_{i=1}^n \det(v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots,v_n).$

Esta transformación es la suma de transformaciones $n$-lineales, por lo tanto $\phi$ es $n$-lineal. Más aún, es alternante, ya que si asumimos, por ejemplo, que $v_1=v_2$, entonces

\begin{align*}
\phi(v_1,v_1,v_3,\ldots,v_n) &=\det(T(v_1),v_1,v_3,\ldots,v_n)+ \det(v_1,T(v_1),v_3,\ldots,v_n) \\
&+ \sum_{i=3}^n \det(v_1,v_1,\ldots,v_{i-1},T(v_i),v_{i+1},\ldots,v_n) \\
&= \det(T(v_1),v_1,v_3,\ldots,v_n)+ \det(v_1,T(v_1),v_3,\ldots,v_n) \\
&= \det(T(v_1),v_1,v_3,\ldots,v_n)- \det(T(v_1),v_1,v_3,\ldots,v_n) \\
&=0,
\end{align*}

debido a que el determinante es antisimétrico.

Por el último teorema visto en la clase del viernes pasado, existe escalar $\alpha$ tal que

$\phi(v_1,\ldots,v_n)=\alpha \det(v_1,\ldots,v_n)$

para todo $v_1,\ldots,v_n$. Sea $A=[a_{ij}]$ la matriz de $T$ con respecto a la base canónica. Si tomamos $v_1=e_1,\ldots,v_n=e_n$, por el mismo teorema tenemos que

\begin{align*}
\alpha &= \phi(e_1,\ldots,e_n) \\
&=\sum_{i=1}^n \det(e_1,\ldots,e_{i-1},\sum_{j=1}^n a_{ji}e_j, e_{i+1},\ldots,e_n)\\
&=\sum_{i=1}^n \sum_{j=1}^n a_{ji}\det(e_1,\ldots,e_{i-1},e_j,e_{i+1},\ldots,e_n) \\
&= \sum_{i=1}^n a_{ii} = \text{Tr}(T).
\end{align*}

Por lo tanto, obtenemos lo que queremos.

$\square$

Por último, los siguientes dos problemas nos ilustran como podemos obtener información de las matrices de manera fácil y «bonita», usando algunas propiedades de los determinantes vistas en la sesión del martes pasado.

Problema. Sea $n$ un número impar y sean $A,B\in M_n(\mathbb{R})$ matrices tal que $A^2+B^2=0_n$. Prueba que la matriz $AB-BA$ no es invertible.

Solución. Notemos que

$(A+iB)(A-iB)=A^2+B^2+i(BA-AB)=i(BA-AB).$

Por la propiedad del determinante de un producto, tenemos que

$\det(A+iB)\det(A-iB)=i^n \det(BA-AB).$

Suponemos que $AB-BA$ es invertible, entonces $\det(BA-AB)\neq 0$. Además sabemos que

$\det(A-iB)=\det(\overline{A+iB})=\overline{\det(A+iB)},$

esto implica que $|\det(A+iB)|^2=i^n\det(BA-AB).$ Como consecuencia, $i^n$ es un número real, contradiciendo al hecho que $n$ es impar. Por lo tanto $\det(BA-AB)=0$.

$\square$

Problema. Para $1\leq i,j\leq n$, definimos $a_{ij}$ como el número de divisores positivos en común de $i$ y $j$ y definimos $b_{ij}$ igual a 1 si $j$ divide $i$ e igual a 0 si no.

  1. Probar que $A=B\cdot ^t B$, donde $A=[a_{ij}]$ y $B=[b_{ij}]$.
  2. ¿Qué podemos decir de la forma de $B$?
  3. Calcula $\det(A)$.

Solución. 1) Fijando $i,j$ tenemos que

$\det(B\cdot ^t B)_{ij}=\sum{k=1}^n b_{ik}b_{jk}.$

Notemos que $b_{ik}b_{jk}$ no es cero ($b_{ij},b_{jk}=1$) si y sólo si $k$ divide a $i$ y a $j$, esto implica que la cantidad de términos de la suma no ceros corresponde exactamente con la cantidad de los divisores en común que tengan $i$ y $j$. Por lo tanto $\det(B\cdot ^tB)_{ij}=a_{ij}$.

2) Si $i<j$, no es posible que $j$ divida a $i$. Entonces $b_{ij}=0$ para todo $i<j$, esto significa que $B$ es, al menos, triangular inferior. Un dato más que podemos asegurar es que $b_{ii}=1$ para toda $i$, por lo tanto, al menos, todos los términos de la diagonal de $B$ son iguales a 1.

3) Dada la propiedad multiplicativa del determinante, dado que $\det(B)=\det(^tB)$ y usando el inciso (1), tenemos que $\det(A)=\det(B\cdot ^tB)=(\det B)^2.$ Pero por el inciso (2), $\det B=1$, concluimos que $\det A=1$.

$\square$

Entradas relacionadas