Archivo de la etiqueta: matrices

Álgebra Lineal II: Aplicaciones del teorema de Cayley-Hamilton

Introducción

En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.

Encontrar inversas de matrices

El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz $A$ en $M_n(F)$ tiene polinomio característico $$\chi_A(x)=x^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0.$$ Como $a_0=\det(A)$, si $a_0=0$ entonces la matriz no es invertible. Supongamos entonces que $a_0\neq 0$. Por el teorema de Cayley-Hamilton tenemos que $$A^n+a_{n-1}A^{n-1}+\ldots+a_1A+a_0I_n=O_n.$$ De aquí podemos despejar la matriz identidad como sigue:

\begin{align*}
I_n&=-\frac{1}{a_0}\left( A^n+a_{n-1}A^{n-1}+\ldots+a_1A \right)\\
&=-\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right) A.
\end{align*}

Estos cálculos muestran que la inversa de $A$ es la matriz $$ -\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-1}+\ldots+a_1 I\right).$$

Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz $$A=\begin{pmatrix} 2 & 2 & 0 \\ 0 & -1 & 0 \\ 1 & 1 & 1 \end{pmatrix}.$$ Su polinomio característico es $\lambda^3-2\lambda^2 – \lambda +2$. Usando la fórmula de arriba, tenemos que

$$A^{-1}=-\frac{1}{2}(A^2-2A-I).$$

Necesitamos entonces $A^2$, que es:

$$A^2=\begin{pmatrix} 4 & 2 & 0 \\ 0 & 1 & 0 \\ 3 & 2 & 1 \end{pmatrix}.$$

De aquí, tras hacer las cuentas correspondientes, obtenemos que:

$$A^{-1}=\begin{pmatrix} \frac{1}{2} & 1 & 0 \\ 0 & -1 & 0 \\ -\frac{1}{2} & 0 & 1\end{pmatrix}.$$

Puedes verificar que en efecto esta es la inversa de $A$ realizando la multiplicación correspondiente.

$\square$

El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.

Corolario. Si $A$ es una matriz con entradas en los enteros y determinante $1$ ó $-1$, entonces $A^{-1}$ tiene entradas enteras.

Encontrar el polinomio mínimo de una matriz

Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.

Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.

Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:

  • Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
  • Además, para cada eigenvalor $\lambda$ ya vimos que $\lambda$ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor $x-\lambda$ en el polinomio mínimo para cada eigenvalor $\lambda$.

Ejemplo. Encontramos el polinomio mínimo de la siguiente matriz:

$$B=\begin{pmatrix} 2 & 0 & 4 \\ 3 & -1 & -1 \\0 & 0 & 2 \end{pmatrix}.$$

Una cuenta estándar muestra que el polinomio característico es $(x-2)^2(x+1)$. El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor $(x-2)$ y un factor $(x+1)$. Sólo hay dos polinomios con esas condiciones: $(x-2)(x+1)$ y $(x-2)^2(x+1)$. Si $(x-2)(x+1)$ anula a $B$, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:

\begin{align*}
(B-2I_3)(B+I_3)&=\begin{pmatrix}0 & 0 & 4 \\ 3 & -3 & -1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} 3 & 0 & 4 \\ 3 & 0 & -1 \\ 0 & 0 & 3 \end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 & 12 \\ 0 & 0 & 12 \\ 0 & 0 & 0 \end{pmatrix}.
\end{align*}

Así, $(x-2)(x+1)$ no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico $(x-2)^2(x+1)$.

$\square$

Ejemplo. Consideremos la matriz $C=\begin{pmatrix} 3 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix}$. Su polinomio característico es $(x-3)^3$. Así, su polinomio mínimo es $x-3$, $(x-3)^2$ ó $(x-3)^3$. Nos damos cuenta rápidamente que $x-3$ sí anula a la matriz pues $A-3I_3=O_3$. De este modo, el polinomio mínimo es $x-3$.

$\square$

Clasificación de matrices con alguna condición algebraica

Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.

Por ejemplo, ¿quienes son todas las matrices en $M_n(\mathbb{R})$ que son su propia inversa? La condición algebraica es $A^2=I_2$. Si el polinomio característico de $A$ es $x^2+bx+c$, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que $O_2=A^2+bA+cI_2=bA+(c+1)I_2$. De aquí tenemos un par de casos:

  • Si $b\neq 0$, podemos despejar a $A$ como $A=-\frac{c+1}{b}I_2$, es decir $A$ debe ser un múltiplo de la identidad. Simplificando la notación, $A=xI_2$. Así, la condición $A^2=I_2$ se convierte en $x^2I_2=I_2$, de donde $x^2=1$ y por lo tanto $x=\pm 1$. Esto nos da las soluciones $A=I_2$ y $A=-I_2$.
  • Si $b=0$, entonces $O_2=(c+1)I_2$, de donde $c=-1$. De este modo, el polinomio característico es $x^2-1=(x+1)(x-1)$. Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$, y sólo esas.

Más adelante…

El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.

Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.

Tarea moral

  1. Encuentra el polinomio mínimo de la matriz $\begin{pmatrix}-3 & 1 & 0 & 0 \\ 0 & -3 & 0 & 0 \\ 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 2\end{pmatrix}$
  2. Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & -1 & 2\\ 2 & 2 & 1 \end{pmatrix}.$$
  3. Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es $1$ ó $-1$.
  4. ¿Cómo son todas las matrices en $M_2(\mathbb{R})$ tales que $A^2=A$?
  5. ¿Cómo son todas las matrices en $M_3(\mathbb{R})$ de determinante $0$ tales que $A^3=O_3$?

Entradas relacionadas

Ecuaciones Diferenciales I: Valores y vectores propios para resolver sistemas lineales

Introducción

Ya hemos dado inicio con el desarrollo de métodos de resolución a sistemas lineales de primer orden. En la entrada anterior vimos el método de eliminación de variables que, a pesar de ser muy limitado, es un método sencillo y práctico para resolver sistemas con dos ecuaciones diferenciales lineales de primer orden. Esta entrada será la preparación hacía el desarrollo de un nuevo método.

Debido a que un sistema lineal puede ser visto como una ecuación matricial los resultados de álgebra lineal sobre valores y vectores propios de matrices pueden ser aplicados aquí. En esta entrada daremos un breve repaso sobre estos conceptos y veremos cómo es que estos resultados nos pueden ayudar a determinar la solución general de algunos sistemas de ecuaciones diferenciales.

La teoría que desarrollaremos a continuación es aplicable a sistemas lineales homogéneos con coeficientes constantes.

Sistemas lineales homogéneos

Un sistema lineal homogéneo con coeficientes constantes es de la forma

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}y_{1} + a_{12}y_{2} + \cdots + a_{1n}y_{n} \\
y_{2}^{\prime}(t) &= a_{21}y_{1} + a_{22}y_{2} + \cdots + a_{2n}y_{n} \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}y_{1} + a_{n2}y_{2} + \cdots + a_{nn}y_{n} \label{1} \tag{1}
\end{align*}

Si $\mathbf{A}$ es la matriz de $n \times n$ con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

entonces el sistema lineal a resolver es

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{3} \tag{3}$$

En la segunda entrada de esta unidad vimos que la solución general al sistema lineal homogéneo

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}e^{0t} + c_{2} \begin{pmatrix}
1 \\ 1 \\ 0
\end{pmatrix}e^{2t} + c_{3} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}e^{3t}$$

Y en la entrada anterior vimos que la solución al sistema lineal homogéneo

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y}$$

es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t}$$

Aunque para el primer caso aún no sabemos cómo obtener esa solución lo que sabemos es que efectivamente corresponde a la solución general del sistema homogéneo. Notamos que cada vector solución es de la forma

$$\mathbf{Y}_{i} = \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix}e^{\lambda_{i}t}, \hspace{1cm} i = 1, 2 ,3$$

donde $k_{i}$ y $\lambda_{i}$, $i = 1, 2, 3$, son constantes. Lo mismo para el segundo caso, con $k_{i}$, $\lambda_{i}$, $i = 1, 2$, constantes. Esta particularidad nos hace preguntar si siempre es posible hallar una solución de la forma

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t} \label{4} \tag{4}$$

como solución general del sistema lineal (\ref{3}).

La respuesta es que sí, pero antes de continuar con nuestro desarrollo nos parece pertinente repasar brevemente algunas cuestiones sobre valores y vectores propios que seguramente viste en tu curso de Algebra Lineal I.

Valores y vectores propios

Sea $T: V \rightarrow W$ una transformación lineal, en algebra lineal muchas veces resulta útil encontrar un vector $v$ en el espacio vectorial $V$ tal que $T\mathbf{v}$ y $\mathbf{v}$ sean paralelos, es decir, se busca un vector $\mathbf{v}$ y un escalar $\lambda$ tal que

$$T\mathbf{v} = \lambda \mathbf{v} \label{5} \tag{5}$$

Recordemos que si $\mathbf{v} \neq \mathbf{0}$ y $\lambda$ satisfacen la ecuación (\ref{5}), entonces $\lambda$ se denomina un valor característico o valor propio de $T$ y $\mathbf{v}$ un vector característico o vector propio de $T$ correspondiente al valor propio $\lambda$.

También recordemos que si $V$ tiene dimensión finita, entonces la transformación $T$ se puede representar por una matriz $\mathbf{A}_{T}$, de manera que se pueden definir los valores y vectores propios de esta matriz.

Denotaremos con $M_{n \times n}$ al conjunto de todas las matrices cuadradas de $n \times n$ con componentes reales y constantes.

Definición: Sea $A \in M_{n \times n}$. El número $\lambda$ (real o complejo) se denomina valor propio de $A$ si existe un vector diferente de cero $\mathbf{v}$ en $V$ tal que

$$\mathbf{Av} = \lambda \mathbf{v} \label{6} \tag{6}$$

El vector $\mathbf{v} \neq \mathbf{0}$ se denomina vector propio de $\mathbf{A}$ correspondiente al valor propio $\lambda$.

Como nota interesante, los valores y vectores propios también son conocidos como valores y vectores característicos o eigenvalores y eigenvectores, donde el término eigen es un término alemán que significa propio. En este curso los llamaremos valores y vectores propios.

En la entrada anterior recordábamos la definición de matriz inversa. En esta entrada puede ser útil así que la recordaremos nuevamente.

Definición: Sean $\mathbf{A}$ y $\mathbf{B}$ dos matrices de $M_{n \times n}$. Suponiendo que

$$\mathbf{AB} = \mathbf{BA} = \mathbf{I}$$

Con $\mathbf{I}$ la matriz identidad. Entonces $\mathbf{B}$ se llama la matriz inversa de $\mathbf{A}$ y se denota por $\mathbf{A}^{-1}$.

La ecuación anterior queda como

$$\mathbf{AA}^{-1} = \mathbf{A}^{-1} \mathbf{A} = \mathbf{I} \label{7} \tag{7}$$

Definición: Si $\mathbf{A}$ tiene inversa, entonces se dice que $\mathbf{A}$ es invertible.

Definición: Una matriz cuadrada que no es invertible se le denomina singular y una matriz invertible se llama no singular.

Para el caso especial $\mathbf{A} = \mathbf{I}$, con $\mathbf{I}$ la matriz identidad, se tiene que para cualquier vector $\mathbf{v} \in V$

$$\mathbf{Av} = \mathbf{Iv} = \mathbf{v} \label{8} \tag{8}$$

Así, el único valor propio de $\mathbf{A}$ es $1$ y todo $\mathbf{v} \neq \mathbf{0} \in V$ es un vector propio de $\mathbf{I}$.

Otra observación interesante es que cualquier múltiplo de un vector propio de $\mathbf{A}$ es también un vector propio de $\mathbf{A}$, con el mismo valor propio.

$$\mathbf{A}(c \mathbf{v}) = c \mathbf{Av} = c \lambda \mathbf{v} = \lambda (c \mathbf{v}) \label{9} \tag{9}$$

Ecuación característica

Supongamos que $\lambda $ es un valor propio de $A$, entonces existe un vector diferente de cero

$$\mathbf{v} = \begin{pmatrix}
v_{1} \\ v_{2} \\ \vdots \\ v_{n}
\end{pmatrix} \neq \mathbf{0}$$

tal que

$$\mathbf{Av} = \lambda \mathbf{v} = \lambda \mathbf{Iv} \label{10} \tag{10}$$

Reescribiendo esto se tiene

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{v} = \mathbf{0} \label{11} \tag{11}$$

Si $A$ es una matriz de $n \times n$, la ecuación anterior corresponde a un sistema homogéneo de $n$ ecuaciones con las incógnitas $v_{1}, v_{2}, \cdots, v_{n}$. Como se ha supuesto que $ \mathbf{v} \neq \mathbf{0}$, entonces el sistema no tiene solución trivial y por tanto el determinante de (\ref{11}) debe ser cero.

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{12} \tag{12}$$

De manera equivalente, si ocurre que $|\mathbf{A} -\lambda \mathbf{I}| \neq 0$, entonces la única solución a (\ref{11}) es la trivial $\mathbf{v} = \mathbf{0}$, lo que significa que $\lambda$ no es un valor propio de $A$.

Estos resultados quedan establecidos en el siguiente teorema.

Teorema: Sea $A \in M_{n \times n}$, entonces $\lambda$ es un valor propio de $A$ si y sólo si

$$P(\lambda) = |\mathbf{A} -\lambda \mathbf{I}| = 0 \label{13} \tag{13}$$

La relación (\ref{13}) es muy importante, tanto que merece nombres especiales.

Definición: La relación (\ref{13}) se denomina ecuación característica de $\mathbf{A}$

Definición: El polinomio $P(\lambda)$ dado por (\ref{13}) se denomina polinomio característico de $\mathbf{A}$.

El polinomio $P(\lambda )$ es del mismo grado que el número de filas y columnas de la matriz $\mathbf{A}$. Si $\mathbf{A} \in M_{n \times n}$, entonces $P(\lambda)$ es un polinomio de grado $n$ en $\lambda$. Por ejemplo, si

$$\mathbf{A} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} \label{14} \tag{14}$$

entonces

$$\mathbf{A} -\lambda \mathbf{I} = \begin{pmatrix}
a & b \\ c & d
\end{pmatrix} -\begin{pmatrix}
\lambda & 0 \\ 0 & \lambda
\end{pmatrix} = \begin{pmatrix}
a -\lambda & b \\ c & d -\lambda
\end{pmatrix} \label{15} \tag{15}$$

y

\begin{align*}
P(\lambda ) &= |\mathbf{A} -\lambda \mathbf{I}| \\
&= (a -\lambda)(d -\lambda) -bc \\
&= \lambda^{2} -(a + d) \lambda + (ad -bc) \label{16} \tag{16}
\end{align*}

La matriz es de $2 \times 2$ y el polinomio característico es un polinomio de grado $2$.

El teorema fundamental del álgebra nos dice que cualquier polinomio de grado $n$ con coeficientes reales o complejos tiene exactamente $n$ raíces contando multiplicidades y dado que cualquier valor propio de $\mathbf{A}$ es una raíz de la ecuación característica de $\mathbf{A}$, se concluye que, contando multiplicidades, toda matriz $\mathbf{A} \in M_{n \times n}$ tiene exactamente $n$ valores propios.

Realicemos dos ejemplos sencillos en donde tengamos que determinar los valores y vectores propios de una matriz. Uno en donde los valores propios sean distintos (con multiplicidad $1$) y uno en donde los valores propios sean números complejos.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

$$\mathbf{A} = \begin{pmatrix}
-81 & 16 \\ -420 & 83
\end{pmatrix}$$

Solución: De acuerdo a (\ref{13}), determinemos la ecuación característica.

$$\begin{vmatrix}
-81 -\lambda & 16 \\ -420 & 83 -\lambda
\end{vmatrix} = (-81 -\lambda)(83 -\lambda) -16(-420) = 0$$

Reordenando obtenemos que la ecuación característica es

$$\lambda^{2} -2 \lambda -3 = 0$$

y el polinomio característico es

$$P(\lambda) = \lambda^{2} -2 \lambda -3$$

Resolviendo para $\lambda$ se obtienen las raíces $\lambda_{1} = -1$ y $\lambda_{2} = 3$. Para obtener los vectores propios buscamos un vector $\mathbf{v} \neq 0$ tal que se cumpla (\ref{11}) para cada valor priopio $\lambda$. Comencemos con $\lambda_{1}$.

Caso 1: $\lambda_{1} = -1$

$$\begin{pmatrix}
-81 -(-1) & 16 \\ -420 & 83 -(-1)
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
-80 & 16 \\ -420 & 84
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Este resultado lo podemos escribir como las siguientes dos ecuaciones.

\begin{align*}
-80 v_{1} + 16 v_{2} &= 0 \\
-420 v_{1} + 84 v_{2} &= 0
\end{align*}

Que en realidad corresponden a una sola

\begin{align*}
-5v_{1} + v_{2} &= 0 \\
v_{2} &= 5v_{1}
\end{align*}

Si elegimos $v_{1} = 1$, entonces $v_{2} = 5$, así el primer vector propio es

$$\mathbf{v}_{1} = \begin{pmatrix}
1 \\ 5
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 3$

$$\begin{pmatrix}
-81 -3 & 16 \\ -420 & 83-3
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
-84 & 16 \\ -420 & 80
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
-21v_{1} + 4v_{2} &= 0 \\
v_{2} &= \dfrac{21}{4}v_{1}
\end{align*}

Por conveniencia elegimos $v_{1} = 4$, entonces $v_{2} = 21$, así

$$\mathbf{v}_{2} = \begin{pmatrix}
4 \\ 21
\end{pmatrix}$$

En conclusión, los valores y vectores propios de la matriz $\mathbf{A}$ son $\lambda_{1} = -1$, $\lambda_{2} = 3$, $\mathbf{v}_{1} = \begin{pmatrix} 1 \\ 5 \end{pmatrix}$ y $\mathbf{v}_{2} = \begin{pmatrix} 4 \\ 21 \end{pmatrix}$, respectivamente.

$\square$

Pasemos al siguiente ejemplo.

Ejemplo: Determinar los valores y vectores propios de la siguiente matriz.

$$\mathbf{A} = \begin{pmatrix}
2 & -1 \\ 5 & -2
\end{pmatrix}$$

Solución: Determinemos la ecuación característica.

$$\begin{vmatrix}
2 -\lambda & -1 \\ 5 & -2 -\lambda
\end{vmatrix} = (2 -\lambda)(-2 -\lambda) + 5 = 0$$

La ecuación característica es

$$\lambda^{2} + 1 = 0$$

De donde $\lambda_{1} = i$ y $\lambda_{2} = -i$. Determinemos los vectores propios.

Caso 1: $\lambda_{1} = i$

$$\begin{pmatrix}
2 -i & -1 \\ 5 & -2 -i
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son:

\begin{align*}
(2 -i)v_{1} -v_{2} &= 0 \\
5v_{1} -(2 + i)v_{2} &= 0
\end{align*}

Resolviendo el sistema se obtiene que $v_{1} = 2 + i$ y $v_{2} = 5$, así

$$\mathbf{v}_{1} = \begin{pmatrix}
2 + i \\ 5
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -i$

$$\begin{pmatrix}
2 + i & -1 \\ 5 & -2 + i
\end{pmatrix} \begin{pmatrix}
v_{1} \\ v_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son:

\begin{align*}
(2 + i) v_{1} -v_{2} &= 0 \\
5v_{1} + (-2 + i)v_{2} &= 0
\end{align*}

Resolviendo el sistema se obtiene que $v_{1} = 2 -i$ y $v_{2} = 5$, así

$$\mathbf{v}_{2} = \begin{pmatrix}
2 -i \\ 5
\end{pmatrix}$$

$\square$

Si crees que necesitas conocer más a fondo sobre el algoritmo que llevamos a cabo para obtener los valores y vectores propios de una matriz te recomendamos que revises directamente en el curso de Álgebra Lineal I. Recuerda que aquí sólo estamos haciendo un breve repaso.

Para concluir con nuestro repaso, enunciemos un teorema de suma importancia que nos será de utilidad mas adelante. Haremos la demostración por inducción.

Teorema: Sea $\mathbf{A} \in M_{n \times n}$ y sean $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{m}$ valores propios distintos de $\mathbf{A}$ ($\lambda_{i} \neq \lambda_{j}$, $i \neq j$) con vectores propios correspondientes $\mathbf{v}_{1}, \mathbf{v}_{2}, \cdots, \mathbf{v}_{m}$, entonces los vectores $\mathbf{v}_{1}, \mathbf{v}_{2}, \cdots, \mathbf{v}_{m}$ son linealmente independientes.

Demostración: Para $m = 1$ no tiene mucho caso pues se trata de un solo vector y es evidente que se satisface el teorema, hagamos el caso $m = 2$, para ello consideremos la combinación lineal

$$c_{1} \mathbf{v}_{1} + c_{2} \mathbf{v}_{2} = \mathbf{0} \label{17} \tag{17}$$

Multipliquemos ambos lados de la ecuación por la matriz $\mathbf{A}$.

$$c_{1} \mathbf{Av}_{1} + c_{2} \mathbf{Av}_{2} = \mathbf{0} \label{18} \tag{18}$$

Como $\mathbf{Av}_{i} = \lambda_{i}\mathbf{v}_{i}$, para $i = 1, 2$, entonces

$$c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2} = \mathbf{0} \label{19} \tag{19}$$

A la ecuación (\ref{17}) la multiplicamos por $\lambda_{1}$ y la restamos de la ecuación (\ref{19}).

$$(c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2}) -(c_{1} \lambda_{1} \mathbf{v}_{1} -c_{2} \lambda_{1} \mathbf{v}_{2}) = \mathbf{0}$$

que se reduce a

$$c_{2}(\lambda_{2} -\lambda_{1}) \mathbf{v}_{2} = \mathbf{0} \label{20} \tag{20}$$

Como $\mathbf{v}_{2} \neq \mathbf{0}$ por definición de vector característico y por hipótesis $\lambda_{1} \neq \lambda_{2}$, entonces se concluye que $c_{2} = 0$, sustituyendo en (\ref{17}) se ve que $c_{1} = 0$, por tanto se cumple el teorema para $m = 2$.

Ahora supongamos que el teorema es cierto para $m = n$, es decir, cualquier conjunto de $n$ vectores propios de $\mathbf{A}$ con valores propios diferentes es linealmente independiente. Hay que demostrar que cualquier conjunto de $n + 1$ vectores propios de $\mathbf{A}$ con valores propios diferentes es también linealmente independiente. La demostración sigue el mismo procedimiento que como lo hicimos para $m = 2$, consideremos la siguiente combinación lineal.

$$c_{1} \mathbf{v}_{1} + c_{2} \mathbf{v}_{2} + \cdots + c_{n + 1} \mathbf{v}_{n + 1} = \mathbf{0} \label{21} \tag{21}$$

Multipliquemos por $\mathbf{A}$ en ambos lados.

$$c_{1} \mathbf{Av}_{1} + c_{2} \mathbf{Av}_{2} + \cdots + c_{n + 1} \mathbf{Av}_{n + 1} = \mathbf{0} \label{22} \tag{22}$$

Aplicando $\mathbf{Av}_{i} = \lambda_{i} \mathbf{v}_{1}$ para $i = 1, 2, 3, \cdots, n + 1$, se tiene

$$c_{1} \lambda_{1} \mathbf{v}_{1} + c_{2} \lambda_{2} \mathbf{v}_{2} + \cdots + c_{n + 1} \lambda_{n + 1} \mathbf{v}_{n + 1} = \mathbf{0} \label{23} \tag{23}$$

Si se multiplica ambos lados de la ecuación (\ref{21}) por $\lambda_{1}$ y se resta de (\ref{23}) se obtiene que

$$c_{2}(\lambda_{2} -\lambda_{1}) \mathbf{v}_{2} + c_{3}(\lambda_{3} -\lambda_{1}) \mathbf{v}_{3} + \cdots + c_{n + 1}(\lambda_{n + 1} -\lambda_{1})\mathbf{v}_{n + 1} = \mathbf{0} \label{24} \tag{24}$$

Pero $\mathbf{v}_{2}, \mathbf{v}_{3}, \cdots, \mathbf{v}_{n + 1}$ son vectores propios de $\mathbf{A}$ con valores propios distintos $\lambda_{2}, \lambda_{3}, \cdots, \lambda_{n + 1}$, respectivamente. Por hipótesis de inducción, los vectores son linealmente independientes así que

$$c_{2}(\lambda_{2} -\lambda_{1}) = 0, \hspace{1cm} c_{3}(\lambda_{3} -\lambda_{1}) = 0, \hspace{1cm} \cdots, \hspace{1cm} c_{n + 1}(\lambda_{n + 1} -\lambda_{1}) = 0$$

Como los valores propios son distintos entre sí, entonces necesariamente

$$c_{2} = c_{3} = \cdots = c_{n + 1} = 0$$

Con este resultado la ecuación (\ref{21}) obliga a que $c_{1}$ sea cero. Por lo tanto, $\mathbf{v}_{1}, \mathbf{v}_{2}, \mathbf{v}_{3}, \cdots, \mathbf{v}_{n + 1}$ son linealmente independientes. De esta manera queda demostrado el teorema

$\square$

En conclusión, vectores propios correspondientes a valores propios distintos son linealmente independientes.

Con este breve repaso en mente regresemos a los sistemas de ecuaciones diferenciales.

Valores y vectores propios en sistemas de ecuaciones diferenciales

Ahora que hemos recordado las definiciones de valores y vectores propios y algunas propiedades veamos cómo es que estos conceptos son útiles para resolver sistemas lineales de primer orden homogéneos.

Al inicio de la entrada decíamos que es posible encontrar soluciones de la forma (\ref{4}).

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t}$$

Si derivamos este vector obtenemos que

$$\mathbf{Y}^{\prime} = \mathbf{K} \lambda e^{\lambda t} \label{25} \tag{25}$$

Sustituyendo en el sistema homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$ se tiene

$$\mathbf{K} \lambda e^{\lambda t} = \mathbf{AK}e^{\lambda t} \label{26} \tag{26}$$

Si dividimos entre $e^{\lambda t}$ y reacomodamos obtenemos que

$$\mathbf{AK} = \lambda \mathbf{K}$$

o bien

$$\mathbf{AK} -\lambda \mathbf{K} = \mathbf{0}$$

Debido a que $\mathbf{K} = \mathbf{IK}$, con $\mathbf{I}$ la matriz identidad, la última expresión se puede escribir como

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0}\label{27} \tag{27}$$

Si $\mathbf{A}$ es la matriz dada en (\ref{2}), entonces la ecuación matricial (\ref{27}) es equivalente a las $n$ ecuaciones algebraicas simultáneas

\begin{align*}
(a_{11} -\lambda)k_{1} + \hspace{1.2cm} a_{12}k_{2} + \cdots + \hspace{1.2cm} a_{1n}k_{n} &= 0 \\
a_{21}k_{1} + (a_{22} -\lambda)k_{2} + \cdots + \hspace{1.2cm} a_{2n}k_{n} &= 0 \\
\vdots \\
a_{n1}k_{1} + \hspace{1.2cm} a_{n2}k_{2} + \cdots + (a_{nn} -\lambda)k_{n} &= 0 \label{28} \tag{28}
\end{align*}

Si queremos encontrar soluciones $\mathbf{Y}(t)$ como (\ref{4}), necesitamos primero encontrar una solución no trivial del sistema (\ref{28}), de lo visto en nuestro repaso de valores y vectores propios, si la solución debe ser la no trivial, entonces se requiere que el determinante sea igual a cero, esto es

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{29} \tag{29}$$

Esta ecuación polinomial corresponde a la ecuación característica de la matriz $\mathbf{A}$. Sus soluciones son los valores propios de $\mathbf{A}$. Una solución $\mathbf{K} \neq 0$ de (\ref{27}) correspondiente a un valor propio $\lambda$ es el vector propio de $\mathbf{A}$.

La ecuación (\ref{29}) al tratarse de una ecuación polinomial existen tres casos posibles, cuando los valores propios son reales y distintos, cuando son repetidos y cuando son complejos. Para cada caso existe una forma particular de la solución a (\ref{3}).

Para concluir con esta entrada demostremos un resultado que establece la forma de la solución general al sistema lineal (\ref{3}).

Teorema: Sea $\mathbf{A} \in M_{n \times n}$ como (\ref{2}) y sean $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$ valores propios de $\mathbf{A}$ que corresponden a vectores propios linealmente independientes $\mathbf{K}_{1}, \mathbf{K}_{2}, \cdots, \mathbf{K}_{n}$, respectivamente. Entonces,

$$S = \{e^{\lambda_{1}t} \mathbf{K}_{1}, e^{\lambda_{2}t} \mathbf{K}_{2}, \cdots, e^{\lambda_{n}t} \mathbf{K}_{n}\} \label{30} \tag{30}$$

es un conjunto fundamental de soluciones al sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$ en el intervalo $(-\infty, \infty)$. La solución general de dicho sistema es

$$\mathbf{Y}(t) = c_{1} e^{\lambda_{1}t} \mathbf{K}_{1} + c_{2} e^{\lambda_{2}t} \mathbf{K}_{2} + \cdots + c_{n} e^{\lambda_{n}t} \mathbf{K}_{n} \label{31} \tag{31}$$

donde $c_{1}, c_{2}, \cdots, c_{n}$ son constantes arbitrarias.

Demostración: Definamos las funciones

$$\mathbf{Y}_{1}(t) = e^{\lambda_{1}t}\mathbf{K}_{1}, \hspace{1cm} \mathbf{Y}_{2}(t) = e^{\lambda_{2}t}\mathbf{K}_{2}, \hspace{1cm} \cdots, \hspace{1cm} \mathbf{Y}_{n}(t) = e^{\lambda_{n}t} \mathbf{K}_{n}$$

Notemos que para la $i$-ésima función $\mathbf{Y}_{i}(t) = e^{\lambda_{i}t} \mathbf{K}_{i}$ se cumple que

$$\mathbf{Y}^{\prime}_{i} = e^{\lambda_{i}t} (\lambda_{i} \mathbf{K}_{i}) = e^{\lambda_{i}t} (\mathbf{AK}_{i}) = \mathbf{AY}_{i} \label{32} \tag{32}$$

En donde se hecho uso de la relación (\ref{6}). Esto nos muestra que $\mathbf{Y}_{i}(t)$ es solución del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ para cada $i = 1, 2, \cdots, n$. Basta mostrar que el Wronskiano es distinto de cero para probar que las funciones definidas forman un conjunto fundamental de soluciones. El Wronskiano está dado por

\begin{align*}
W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots,\mathbf{Y}_{n}) &= \begin{vmatrix} e^{\lambda_{1}t} \mathbf{K}_{1} & e^{\lambda_{2}t} \mathbf{K}_{2} & \cdots & e^{\lambda_{n}t} \mathbf{K}_{n} \end{vmatrix} \\
&= e^{(\lambda_{1} + \lambda_{2} + \cdots + \lambda_{n})t} \begin{vmatrix} \mathbf{K}_{1} & \mathbf{K}_{2} & \cdots & \mathbf{K}_{n} \end{vmatrix} \label{33} \tag{33}
\end{align*}

Como la exponencial nunca se hace cero y por hipótesis los vectores $\mathbf{K}_{1}, \mathbf{K}_{2}, \cdots, \mathbf{K}_{n}$ son linealmente independientes, es decir, el determinante nunca es cero

$$\begin{vmatrix} \mathbf{K}_{1} & \mathbf{K}_{2} & \cdots & \mathbf{K}_{n} \end{vmatrix} \neq 0 \label{34} \tag{34}$$

entonces el Wronskiano es distinto de cero. Por el teorema de solución general de un sistema homogéneo concluimos que el conjunto

$$S = \{e^{\lambda_{1}t} \mathbf{K}_{1}, e^{\lambda_{2}t} \mathbf{K}_{2}, \cdots, e^{\lambda_{n}t} \mathbf{K}_{n}\}$$

es un conjunto fundamental de soluciones del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$ y la solución general es

$$\mathbf{Y}(t) = c_{1} e^{\lambda_{1}t} \mathbf{K}_{1} + c_{2} e^{\lambda_{2}t} \mathbf{K}_{2} + \cdots + c_{n} e^{\lambda_{n}t} \mathbf{K}_{n}$$

con $c_{1}, c_{2}, \cdots, c_{n}$ constantes arbitrarias.

$\square$

Hemos concluido con esta entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Obtener los valores y vectores propios de las siguientes matrices.
  • $\mathbf{A} = \begin{pmatrix}
    -62 & -20 \\ 192 & 62
    \end{pmatrix}$
  • $\mathbf{A} = \begin{pmatrix}
    -2 & 5 & 0 \\ 5 & -2 & 0 \\ 0 & 0 & 1
    \end{pmatrix}$
  1. Demostrar que para cualesquiera números reales $\alpha$ y $\beta$, la matriz $\mathbf{A} = \begin{pmatrix} \alpha & \beta \\ -\beta & \alpha \end{pmatrix}$ tiene valores propios $\alpha \pm i\beta$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar lo siguiente:
  • Demostrar que $\mathbf{A}^{-1}$ (la matriz inversa de $\mathbf{A}$) existe si y sólo si $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$ son todos distintos de cero.
  • Si $\mathbf{A}^{-1}$ existe, demostrar que los valores propios de $\mathbf{A}^{-1}$ son $\dfrac{1}{\lambda_{1}}, \dfrac{1}{\lambda_{2}}, \cdots, \dfrac{1}{\lambda_{n}}$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar que la matriz $\mathbf{A} -\alpha \mathbf{I}$ tiene valores propios $\lambda_{1} -\alpha, \lambda_{2} -\alpha, \cdots, \lambda_{n} -\alpha$.
  1. Suponer que la matriz $\mathbf{A}$ tiene valores propios $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$. Demostrar que los valores propios de $\mathbf{A}^{m}$ son $\lambda^{m}_{1}, \lambda^{m}_{2}, \cdots, \lambda^{m}_{n}$ para $m = 1, 2, 3, \cdots$.

    Recuerda que para calcular la potencia de una matriz, debemos multiplicar la matriz por ella misma tantas veces como diga el exponente, por ejemplo
    $$\mathbf{A}^{5} = \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A} \cdot \mathbf{A}$$

Más adelante…

Un nuevo método para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas con coeficientes constantes es el que estamos por desarrollar. Dicho método involucra obtener los valores y vectores propios del sistema lineal, es por ello que hemos dedicado esta entrada en hacer un breve repaso sobre estos conceptos y hemos visto cómo es que se ven involucrados en la resolución de estos sistemas.

Como vimos, los valores propios se obtienen de encontrar las raíces del polinomio característico lo que significa que se pueden tener raíces reales y distintas, raíces con multiplicidad mayor a uno, es decir, que se repiten o raíces complejas, para cada caso existe una forma de obtener la solución a los sistemas lineales homogéneos $\mathbf{Y}^{\prime} = \mathbf{AY}$.

En las próximas tres entradas estudiaremos cada caso. Comenzaremos con el caso en el que los valores propios del sistema son todos reales y distintos entre sí.

Entradas relacionadas

Ecuaciones Diferenciales I: Sistemas de ecuaciones diferenciales

Introducción

¡Bienvenidos a la tercera unidad del curso de Ecuaciones Diferenciales I!. En esta unidad estudiaremos los sistemas de ecuaciones diferenciales lineales de primer orden.

En la unidad 1 de este curso estudiamos el sistema Depredador-Presa, en nuestro análisis el modelo matemático determinado fue el siguiente sistema de ecuaciones (puedes revisar la entrada correspondiente para recordar que representa cada una de las variables y constantes).

\begin{align*}
\dfrac{dC}{dt} &= aC(t) -bC(t)Z(t) \\
\dfrac{dZ}{dt} &= -cZ(t) + dC(t)Z(t)
\end{align*}

Este sistema fue nuestro primer ejemplo de un sistema de ecuaciones diferenciales y en esta unidad nuestro propósito será desarrollar distintos métodos que nos permitan resolver sistemas de hasta $n > 2$ ecuaciones diferenciales acopladas.

Es muy importante mencionar que a lo largo de esta unidad usaremos un enfoque matricial por lo que es muy recomendable que repases y tengas presente, al menos, la teoría básica sobre matrices y sus operaciones y propiedades vistas en tu curso de Álgebra Lineal I.

En esta entrada comenzaremos por definir los que es un sistema de ecuaciones diferenciales y sus propiedades y veremos cómo es que la notación matricial nos puede ayudar. ¡Comencemos!

Sistemas de ecuaciones diferenciales lineales de primer orden

Definición: El sistema de $n$ ecuaciones diferenciales de primer orden

\begin{align*}
\dfrac{dy_{1}}{dt} &= F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
\dfrac{dy_{2}}{dt} &= F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
&\vdots \\
\dfrac{dy_{n}}{dt} &= F_{n}(t, y_{1}, y_{2}, \cdots, y_{n}) \label{1} \tag{1}
\end{align*}

se llama sistema de primer orden.

En esta unidad, a menos que indiquemos lo contrario, la variable independiente se denotará por $t$, mientras que las variables dependientes de $t$ por $y_{1} = y_{1}(t), y_{2} = y_{2}(t), \cdots, y_{n} = y_{n}(t)$ y las funciones $F_{i}$, $i = 1, 2, 3, \cdots, n$ son funciones con valores reales que dependen de las $n + 1$ variables en un intervalo $\delta$.

Notación: Para mayor comodidad, en esta unidad usaremos la notación de prima para la derivada.

$$\dfrac{dy}{dt} = y^{\prime}(t) \label{2} \tag{2}$$

Con esta notación el sistema de ecuaciones (\ref{1}) se puede escribir de la siguiente manera.

\begin{align*}
y_{1}^{\prime}(t) &= F_{1}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
y_{2}^{\prime}(t) &= F_{2}(t, y_{1}, y_{2}, \cdots, y_{n}) \\
&\vdots \\
y_{n}^{\prime}(t) &= F_{n}(t, y_{1}, y_{2}, \cdots, y_{n}) \label{3} \tag{3}
\end{align*}

Definición: Una solución al sistema de primer orden en el intervalo $\delta$ es un conjunto de $n$ funciones

$$S_{0} = \{y_{1}(t), y_{2}(t), \cdots, y_{n}(t)\} \label{4} \tag{4}$$

definidas en $\delta$ y diferenciables en el mismo intervalo tales que satisfacen simultáneamente las $n$ ecuaciones diferenciales del sistema (\ref{3}).

Definición: Si cada una de las funciones $F_{1}, F_{2}, \cdots, F_{n}$ del sistema (\ref{3}) es lineal en las variables dependientes $y_{1}, y_{2}, \cdots, y_{n}$, se define la forma normal de un sistema de ecuaciones lineales de primer orden como:

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}(t)y_{1} + a_{12}(t)y_{2} + \cdots + a_{1n}(t)y_{n} + g_{1}(t) \\
y_{2}^{\prime}(t) &= a_{21}(t)y_{1} + a_{22}(t)y_{2} + \cdots + a_{2n}(t)y_{n} + g_{2}(t) \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}(t)y_{1} + a_{n2}(t)y_{2} + \cdots + a_{nn}(t)y_{n} + g_{n}(t) \label{5} \tag{5}
\end{align*}

Definición: Al sistema de ecuaciones diferenciales (\ref{5}) se le denomina sistema lineal de primer orden.

En el sistema lineal (\ref{5}) se supone que los coeficientes $a_{ij}(t)$, así como las funciones $g_{i}(t)$, $i, j = \{1, 2, 3, \cdots, n \}$ son continuas en un intervalo común $\delta$.

Definición: Si no es posible escribir al sistema de ecuaciones como (\ref{5}), es decir, si las funciones $F_{1}, F_{2}, \cdots, F_{n}$ del sistema (\ref{3}) no son lineales en las variables dependientes $y_{1}, y_{2}, \cdots, y_{n}$, diremos que el sistema es no lineal.

Ejemplo: El sistema de ecuaciones diferenciales

\begin{align*}
y_{1}^{\prime}(t) &= -3y_{1} + 4y_{2} -9y_{3} \\
y_{2}^{\prime}(t) &= 6y_{1} -y_{2} \\
y_{3}^{\prime}(t) &= 10y_{1} + 4y_{2} + 3y_{3}
\end{align*}

es un sistema lineal de primer orden compuesto por tres ecuaciones diferenciales lineales de primer orden cada una.

Notación: Si el sistema es de dos o tres ecuaciones diferenciales denotaremos por $x(t), y(t)$ o $x(t), y(t)$, $z(t)$ a las variables dependientes de $t$, respectivamente.

Considerando esta notación, el sistema del ejemplo anterior se puede escribir de la siguiente manera:

\begin{align*}
x^{\prime}(t) &= -3x + 4y -9z\\
y^{\prime}(t) &= 6x -y \\
z^{\prime}(t) &= 10x + 4y + 3z
\end{align*}

Definición: Si las funciones $g_{i}(t) = 0$, $i = 1, 2, 3, \cdots, n$ del sistema lineal (\ref{5}), es decir, si

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}(t)y_{1} + a_{12}(t)y_{2} + \cdots + a_{1n}(t)y_{n} \\
y_{2}^{\prime}(t) &= a_{21}(t)y_{1} + a_{22}(t)y_{2} + \cdots + a_{2n}(t)y_{n} \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}(t)y_{1} + a_{n2}(t)y_{2} + \cdots + a_{nn}(t)y_{n} \label{6} \tag{6}
\end{align*}

se dice que dicho sistema es homogéneo, en caso contrario se dice que el sistema es no homogéneo.

Problema de valores iniciales

Definición: Un problema de valores iniciales (PVI) es un sistema de ecuaciones (\ref{3}) sujeto a condiciones iniciales

\begin{align*}
y_{1}(t_{0}) &= b_{1} \\
y_{2}(t_{0}) &= b_{2} \\
&\vdots \\
y_{n}(t_{0}) &= b_{n} \label{7} \tag{7}
\end{align*}

con $b_{1}, b_{2}, \cdots, b_{n}$ valores fijos y $t_{0} \in \delta$.

Es posible demostrar la existencia y unicidad de soluciones a sistemas tanto lineales como no lineales (caso general) y de soluciones a sistemas lineales homogéneos y no homogéneos (casos particulares), sin embargo las demostraciones de estos teoremas suelen ser bastantes extensas y complejas para nosotros en estos momentos ya que requieren de herramientas matemáticas que aún desconocemos. A continuación enunciamos el teorema de existencia y unicidad para el caso general y para el caso lineal homogéneo.

Teorema: (Caso general). Dado un PVI que para cada $i,j \in \{1, 2, 3, \cdots, n\}$, $F_{i}$ y $\dfrac{\partial F_{i}}{\partial y_{j}}$ existen y son continuas en una región

$$R = \delta \times \delta_{1} \times \delta_{2} \times \delta_{3} \times \cdots \times \delta_{n}$$

y sea $(t_{0}, b_{1}, b_{2}, \cdots, b_{n}) \in R$, entonces existe un intervalo $|t -t_{0}| < h$ tal que existe una única solución $\{y_{1}(t), y_{2}(t), \cdots, y_{n}(t)\}$ al PVI.

En este teorema la región $R$ esta compuesto por el producto cartesiano de los intervalos abiertos en los que $t_{0} \in \delta$, $b_{1} \in \delta_{1}$, $b_{2} \in \delta_{2}$, $\cdots$, $b_{n} \in \delta_{n}$, así $(t_{0}, b_{1}, b_{2}, \cdots, b_{n}) \in R$.

Para el caso particular de sistemas lineales homogéneos, el teorema de existencia y unicidad se puede enunciar de la siguiente forma.

Teorema: Dado el sistema lineal homogéneo (\ref{6}) con las condiciones iniciales (\ref{7}), si cada $a_{ij}(t)$ es continua en $\delta$ $\forall i,j \in \{1, 2, 3, \cdots, n \}$, entonces existe una única solución $\{y_{1}, y_{2}(t), \cdots, y_{n}(t)\}$ en $\delta$ al PVI.

Como mencionamos antes, es complejo demostrar estos teoremas, sin embargo más adelante en la unidad los retomaremos y trataremos de justificarlos para así poder justificar todo lo que hagamos en la unidad. Por ahora ten en cuenta que para el caso general se requiere de volver a algunos de los conceptos vistos para demostrar el teorema de existencia y unicidad de Picard-Lindelöf de la primera unidad y para los casos particulares ¡la definición de la exponencial de una matriz nos ayudará a poder demostrarlos!.

Ahora veamos como la notación matricial no puede ayudar.

Sistemas lineales de primer orden en forma matricial

Daremos por hecho que se conocen las operaciones y propiedades básicas de las matrices, así como algunas cuestiones de espacios vectoriales vistas en el curso de Álgebra Lineal I.

Definamos las siguientes matrices de funciones

$$\mathbf{Y} = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \hspace{1cm} \Rightarrow \hspace{1cm} \mathbf{Y^{\prime}} = \begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} $$

y

$$\mathbf{A}(t) = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix}, \hspace{1cm}
\mathbf{G}(t) = \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix}$$

Usando estas matrices el sistema de ecuaciones diferenciales lineales de primer orden (\ref{5}) se puede escribir de la siguiente manera.

$$\begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{8} \tag{8}$$

o bien

$$\mathbf{Y^{\prime}} = \mathbf{AY} + \mathbf{G} \label{9} \tag{9}$$

Si el sistema es homogéneo, entonces escribimos

$$\mathbf{Y^{\prime}} = \mathbf{AY} \label{10} \tag{10}$$

La solución a un sistema lineal lo podemos definir como sigue.

Definición: Un vector solución es cualquier matriz columna

$$\mathbf{Y} = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \label{11} \tag{11}$$

cuyos elementos son funciones derivables que satisfacen el sistema (\ref{8}) en el intervalo $\delta$.

Usando la notación matricial, un PVI se puede escribir de la siguiente manera.

Definición: Sea un punto $t_{0} \in \delta$ y

$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
y_{1}(t_{0}) \\ y_{2}(t_{0}) \\ \vdots \\ y_{n}(t_{0})
\end{pmatrix} = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0} \label{12} \tag{12}$$

donde las $b_{i}$, $i = 1, 2, 3, \cdots, n$ son constantes. El problema de resolver $\mathbf{Y^{\prime}} = \mathbf{A}(t)\mathbf{Y} + \mathbf{G}(t)$ sujeto a la condición inicial $\mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$ es un problema con valores iniciales en el intervalo $\delta$.

El teorema de existencia y unicidad para el caso lineal se puede enunciar de la siguiente forma.

Teorema: Sean los elementos de las matrices $\mathbf{A}(t)$ y $\mathbf{G}(t)$ funciones continuas en un intervalo común $\delta$ que contiene al punto $t_{0}$, entonces existe una solución única del problema con valores iniciales en el intervalo.

Verifica que el sistema de ecuaciones usado como ejemplo al inicio de la entrada se puede escribir de la siguiente forma en notación matricial.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-3 & 4 & -9 \\ 6 & -1 & 0 \\ 10 & 4 & 3
\end{pmatrix} \mathbf{Y}$$

Veamos un ejemplo más.

Ejemplo: Escribir el siguiente sistema lineal en forma matricial.

\begin{align*}
x^{\prime}(t) &= x -y + z + t + 1 \\
y^{\prime}(t) &= 2x + y -z -3t^{2} \\
z^{\prime}(t) &= x + y + z + t^{2} -t + 2
\end{align*}

Solución: Primero escribamos cada lado de las ecuaciones en una matriz.

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
x -y + z + t -1 \\ 2x + y -z -3t^{2} \\ x + y + z + t^{2} -t + 2
\end{pmatrix}$$

La matriz derecha la separamos en dos, una que contenga a las variables dependientes y otra a la variable independiente.

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
x -y + z \\ 2x + y -z \\ x + y + z
\end{pmatrix} + \begin{pmatrix}
t -1 \\ -3t^{2} \\ t^{2} -t + 2
\end{pmatrix}$$

Finalmente podemos escribir

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
1 & -1 & 1 \\ 2 & 1 & -1 \\ 1 & 1 & 1
\end{pmatrix} \begin{pmatrix}
x \\ y \\ z
\end{pmatrix} + \begin{pmatrix}
t -1 \\ -3t^{2} \\ t^{2} -t + 2
\end{pmatrix}$$

O bien,

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & -1 & 1 \\ 2 & 1 & -1 \\ 1 & 1 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
t -1 \\ -3t^{2} \\ t^{2} -t + 2
\end{pmatrix}$$

Donde $ \mathbf{A} = \begin{pmatrix} 1 & -1 & 1 \\ 2 & 1 & -1 \\ 1 & 1 & 1 \end{pmatrix} $ y $\mathbf{G}(t) = \begin{pmatrix} t -1 \\ -3t^{2} \\ t^{2} -t + 2 \end{pmatrix}$.

$\square$

Usando la notación matricial verifiquemos que un vector solución en efecto es solución a un sistema lineal.

Ejemplo: Probar que el vector

$$\mathbf{Y} = \begin{pmatrix}
5 \cos(t) \\ 3 \cos(t) -\sin(t)
\end{pmatrix}e^{t}$$

es solución del siguiente sistema lineal:

$$\begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
-2 & 5 \\ -2 & 4
\end{pmatrix} \begin{pmatrix}
x(t) \\ y(t)
\end{pmatrix}$$

Solución: El vector dado es

$$\mathbf{Y} = \begin{pmatrix}
x(t) \\ y(t)
\end{pmatrix} = \begin{pmatrix}
5e^{t} \cos(t) \\ 3e^{t} \cos(t) -e^{t} \sin(t)
\end{pmatrix}$$

Por una lado, derivemos al vector

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
x^{\prime}(t) \\ y^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
5e^{t} \cos(t) -5e^{t} \sin(t) \\ 3e^{t} \cos(t) -3e^{t} \sin(t) -e^{t} \sin(t) -e^{t} \cos(t)
\end{pmatrix}$$

Esto es

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
5 \cos(t) -5 \sin(t) \\ 2 \cos(t) -4 \sin(t)
\end{pmatrix} e^{t}$$

Por otro lado, sustituyamos los valores de $x(t)$ y $y(t)$ en el sistema y veamos si se obtiene el mismo resultado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-2 & 5 \\ -2 & 4
\end{pmatrix} \begin{pmatrix}
5e^{t} \cos(t) \\ 3e^{t} \cos(t) -e^{t} \sin(t)
\end{pmatrix} = \begin{pmatrix}
-10e^{t} \cos(t) + 15e^{t} \cos(t) -5e^{t} \sin(t) \\ -10e^{t} \cos(t) + 12e^{t} \cos(t) -4e^{t} \sin(t)
\end{pmatrix}$$

Esto es

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
5 \cos(t) -5 \sin(t) \\ 2 \cos(t) -4 \sin(t)
\end{pmatrix} e^{t}$$

Como el resultado es el mismo concluimos que, en efecto, el vector $\mathbf{Y}$ es solución al sistema lineal dado.

$\square$

Para concluir con esta entrada veamos un resultado muy interesante que nos conecta con la unidad anterior.

¡Una ecuación diferencial de orden $n \geq 2$ lineal puede ser reescrita como un sistema lineal de $n$ ecuaciones de primer orden!, veamos cómo es esto.

Reducción de una ecuación de orden $n$ a un sistema de ecuaciones

Consideremos una ecuación diferencial lineal de orden $n$.

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n -1}(x) \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{13} \tag{13}$$

Para adaptar este ejercicio a la notación que hemos venido usando en esta entrada tomemos a $x = x(t)$ como la variable dependiente de $t$ y dividamos toda la ecuación por $a_{n}(t) \neq 0$ tal que se obtenga la siguiente ecuación de orden $n$:

$$\dfrac{dx^{n}}{dt^{n}} + b_{1}(t) \dfrac{d^{n -1}x}{dt^{n -1}} + \cdots + b_{n -2}(t) \dfrac{d^{2}x}{dt^{2}} + b_{n -1}(t) \dfrac{dx}{dt} + b_{n}(t)x = g(t) \label{14} \tag{14}$$

Ahora realicemos las siguientes definiciones.

$$y_{1} = x, \hspace{1cm} y_{2} = \dfrac{dx}{dt}, \hspace{1cm} y_{3} = \dfrac{d^{2}x}{dt^{2}}, \hspace{1cm} \cdots, \hspace{1cm} y_{n} = \dfrac{d^{n -1}x}{dt^{n -1}} \label{15} \tag{15}$$

y notemos que

$$y^{\prime}_{1} = \dfrac{dx}{dt}, \hspace{1cm} y^{\prime}_{2} = \dfrac{d^{2}x}{dt^{2}}, \hspace{1cm} y^{\prime}_{3} = \dfrac{d^{3}x}{dt^{3}}, \hspace{1cm} \cdots, \hspace{1cm} y^{\prime}_{n -1} = \dfrac{d^{n -1}x}{dt^{n -1}} \label{16} \tag{16}$$

De los resultados (\ref{15}) y (\ref{16}) obtenemos que

$$y^{\prime}_{1} = y_{2}, \hspace{1cm} y^{\prime}_{2} = y_{3}, \hspace{1cm} y^{\prime}_{3} = y_{4}, \hspace{1cm} \cdots, \hspace{1cm} y^{\prime}_{n -1} = y_{n} \label{17} \tag{17}$$

Para obtener $y^{\prime}_{n}$ sólo despejamos de la ecuación diferencial (\ref{14}).

$$y^{\prime}_{n} = \dfrac{d^{n}x}{dt^{n}} = g(t) -b_{1}(t) \dfrac{d^{n -1}x}{dt^{n -1}} -\cdots -b_{n -2}(t) \dfrac{d^{2}x}{dt^{2}} -b_{n -1}(t) \dfrac{dx}{dt} -b_{n}(t)x$$

que usando (\ref{15}) podemos escribir como

$$y^{\prime}_{n} = g(t) -b_{1}(t)y_{n} -\cdots -b_{n -2}(t)y_{3} -b_{n -1}(t)y_{2} -b_{n}(t)y_{1} \label{18} \tag{18}$$

Con estos resultados nos damos cuenta que hemos formado un sistema lineal de $n$ ecuaciones diferenciales.

\begin{align*}
y^{\prime}_{1} &= y_{2} \\
y^{\prime}_{2} &= y_{3} \\
y^{\prime}_{3} &= y_{4} \\
&\vdots \\
y^{\prime}_{n -1} &= y_{n} \\
y^{\prime}_{n} &= g(t) -b_{1}(t)y_{n} -\cdots -b_{n -2}(t)y_{3} -b_{n -1}(t)y_{2} -b_{n}(t)y_{1}
\end{align*}

Usando la notación matricial obtenemos finalmente que

$$\begin{pmatrix}
y^{\prime}_{1}(t) \\ y^{\prime}_{2}(t) \\ \vdots \\ y^{\prime}_{n -1}(t) \\ y^{\prime}_{n}(t)
\end{pmatrix} = \begin{pmatrix}
0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \cdots & 1 \\ -b_{n}(t) & -b_{n-1}(t) & -b_{n-2}(t) & \cdots & -b_{1}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n -1}(t) \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ \vdots \\ 0 \\ g(t)
\end{pmatrix}$$

Esto por supuesto trae muchas ventajas ya que en ocasiones será mucho más sencillo resolver un sistema de $n$ ecuaciones con los métodos que veremos más adelante que intentar resolver la ecuación de orden $n$ con los métodos desarrollados en la unidad anterior.

Para que quede más claro el procedimiento anterior realicemos un ejemplo.

Ejemplo: Escribir la ecuación diferencial de orden $n = 4$

$$\dfrac{d^{4}x}{dt^{4}} + 12 \dfrac{d^{3}x}{dt^{3}} -5 \dfrac{d^{2}x}{dt^{2}} + 8x = 2 \cos(t)$$

en un sistema lineal usando notación matricial.

Solución: Hacemos las definiciones de (\ref{15}) y (\ref{16}).

$$y_{1} = x, \hspace{1cm} y_{2} = \dfrac{dx}{dt} = y^{\prime}_{1}, \hspace{1cm} y_{3} = \dfrac{d^{2}x}{dt^{2}} = y^{\prime}_{2} \hspace{1cm} y \hspace{1cm} y_{4} = \dfrac{d^{3}x}{dt^{3}} = y^{\prime}_{3}$$

Y de la ecuación diferencial obtenemos que

$$\dfrac{d^{4}x}{dt^{4}} = 2 \cos(t) -12y_{4} + 5y_{3} -8y_{1} = y^{\prime}_{4}$$

Entonces formamos el sistema

\begin{align*}
y^{\prime}_{1} &= y_{2} \\
y^{\prime}_{2} &= y_{3} \\
y^{\prime}_{3} &= y_{4} \\
y^{\prime}_{4} &= 2 \cos(t) -12y_{4} + 5y_{3} -8y_{1}
\end{align*}

Por lo tanto, la ecuación diferencial de orden $4$ es equivalente al siguiente sistema lineal de $4$ ecuaciones:

$$\begin{pmatrix}
y^{\prime}_{1}(t) \\ y^{\prime}_{2}(t) \\ y^{\prime}_{3}(t) \\ y^{\prime}_{4}(t)
\end{pmatrix} = \begin{pmatrix}
0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ -8 & 0 & 5 & -12
\end{pmatrix} \begin{pmatrix}
y_{1} \\ y_{2} \\ y_{3} \\ y_{4}
\end{pmatrix} + \begin{pmatrix}
0 \\ 0 \\ 0 \\ 2 \cos (t)
\end{pmatrix}$$

$\square$

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Escribir los siguientes sistemas lineales en forma matricial.
  • $\begin{align*}
    x^{\prime}(t) &= 3x -5y \\
    y^{\prime}(t) &= 4x + 8y
    \end{align*}$
  • $\begin{align*}
    x^{\prime}(t) &= -3x + 4y + e^{-t} \sin(2t) \\
    y^{\prime}(t) &= 5x + 9z + 4e^{-t} \cos(2t) \\
    z^{\prime}(t) &= y + 6z -e^{-t}
    \end{align*}$
  1. Reescribir los siguientes sistemas lineales sin el uso de matrices.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    7 & 5 & -9 \\ 4 & 1 & 1 \\ 0 & -2 & 3 \\
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    0 \\ 2 \\ 1
    \end{pmatrix} e^{5t} -\begin{pmatrix}
    8 \\ 0 \\ 3
    \end{pmatrix} e^{-2t}$
  • $\begin{pmatrix}
    x^{\prime}(t) \\ y^{\prime}(t) \\ z^{\prime}(t)
    \end{pmatrix} = \begin{pmatrix}
    1 & -1 & 2 \\ 3 & -4 & 1 \\ -2 & 5 & 6
    \end{pmatrix} \begin{pmatrix}
    x \\ y \\ z
    \end{pmatrix} + \begin{pmatrix}
    1 \\ 2 \\ 2
    \end{pmatrix} e^{-t} -\begin{pmatrix}
    3 \\ -1 \\ 1
    \end{pmatrix} t$
  1. Probar que el vector dado $\mathbf{Y}$ es solución al sistema lineal correspondiente.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 1 \\ -1 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
    1 \\ 3
    \end{pmatrix} e^{t} + \begin{pmatrix}
    4 \\ -4
    \end{pmatrix} te^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 0 & 1 \\ 1 & 1 & 0 \\ -2 & 0 & -1
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y} = \begin{pmatrix}
    \sin(t) \\ -\dfrac{1}{2} \sin(t) -\dfrac{1}{2} \cos(t) \\ -\sin(t) + \cos(t)
    \end{pmatrix}$
  1. Escribir las siguientes ecuaciones diferenciales en un sistema lineal usando notación matricial.
  • $\dfrac{d^{4}x}{dt^{4}} -10 \dfrac{d^{3}x}{dt^{3}} + 35 \dfrac{d^{2}x}{dt^{2}} -50 \dfrac{dx}{dt} + 24x = 0$
  • $\dfrac{d^{4}x}{dt^{4}} -4 \dfrac{d^{3}x}{dt^{3}} + 8 \dfrac{d^{2}x}{dt^{2}} -8 \dfrac{dx}{dt} + 4x = 8 \sin (2t)$

Más adelante…

En la siguiente entrada continuaremos con esta introducción a los sistemas lineales de primer orden. Haremos un estudio sobre las propiedades de las soluciones a estos sistemas de manera muy similar que en el caso de ecuaciones diferenciales de orden superior, pues aparecerán de nuevo conceptos que ya conocemos como dependencia e independencia lineal, conjunto fundamental de soluciones, Wronskiano y el principio de superposición, entre otros.

Entradas relacionadas

Álgebra Lineal II: Jordan para matrices nilpotentes

Introducción

En la nota anterior resolvimos varios problemas para introducir los bloques de Jordan. Comenzaremos resolviendo el siguiente problema:

Problema 1: Sea $T \colon V \to V$ una transformación lineal nilpotente con índice $k$ en un espacio vectorial, sea $v \in V$ y sea $$W = \langle(v,T(v), \ldots, T^{k-1}(v))\rangle$$

  1. Prueba que $W$ es invariante bajo $T$.
  2. Prueba que si $T^{k-1}(v) \neq 0$, entonces $T^{k-1}(v), T^{k-2}(v), \ldots , T(v), v$ forman una base de $W$ (por lo que $\dim(W) = k$) y la matriz de la transformación lineal $T \colon W \to W$ con respecto a esta base es $$J_{k} = \begin{pmatrix}0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \cdots & 1 \\ 0 & 0 & 0 & \cdots & 0 \end{pmatrix}$$

Esta matriz se llama un bloque de Jordan de tamaño $k$ (nota que $J_{1} = O_{1}$, la matriz de $1 \times 1$ con una entrada igual a 0).

Solución.

  1. Cualquier elemento de $W$ es de la forma $$w = a_{0}v + a_{1}T(v) + \cdots + a_{k-1}T^{k-1}(v)$$ Dado que $T^{k}(v) = 0$, tenemos $$T(w) = a_{0}T(v) + \cdots + a_{k-2}T^{k-1}(v) \in W,$$ por lo que $W$ es invariante bajo $T$.
  2. Si $T^{k-1}(v) \neq 0$, la parte 1 del problema 2 en (hipervínculo nota introducción) nos muestra que $T^{k-1}(v), \ldots , T(v), v$ es una familia linealmente independiente y como también genera $W$, es una base de $W$. Más aún, como $T^{k}(v) = 0$ y $T(T^{i}(v)) = T^{i+1}(v)$ para $k-2 \geq i \geq 0$, es claro que la matriz de $T \colon W \to W$ respecto a esta base es $J_{k}$.

El principal teorema que concierne a transformaciones lineales nilpotentes en espacios vectoriales de dimensión finita es el siguiente:

Teorema de Jordan

Teorema de Jordan (1): Sea $V$ un espacio vectorial de dimensión finita sobre un campo $F$ y sea $T \colon V \to V$ una transformación lineal nilpotente. Entonces hay una base de $V$ respecto a la cual la matriz de $T$ es de la forma $$A = \begin{pmatrix}J_{k_{1}} & 0 & \cdots & 0 \\ 0 & J_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}} \end{pmatrix}$$ para alguna sucesión de enteros positivos $k_{1} \geq k_{2} \geq \cdots \geq k_{d}$ con $k_{1} + \cdots + k_{d} = n$. Más aún, la sucesión $(k_{1}, \ldots , k_{d})$ está determinada de forma única.

Podemos escribir el teorema anterior en términos de matrices:

Teorema de Jordan (2): Cualquier matriz nilpotente $A \in M_{n}(F)$ es similar a una matriz diagonal por bloque $\begin{pmatrix}J_{k_{1}} & 0 & \cdots & 0 \\ 0 & J_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}} \end{pmatrix}$ para una sucesión única de enteros positivos $(k_{1}, \ldots , k_{d})$ con $k_{1} \geq k_{2} \geq \cdots \geq k_{d}$ y $k_{1} + \cdots + k_{d} = n$.

La matriz $\begin{pmatrix}J_{k_{1}} & 0 & \cdots & 0 \\ 0 & J_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}} \end{pmatrix}$ se llama la forma canónica de Jordan de $A$ o $T$.

Los siguientes problemas están dedicados a la demostración de este teorema. Empezaremos con la unicidad de la sucesión $(k_{1}, \ldots , k_{d})$. La prueba que daremos en los siguientes tres problemas, también muestra cómo calcular explícitamente estos enteros y por lo tanto, cómo encontrar en la práctica la forma de Jordan de matrices nilpotentes.

Problemas para probar Jordan (unicidad)

Problema 2: Sea $T$ la transformación lineal en $F^{n}$ asociada con el bloque de Jordan $J_{n}$. Prueba que para toda $1 \leq k \leq n – 1$ tenemos $$rango\left(T^{k}\right) = n – k$$ y deduce que $$rango\left(J_{n}^{k}\right) = n – k$$ para $1 \leq k \leq n – 1$.

Solución. Si $e_{1}, \ldots, e_{n}$ es la base canónica de $F^{n}$, entonces $T(e_{1}) = 0$, $T(e_{2}) = e_{1}$, $T(e_{3}) = e_{2}$, …, $T(e_{n}) = e_{n-1}$.

En otras palabras, se tiene que $T(e_{i}) = e_{i-1}$ para $1 \leq i \leq n$ con $e_{0} = 0$. Deducimos que $T^{2}(e_{i}) = T(e_{i-1}) = e_{i-2}$ para $1 \leq i \leq n$, con $e_{- 1} = 0$.

Una inducción nos lleva a que $T^{j}(e_{i}) = e_{i-j}$ para $1 \leq j \leq n-1$ y $1 \leq i \leq n$, con $e_{r} \leq 0$. De donde $$Im(T^{j}) = \langle (e_{1}, e_{2}, \ldots, e_{n-j}) \rangle$$ y este espacio es de dimensión $n-j$, lo cual implica que $$rango(T^{k}) = n-k$$ para $1 \leq k \leq n-1$.

La segunda parte es consecuencia inmediata de la primera (¿Por qué?).

$\square$

Problema 3: Supóngase que $A \in M_{n}(F)$ es similar a $\begin{pmatrix}J_{k_{1}} & 0 & \cdots & 0 \\ 0 & J_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}} \end{pmatrix}$.

Sea $N_{j}$ el número de términos iguales a $j$ en la secuencia $(k_{1}, \ldots , k_{d})$. Prueba que para toda $1 \leq j \leq n$, $$rango(A^{j}) = N_{j+1} + 2N_{j+2} + \cdots + (n-j)N_{n}.$$

Solución. Si $A_{1}, \ldots, A_{d}$ son matrices cuadradas, entonces $$rango\left(\begin{pmatrix}A_{1} & 0 & \cdots & 0 \\ 0 & A_{2} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & A_{d} \end{pmatrix}\right) = rango(A_{1}) + \cdots + rango(A_{d}).$$

Puedes probarlo usando el hecho de que el rango de una matriz es la dimensión del generado por su conjunto de columnas/filas (o el número de columnas/filas linealmente independientes). Dado que matrices similares tienen el mismo rango, deducimos que para toda $j \geq 1$ tenemos $$rango(A^{j}) = rango \left( \begin{pmatrix}J^{j}_{k_{1}} & 0 & \cdots & 0 \\ 0 & J^{j}_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J^{j}_{k_{d}} \end{pmatrix}\right) = \sum_{i=1}^{d} rango(J^{j}_{k_{i}}).$$

Por el problema anterior, $rango(J^{j}_{k_{i}}) = k_{i} – j$ si $j \leq k_{i}$ y 0 si pasa otra cosa. De donde, como $N_{t}$ es el número de índices $i$ para los cuales $k_{i} = t$, tenemos $$\sum_{i=1}^{d} rango(J^{j}_{k_{i}}) = \sum_{t \geq j} \sum_{k_{i} = t} rango(J^{j}_{t})$$ $$= \sum_{t \geq j} N_{t} \cdot (t – j) = N_{j+1} + 2N_{j+2} + \cdots + (n-j)N_{n}$$

$\square$

Problema 4: Prueba que si $k_{1} \geq \cdots \geq k_{d}$ y $k’_{1} \geq \cdots \geq k’_{d}$, son sucesiones de enteros positivos que suman $n$ y tales que $A = \begin{pmatrix}J_{k_{1}} & 0 & \cdots & 0 \\ 0 & J_{k_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k_{d}} \end{pmatrix}$ es similar a $B = \begin{pmatrix}J_{k’_{1}} & 0 & \cdots & 0 \\ 0 & J_{k’_{2}} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & J_{k’_{d}} \end{pmatrix}$, entonces las sucesiones son iguales. Esta es la unicidad del teorema de Jordan.

Solución. Sea $N_{j}$ el número de términos iguales a $j$ en la sucesión $k_{1}, \ldots, k_{d})$, y definamos de una manera similar a $N’_{j}$ para la sucesión $k’_{1}, \ldots, k’_{d})$. Tenemos que probar que $N_{j} = N’_{j}$ para $1 \leq j \leq n$.

Dado que $A$ y $B$ son similares, $A^{j}$ y $B^{j}$ son similares para toda $j \geq 1$, por lo que tienen los mismos rangos. Usando el problema 3, deducimos que $$N_{j+1} + 2N_{j+2} + \cdots + (n-j)N_{n} = N’_{j+1} + 2N’_{j+2} + \cdots + (n-j)N’_{n}$$ para $j \geq 1$. Fijar $j = n – 1$ nos da que $N_{n} = N’_{n}$, luego si fijamos $j = n – 2$ y usamos que $N_{n} = N’_{n}$ tenemos que $N_{n-1} = N’_{n-1}$. Si continuamos así, tendremos que $N_{j} = N’_{j}$ para $2 \leq j \leq n$.

Todavía nos falta probar que $N_{1} = N’_{1}$, pero esto se sigue de $$N_{1} + 2N_{2} + \cdots + nN_{n} = N’_{1} + 2N’_{2} + \cdots + nN’_{n} = n,$$ ya que $$k_{1} + \cdots + k_{d} = k’_{1} + \cdots + k’_{d} = n.$$

Observación. Los dos problemas anteriores muestran como calcular la sucesión $(k_{1}, \ldots , k_{d})$ en práctica. Concretamente, lo redujimos a calcular $N_{1}, \ldots, N_{n}$. Para esto, usamos la igualdad $$rango(A^{j}) = N_{j+1} + 2N_{j+2} + \cdots + (n-j)N_{n}$$ para $1 \leq j \leq n$ (basta tomar a $j \leq k$ si $A$ tiene índice $k$, nota que en la igualdad anterior para $j = k$ ya tenemos que $N_{k+1} = \cdots = N_{n} = 0$). Esto determina completamente a $N_{2}, \ldots, N_{n}$. Para encontrar a $N_{1}$, usaremos la siguiente igualdad: $$N_{1} + 2N_{2} + \cdots + nN_{n}.$$

Ejemplo. Para un ejemplo específico, considera la matriz $$A = \begin{pmatrix} 1 & -1 & 1 & 2 \\ 1 & -1 & 1 & 2 \\ 0 & 0 & -2 & 4 \\ 0 & 0 & -1 & 2 \end{pmatrix}$$

Puedes checar fácilmente que la matriz es nilpotente pues $$A^{2} = \begin{pmatrix} 0 & 0 & -4 & 8 \\ 0 & 0 & -4 & 8 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{pmatrix}$$ y $A^{3} = O_{3}$. Es decir, $A$ tiene índice $k = 3$. De ahí, se tiene que $N_{4} = 0$ y $$N_{1} + 2N_{2} + 3N_{3} = 4.$$

Ahora, fíjate que el rango de $A$ es 2, ya que la primera y la segunda filas son idénticas, la última fila es la mitad de la tercera, y la primera y la tercera son linealmente independientes. Por lo que $$2 = rango(A) = N_{2} + 2N_{3} + 3N_{4} = N_{2} + 2N_{3}$$

Ahora, como el rango de $A^2$ es 1 (porque sólo hay una fila linealmente independiente) tenemos que $1 = rango(A^{2}) = N_{3} + 2N_{4} = N_{3}.$

Por lo que $N_{1} = 1$, $N_{2} = 0$, $N_{3} = 1$, $N_{4} = 0$ y así, la forma normal de Jordan de $A$ es $$\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{pmatrix}$$

Existencia

Ya probamos la unicidad del teorema de Jordan, falta probar la existencia, lo cual es mucho más difícil. La idea básica no es muy impactante: Trabajamos con inducción fuerte sobre la dimensión de $V$, el caso en que $\dim(V) = 1$ es claro (Pues entonces T = 0). Supongamos que el resultado es cierto para $\dim(V) < n$ y consideremos el caso en el que $\dim(V) = n$. Supongamos que $T \neq 0$ ya que si así fuera, ya habríamos terminado. Sean $k_{1} = k$ el índice de $T$ y $v \in V$ tal que $T^{k-1}(v) \neq 0$. Por el problema 1, el subespacio $$W = \langle(v, T(v), \ldots, T^{k-1}(v)) \rangle$$ es T-invariante, lo cual actúa sobre él como la matriz $J_{k}$ sobre $F^{k}$. Más aún, $\dim(W) = k$. Si $k = n$, entonces hemos terminado. Si no, buscamos un subespacio complementario $W’$ de $W$ que sea invariante bajo $T$. Si pudiéramos encontrar dicho espacio $W’$, entonces podríamos aplicar la hipótesis de inducción a $T \colon W’ \to W$ (nota que su índice no excede $k_{1}$) y encontrar una base de $W’$ en la cual la matriz de $T$ tiene la forma deseada. Conectar la base $T^{k-1}(v), \ldots, T(v), v$ y esta base de $W’$ nos llevaría a la base deseada de $V$ y terminaríamos la inducción. La dificultad clave es probar la existencia de $W’$. Haremos esto con los siguientes dos problemas:

Problema 5:

  1. Prueba que si $A \in M_{n}(F)$ es nilpotente, entonces $^{t}A$ es nilpotente y tiene el mismo índice que $A$.
  2. Supongamos que $V$ es un espacio vectorial de dimensión finita sobre $F$. Prueba que si $T \colon V \to V$ es nilpotente, entonces $^{t}T \colon V^{*} \to V^{*}$ también es nilpotente y tiene el mismo índice que $T$.

Solución.

  1. Para toda $k \geq 1$ tenemos $$(^{t}A)^{k} = ^{t}(A^{k})$$ así $(^{t}A)^{k} = O_{n}$ si y sólo si $A^{k} = O_{n}$. Y así se sigue el resultado que queríamos.
  2. Sea $\beta$ una base de $V$ y sea \beta^{*} la base dual respecto a $\beta$. Si $A$ es la matriz de $T$ con respecto a $\beta$, entonces la matriz de $^{t}T$ con respecto a $\beta^{*}$ es $^{t}A$, por el siguiente teorema (que se vio en _____): Sea $T \colon V \to W$ una transformación lineal entre espacios vectoriales de dimensión finita y sean $\beta$ y $\beta^{*}$ dos bases de $V$ y $W$ respectivamente. Si $A$ es la matriz de $T$ con respecto a $\beta$ y $\beta’$, entonces la matriz de $^{t}T \colon W^{*} \to V^{*}$ con respecto a las bases duales de $\beta’$ y $\beta$ es $^{t}A$. Luego, por la primera parte de este problema. Podríamos haberlo probado de forma directa como sigue: Si $k \geq 1$, entonces $(^{t}T)^{k} = 0$ si y sólo si $(^{t}T)^{k}(l) = 0$ para toda $l \in V^{*}$, de forma equivalente $l \circ T^{k} = 0$ para toda $l \in V^{*}$. Esto puede escribirse como: Para toda $v \in V$ y toda $l \in V^{*}$ tenemos que $l(T^{k}(v)) = 0$. Ahora, la afirmación de que $l(T^{k}(v)) = 0$ para toda $l \in V^{*}$ es equivalente a $T^{k}(v) = 0$, por inyectividad de la función bidual $V \to V^{**}$. De ahí, $(^{t}T)^{k} = 0$ si y sólo si $T^{k} = 0$, y esto pasa aún cuando $V$ es de dimensión infinita. En otras palabras, la segunda parte de este problema es cierto en general (pero la prueba requería la inyectividad de la función $V \to V^{**}$, lo cual es difícil y no estaba dado para espacios vectoriales de dimensión infinita).

$\square$

Problema 6: Sean $T \colon V \to V$ una transformación nilpotente de índice $k$ en un espacio vectorial de dimensión finita $V$ y $v \in V$ tal que $T^{k-1}(v) \neq 0$. Denotamos por simplicidad $S = ^{t}T \colon V^{*} \to V^{*}$ y recordemos que $S$ es nilpotente de índice $k$ por el problema anterior.

  1. Explica por qué podemos encontrar una forma lineal $l \in V^{*}$ tal que $l(T^{k-1}(v)) \neq 0$.
  2. Prueba que el ortogonal de $W’$ de $Z = \langle l, S(l), \ldots, S^{k-1}(l) \rangle \subset V^{*}$ es invariante bajo $T$.
  3. Prueba que $\dim(W’) + \dim(W) = \dim(V)$.
  4. Deduce que $W’ \oplus W = V$, de donde $W’$ es un subespacio complementario de $W$, estable bajo $T$. ¡Esto termina la prueba del Teorema de Jordan!

Solución.

  1. Esta es una consecuencia directa de la inyectividad (en realidad de la biyectividad porque nuestro espacio es de dimensión finita) de la función bidual $V \to V^{**}$.
  2. Intentemos entender concretamente al espacio $Z^{\perp}$. Un vector $x$ está en $Z^{\perp}$ si y sólo si $S^{j}(l)(x) = 0$ para $0 \leq j \leq k-1$. Dado $S = T^{*}$, tenemos $$S^{j}(l)(x) = (l \circ T^{j})(x) = l(T^{j}(x)),$$ así $$Z^{\perp} = \{x \in V : l(T^{j}(x)) = 0 \text{ para toda } 0 \leq j \leq k-1\}.$$ Ahora, sea $x \in Z^{\perp}$ y probemos que $T(x) \in Z^{\perp}$, es decir, que $$l(T^{j}(T(x))) = 0$$ para $0 \leq j \leq k-1$, o de forma equivalente $l(T^{j}(x)) = 0$ para $1 \leq j \leq k$. Esto es claro para $1 \leq j \leq k-1$, dado que $x \in Z^{\perp}$, y es verdadero para $j = k$ por la suposición de que $T^{k} = 0$.
  3. Por el Teorema 6.22 en el Titu tenemos que $$\dim(W’) = \dim(Z^{\perp}) = \dim(V^{*}) – \dim(Z) = \dim(V) – \dim(Z).$$ Por lo tanto, basta probar que $\dim(Z) = \dim(W)$. Ahora $\dim(W) = k$ por el Problema 1, y $\dim(Z) = k$ por el mismo problema aplicado a $V^{*}$, $S$ (quien es nilpotente de índice $k$) y $l$ (nota que $S^{k-1}(l) = l \circ T^{k-1} \neq 0$ dado que $l(T^{k-1}(v)) \neq 0$). Por lo que $\dim(W’) + \dim(W) = \dim(V)$.
  4. Por la parte 3. basta probar que $W’ \cap W = \{0\}$. Sea $w \in W$ y escribamos $$w = a_{0}v + a_{1}T(v) + \cdots + a_{k-1}T^{k-1}(v)$$ para algunos escalares $a_{0}, \ldots, a_{k-1}$. Supongamos que $w \in W’$, así $w \in Z^{\perp}$, lo cual significa que $l(T^{j}(w)) = 0$ para $0 \leq j \leq k-1$. Tomando $j = k-1$ y usando el hecho de que $T^{m} = 0$ para $m \geq k$ se obtiene que $$a_{0}l(T^{k-1}(v)) = 0.$$ Dado que $l(T^{k-1}(v)) \neq 0$, debemos tener que $a_{0} = 0$. Tomando $j = k-2$ obtenemos de forma similar que $a_{1}l(T^{k-1}(v)) = 0$ y por lo tanto $a_{1} = 0$. Procediendo inductivamente obtendremos que $a_{0} = \cdots = a_{k-1} = 0$ y así $w = 0$. Con esto hemos terminado de resolver el problema.

$\square$

Tarea moral

  1. Sean $T \colon V \to V$ transformaciones lineales en un espacio vectorial de dimensión finita tal que para todo $v \in V$ existe un entero positivo $k$ tal que $T^{k}(v) = 0$. Prueba que $T$ es nilpotente.
  2. Describe las posibles formas canónica de Jordan para una matriz nilpotente $A \in M_{4}(F)$.
  3. Encuentra, por similaridad, todas las matrices nilpotentes de $3 \times 3$ con entradas en los reales.

Más adelante…

Hasta ahora hemos visto cómo funciona Jordan para matrices nilpotentes pero nos gustaría conocer qué más puede pasar, si podemos llevar este tema a un terreno más general y eso es lo que haremos en las siguientes notas.

Entradas relacionadas

  • Ir a Álgebra Lineal II
  • Entrada anterior del curso: Introducción a la forma canónica de Jordan
  • Siguiente entrada del curso: Teorema de formas canónicas de Jordan

Álgebra Lineal II: Introducción a forma canónica de Jordan

Introducción

En esta sección usaremos resultados probados anteriormente para demostrar un resultado hermoso e importante: El teorema de Jordan. Después lo usaremos para clasificar matrices en $M_{n}(\mathbb{C})$ según a qué sean similares.

Trabajaremos sobre cualquier campo $F$ pero tú puedes asumir que $F = \mathbb{R}$ o $\mathbb{C}$ si quieres.

Hemos estudiado varias clases importantes de matrices: diagonales, triangulares superiores, simétricas, ortogonales, etc. Es momento de aprender sobre otro tipo fundamental de matrices y de transformaciones lineales:

Matrices nilpotentes

Definición:

  1. Sea $V$ un espacio vectorial sobre un espacio $F$ y sea $T \colon V \to V$ una transformación lineal. Decimos que $T$ es nilpotente si $T^{k} = 0$ para alguna $k \geq 1$, donde $T^{k} = T \circ T \circ \cdots \circ T$ ($k$ veces). El entero positivo más pequeño $k$ que cumple eso se llama el índice de $T$. Entonces, si $k$ es el índice de $T$, entonces $T^{k} = 0$ pero $T^{k-1} \neq 0$.
  2. Una matriz $A \in M_{n}(F)$ se llama nilpotente si $A^{k} = O_{n}$ para alguna $k \geq 1$. El entero positivo más pequeño $k$ que cumple eso se llama el índice de $A$.

Si $V$ es un espacio vectorial de dimensión finita sobre $F$, $\beta$ es una base de $V$ y $T \colon V \to V$ es una transformación lineal cuya matriz respecto a $\beta$ es $A \in M_{n}(F)$, entonces la matriz de $T^{k}$ con respecto a $\beta$ es $A^{k}$. Se sigue que $T$ es nilpotente si y sólo si $A$ es nilpotente, y en este caso el índice de $T$ es igual al índice de $A$.

En particular, cualquier matriz similar a una matriz nilpotente es nilpotente y tiene el mismo índice. Esto puede probarse rápidamente de la siguiente manera: si $A$ es nilpotente, $P$ es invertible y $B = PAP^{-1}$, procediendo inductivamente podemos ver que

$$B^{k} = PA^{k}P^{-1}$$

para todo $k \geq 1$, así, $B^{k} = O_{n}$ si y sólo si $A^{k} = O_{n}$, estableciendo el enunciado anterior.

Problemas

Problema 1: Sean $T_{1}$, $T_{2}$ dos transformaciones en un espacio vectorial $V$ y supongamos que $T_{1} \circ T_{2} = T_{2} \circ T_{2}$. Si $T_{1}$, $T_{2}$ son nilpotentes, entonces también lo son $T_{1} \circ T_{2}$ y $T_{1} + T_{2}$.

Solución. Supóngase sin pérdida de generalidad que $T^{k_{1}}_{1} = 0$ y $T^{k_{2}}_{2} = 0$ para algunos $k_1$, $k_2 \geq 1$. Entonces, si $k = k_{1} + k_{2}$ se tiene que $T^{k}_{1} = T^{k}_{2} = 0$. Dado que $T_1$ y $T_2$ conmutan, obtenemos que

$$(T_1 \circ T_2)^{k} = T^{k}_{1} \circ T^{k}_{2} = 0$$

y

$$(T_{1} + T_{2})^{2k} = \sum_{i = 0}^{2k} \begin{pmatrix}
2k \\
k
\end{pmatrix} T^{2k-i}_{1} T^{i}_{2}$$

Para cada $0 \leq i \leq k$ tenemos que $T^{2k-i}_{1} = 0$ y para cada $i \in [k + 1, 2k]$ tenemos $T^{i}_{2} = 0$. De donde $T^{2k-i}_{1}T^{i}_{2} = 0$ para todo $0 \leq i \leq 2k$ y así $(T_{1} + T_{2})^{2k} = 0$, es decir, $T_{1} + T_{2}$ es nilpotente.

$\square$

Observación:

  1. Análogamente (en realidad, en consecuencia del problema anterior), la suma o el producto de dos matrices nilpotentes que conmutan es una matriz nilpotente.
  2. El resultado del problema anterior deja de ser cierto si no asumimos que $T_{1}$ y $T_{2}$ conmutan: las matrices $\begin{pmatrix}0 & 1 \\ 0 & 0 \end{pmatrix}$ y $\begin{pmatrix}0 & 0 \\ 1 & 0 \end{pmatrix}$ son nilpotentes, pero su suma no es nilpotente; también las matrices $\begin{pmatrix}0 & 1 \\ 0 & 0 \end{pmatrix}$ y $\begin{pmatrix}1 & -1 \\ 1 & -1 \end{pmatrix}$ son nilpotentes, pero su producto no lo es.
  3. Se sigue del punto anterior que las matrices nilpotentes en $M_{n}(F)$ no forman un subespacio vectorial de $M_{n}(F)$. Un ejercicio desafiante para ti sería probar que el subespacio vectorial de $M_{n}(F)$ generado por las matrices nilpotentes es precisamente el conjunto de las matrices con traza 0.

El resultado que se establece en el siguiente problema es muy importante:

Problema 2:

  1. Sea $T \colon V \to V$ una transformación nilpotente de índice $k$ y sea $v \in V$ un vector tal que $T^{k-1}(v) \neq 0$. Prueba que la familia $(v , T(v), \ldots, T^{k-1}(v))$ es linealmente independiente en $V$.
  2. Deduce que si $V$ es de dimensión finita entonces el índice de cualquier transformación nilpotente en $V$ no excede a $\dim(V)$.
  3. Prueba que si $A \in M_{n}(F)$ es nilpotente, entonces su índice no excede $n$.

Solución.

  1. Supongamos que \begin{equation} \label{eq1} a_{0}v + a_{1}T(v) + \cdots + a_{k-1}T^{k-1}(v) = 0\end{equation} para algunos escalares $a_{0}, \ldots , a_{k-1}$. Aplicando $T^{k-1}$ a esta igualdad y considerando que $T^{j} = 0$ para $j \geq k$ se tiene que \begin{equation} \label{eq2} a_{0}T^{k-1}(v) + 0 + \cdots + 0 = 0\end{equation} y dado que $T^{k-1}(v) \neq 0$, obtenemos que $a_{0} = 0$. Aplicando ahora $T^{k-2}$ a la igualdad \eqref{eq1} se obtiene que $a_{1}T^{k-1}(v) = 0 y así $a_{1} = 0$. Procediendo inductivamente (se te invita cordialmente a hacer la inducción) se tiene que $a_{0} = \cdots = a_{k-1} = 0$.
  2. Supongamos que $T$ es nilpotente en $V$, y que tiene índice $k$. Parte del inciso anterior nos muestra que $V$ contiene una familia linealmente independiente con $k$ elementos, por lo que $\dim(V) \geq k$ y hemos terminado.
  3. Esto se sigue del inciso anterior aplicado a $V = F^{n}$ y la transformación lineal $T \colon V \to V$ tal que $X \mapsto AX$ (usando la Observación precedente al problema, la cual muestra que $A$ y $T$ tienen el mísmo índice).

Tarea moral

  1. Prueba que la única matriz nilpotente diagonalizable es la matriz nula.
  2. Prueba que todos los valores propios de una matriz nilpotente son cero.

Más adelante…

Usando los problemas anteriores, estamos listos para estudiar un tipo fundamental de matriz nilpotente: Bloques de Jordan.

Entradas relacionadas