Archivo de la etiqueta: sistemas de ecuaciones

Cálculo Diferencial e Integral III: Sistemas de ecuaciones lineales

Por Alejandro Antonio Estrada Franco

Introducción

En esta entrada daremos un repaso a la teoría de sistemas de ecuaciones lineales. En caso de que quieras leer una versión detallada, puedes comenzar con la entrada de Sistemas de ecuaciones lineales y sistemas homogéneos asociados que forma parte del curso Álgebra Lineal I aquí en el blog.

Nuestra motivación para este repaso comienza como sigue. Supongamos que $T:\mathbb{R}^n \rightarrow \mathbb{R}^m$ es una transformación lineal. Tomemos un vector $\bar{w}\in \mathbb{R}^m$. Es muy natural preguntarse qué vectores $\bar{v}$ hay en $\mathbb{R}^n$ tales que $T(\bar{v})=\bar{w}$, en otras palabras, preguntarse cuál es la preimagen de $\bar{w}$.

Sistemas de ecuaciones lineales

Continuando con la situación planteada en la introducción, si $A$ es la representación matricial de $T$ en una cierta base $\beta$, podemos contestar la pregunta planteada resolviendo la ecuación matricial $AX=B$ donde $X$, $B$ son las representaciones de los vectores $\bar{v}$, $\bar{w}$ en la base $\beta$, respectivamente. Una vez llegado a este punto, la ecuación $AX=B$ nos conduce a que se deban cumplir varias igualdades. Veamos cuáles son en términos de las entradas de $A$, $X$ y $Y$. Pensemos que $$A=\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn}\end{pmatrix}.$$

Pensemos también que $X$ es el vector columna con entradas (incógnitas) $x_1,\ldots,x_n$, y que $B$ es el vector columna con entradas $b_1,\ldots,b_m$.

Al realizar las operaciones, la igualdad $AX=B$ se traduce en que se deban cumplir todas las siguientes ecuaciones simultáneamente:

\begin{equation}\left\{
\begin{matrix} a_{11}x_{1} + & \dots & + a_{1n}x_{n} & = b_{1} \\
\vdots & \ddots & \vdots & \vdots \\
a_{m1}x_{1} + & \dots & + a_{mn}x_{n} & = b_{m}
\end{matrix}\right.
\label{eq:sistema}
\end{equation}

Definición. Un sistema de $m$ ecuaciones lineales con $n$ incógnitas es un sistema de ecuaciones de la forma \eqref{eq:sistema}. Como discutimos arriba, al sistema también lo podemos escribir de la forma $AX=B$. A la matriz $A$ le llamamos la matriz de coeficientes. Al vector $X$ le llamamos el vector de incógnitas.

Resolver el sistema \eqref{eq:sistema} se refiere a determinar todos los posibles valores que pueden tomar las incógnitas $x_1,\ldots,x_n$ de manera que se cumplan todas las ecuaciones dadas.

Definición. Diremos que dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.

Un resultado importante que relaciona a los sistemas de ecuaciones con las operaciones elementales que discutimos con anterioridad es el siguiente.

Proposición. Sea $A\in M_{m,n}(\mathbb{R})$ y $e$ una operación elemental cualquiera (intercambio de renglones, reescalamiento de renglón, o transvección). Entonces el sistema de ecuaciones $AX=B$ es equivalente al sistema de ecuaciones $e(A)X=e(B)$.

En otras palabras, si comenzamos con un sistema de ecuaciones $AX=B$ y aplicamos la misma operación elemental a $A$ y a $B$, entonces obtenemos un sistema equivalente. Veamos como ejemplo un esbozo de la demostración en el caso del reescalamiento de vectores. Los detalles y las demostraciones para las otras operaciones elementales quedan como ejercicio.

Demostración. Consideremos el rescalamiento $e$ de la $j$-ésima columna de una matriz por un factor $r$. Veremos que $e(A)X=e(B)$. Tomemos

\[ A=\begin{pmatrix} a_{11} & \dots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & \dots & a_{mn} \end{pmatrix}, B= \begin{pmatrix} b_{1} \\ \vdots \\ b_{m} \end{pmatrix}, X=\begin{pmatrix} x_{1} \\ \vdots \\ x_{n} \end{pmatrix} \]

Entonces la ecuación matricial $AX=B$ nos produce el siguiente sistema de ecuaciones lineales:
\[ \left\{\begin{matrix} a_{11}x_{1}+ & \dots & +a_{1n}x_{n}=b_{1} \\ \vdots & \ddots & \vdots \\ a_{m1}x_{1}+ & \dots & +a_{mn}x_{n}=b_{m}. \end{matrix} \right.\]

Tomemos una solución del sistema: \[ X’= \begin{pmatrix} x_{1}’\\ \vdots \\ x_{n}’ \end{pmatrix} \]

La ecuación matricial $e(A)X=e(B)$ nos produce el siguiente sistema de ecuaciones: \[ \left\{\begin{matrix} a_{11}x_{1}+ & \dots & +a_{1n}x_{n}=b_{1} \\ \vdots & \ddots & \vdots \\ ra_{j1}x_{1}+ & \dots & +ra_{jn}x_{n}=rb_{j} \\ \vdots & \ddots \ & \vdots \\ a_{m1}x_{1}+ & \dots & +a_{mn}x_{n}=b_{m}. \end{matrix}\right. \]

Ahora, de cada una de las $n$ ecuaciones, excepto la $j$-ésima, sabemos que se solucionan al sustituir $x_{1}’, \dots ,x_{m}’$, resta revisar la $j$-ésima ecuación. Lo que sí sabemos de que $X’$ sea solución es que $$a_{j1}x_{1}’+ \dots +a_{jn}x_{n}’=b_{j}.$$ Así, al multiplicar por $r$ de ambos lados $ra_{j1}x_{1}’+ \dots + ra_{jn}x_{n}’=rb_{j}$. Así obtenemos que $X’$ satisface también a $e(A)X=e(B)$. Inversamente si una solución satisface al sistema $e(A)X=e(B)$ también lo hace para $AX=Y$. Te recomendamos revisar los detalles por tu cuenta.

$\square$

Soluciones a sistemas de ecuaciones lineales

La teoría de sistemas de ecuaciones lineales nos dice que tenemos tres posibles situaciones que se pueden presentar cuando estamos resolviendo un sistema de ecuaciones lineales en $\mathbb{R}$: no hay solución, hay una única solución, o tenemos infinidad de soluciones. Por ejemplo, se puede descartar que haya exactamente dos soluciones. En cuanto sucede esto, la cantidad de soluciones se dispara a una infinidad

Haremos una discusión de cuándo se presenta cada caso. De acuerdo con la sección anterior, cualquier operación elemental pasa un sistema de ecuaciones a uno equivalente. Además, de acuerdo con el teorema de reducción gaussiana, cualquier matriz puede ser llevada a la forma escalonada reducida. Así, al aplicar tanto a $A$ como a $B$ las operaciones elementales que llevan $A$ a su forma escalonada reducida $A_{red}$, llegamos a un sistema equivalente $A_{red}X=C$. El comportamiento del conjunto solución de $AX=B$ se puede leer en este otro sistema equivalente como sigue:

  1. Sin solución. El sistema $AX=B$ no tiene solución si en $A_{red}X=C$ hay una igualdad lineal del estilo $0x_{j1}+\dots +0x_{jn}=c_j$, con $c_j\neq 0$. En otras palabras, si en $A_{red}$ hay una fila $j$ de ceros y la entrada $c_j$ es distinta de cero.
  2. Infinidad de soluciones. El sistema $AX=B$ tiene una infinidad de soluciones si tiene solución, y además hay por lo menos una columna $k$ de $A_{red}$ en la que no haya pivote de ninguna fila. Esta columna $k$ corresponde a una variable libre $x_k$ que puede tomar cualquier valor, y el sistema tiene soluciones sin importar el valor que se le de a esta variable.
  3. Solución única. Un sistema de ecuaciones con solución, pero sin variables libres tiene una única solución. Esto se puede leer en la matriz $A_{red}$, pues se necesita que todas las columnas tengan un pivote de alguna fila.

Pensemos un poco a qué se deben los comportamientos anteriores. Pensemos en que ya llegamos a $A_{red}X=C$. Iremos determinando los posibles valores de las entradas de $X$ de abajo hacia arriba, es decir, en el orden $x_n, x_{n-1},\ldots, x_1$. Si $x_k$ es variable libre, pongamos el valor que sea. Si $x_k$ tiene el pivote de, digamos, la fila $j$, entonces la ecuación $j$ nos dice \[0+\dots + 0 + x_{k}+\dots +a_{jn}x_{n}=b_{j}.\] Esto nos diría que \[x_{k}=b_{j}-a_{j(k+1)}x_{k+1}-\dots -a_{jn}x_{n},\] así que hemos logrado expresar a $x_k$ en términos de las variables ya determinadas $x_{k+1},\dots x_{n}$.

Matrices equivalentes por filas

Definición. Consideremos $I\in M_{m}(\mathbb{R})$ la matriz identidad de tamaño $m$. Una matriz elemental será una matriz que se obtenga de la identidad tras aplicar una operación elemental.

Definición. Sean $A, B\in M_{m,n}(\mathbb{R})$. Diremos que $A$ es equivalente por filas a $B$ si $A$ se puede obtener al aplicar una sucesión finita de operaciones elementales a $B$.

Se puede demostrar que «ser equivalente por filas» es una relación de equivalencia en $M_{m,n}(\mathbb{R})$. Así mismo, se puede demostrar en general que si $e$ es una operación elemental, entonces $e(A)$ es exactamente la misma matriz que multiplicar la matriz elemental $e(I)$ por la izquierda por $A$, es decir, $e(A)=e(I)A$. Como tarea moral, convéncete de ambas afirmaciones.

Para realizar la demostración, quizás quieras auxiliarte de la siguiente observación. Tomemos una matriz $B\in M_{m,n}(\mathbb{R})$ y pensemos en cada columna de $B$ como un vector columna:

\[ B_{1} =\begin{pmatrix} B_{11} \\ \vdots \\ B_{m1} \end{pmatrix} \hspace{1cm} \cdots \hspace{1cm} B_{n} =\begin{pmatrix} B_{1n} \\ \vdots \\ B_{mn} \end{pmatrix}. \]

Tomemos ahora una matriz $A\in M_{p,m}$. Tras realizar las operaciones, se puede verificar que la matriz $AB$ tiene como columnas a los vectores columna $AB_1, AB_2,\ldots,AB_n$.

El siguiente teorema nos da una manera alternativa de saber si dos matrices son equivalentes por filas.

Teorema. Sean $A, B\in M_{m\times n}(\mathbb{R})$. Se tiene que $B$ es equivalente por filas a $A$ si y sólo si $B=PA$, donde $P$ es una matriz en $M_m(\mathbb{R})$ obtenida como producto de matrices elementales.

Demostración. Por la discusión anterior, si $B$ es equivalente por filas a $A$, $A$ resulta de la aplicación de una sucesión finita de operaciones elementales a $B$ o, lo que es lo mismo, resulta de una aplicación finita de productos de matrices elementales por la izquierda. Por otro lado, si $B=PA$, con $P=E_{k}\cdot … \cdot E_{1}$ producto de matrices elementales, tenemos que $E_{1}A$ es equivalente por filas a $A$, que $E_{2}(E_{1}A)$ es equivalente por filas a $E_{1}A$, que $E_{3}(E_2(E_1(A)))$ equivalente por filas a $E_2(E_1(A))$, y así sucesivamente. Usando que ser equivalente por filas es transitivo (por ser relación de equivalencia), concluimos que $B$ es equivalente por filas a $A$.

$\square$

¿Qué sucede con los determinantes y las operaciones elementales? La siguiente proposición lo resume.

Proposición. Sea $A$ una matriz en $M_n(\mathbb{R})$ con determinante $\det(A)$.

  • Si se intercambian dos filas, el determinante se vuelve $-\det(A)$.
  • Si se reescala una fila por un real $r\neq 0$, el determinante se vuelve $r\det(A)$.
  • Si se hace una transvección, el determinante no cambia.

Observa que, en particular, si $\det(A)\neq 0$, entonces sigue siendo distinto de cero al aplicar operaciones elementales.

Matrices invertibles y sistemas de ecuaciones lineales

En muchas ocasiones nos encontramos en cálculo de varias variables con funciones que van de $\mathbb{R}^n$ a sí mismo. Si la función que estamos estudiando es una transformación lineal, entonces corresponde a una matriz cuadrada en $M_n(\mathbb{R})$. En estos casos hay otro concepto fundamental que ayuda, entre otras cosas, para resolver sistemas de ecuaciones lineales: el de matriz invertible. Veremos a continuación que esto interrelaciona a las matrices, las matrices elementales, los sistemas de ecuaciones lineales y a los determinantes.

Definición. Una matriz $A$ cuadrada es invertible por la izquierda (resp. derecha) si existe una matriz $B$ tal que $BA=I$ (resp. $AB=I$). A $B$ le llamamos la inversa izquierda (resp. derecha) de $A$. A una matriz invertible por la derecha y por la izquierda, donde la inversa izquierda sea igual a la derecha, simplemente se le llama invertible.

Se puede demostrar que, cuando existe, la matriz izquierda (o derecha) es única. Esto es sencillo. Se puede demostrar también que si $B$ es inversa izquierda y $B’$ es inversa derecha, entonces $B=B’$, lo cual no es tan sencillo. Además, se cumplen las siguientes propiedades de matrices invertibles.

Proposición. Sean $A, B\in M_n(\mathbb{R})$

  1. Si $A$ es invertible, también lo es $A^{-1}$ y $(A^{-1})^{-1}=A$.
  2. Si $A$ y $B$ son invertibles, también lo es $AB$ y $(AB)^{-1}=B^{-1} A^{-1}$.

Demostración. El inciso 1 es claro; para el inciso 2 tenemos \[ (AB)(B^{-1} A^{-1})=A(BB^{-1})A^{-1}=A(I)A^{-1}=AA^{-1}=I\] \[=B^{-1}(I)B=B^{-1}(A^{-1}A)B=(B^{-1}A^{-1})(AB) \].

$\square$

Veamos ahora cómo se conecta la noción de invertibilidad con la de matrices elementales. Como parte de la tarea moral, cerciórate de que cualquiera de las tres operaciones elementales para matrices son invertibles. Es decir, para cada operación elemental, piensa en otra operación elemental que aplicada sucesivamente a la primera nos de la matriz original. Con más detalle; si denotamos con $e$ a una operación elemental (puede ser cualquiera) denotamos como $e^{-1}$ a la segunda a la cual llamaremos inversa de $e$; y estas cumplen $e(e^{-1})(A)=A=e^{-1}(e(A))$ para cualquier matriz $A$ a la que se le pueda aplicar $e$.

Proposición. Toda matriz elemental es invertible.

Demostración. Supongamos que $E$ una matriz elemental correspondiente a la operación unitaria $e$. Si $e^{-1}$ es la operación inversa de $e$ y $E_{1}=e^{-1}(I)$ tenemos: \[ EE_{1}=e(E_{1})=e(e^{-1}(I))=I,\] y así mismo tenemos \[E_{1}E=e_{1}(E)=e_{1}(e(I))=I.\] De esta manera $E$ es invertible y su inversa es $E_{1}$.

$\square$

El resultado anterior habla sólo de la invertibilidad de matrices elementales, pero podemos usar a estas para caracterizar a las matrices invertibles.

Teorema. Sea $A\in M_n(\mathbb{R})$, los siguientes enunciados son equivalentes:

  1. $A$ es invertible
  2. $A$ es equivalente por filas a la matriz identidad
  3. $A$ es producto de matrices elementales

Demostración. $1\Rightarrow 2)$. Supongamos que $A$ invertible, y usemos el teorema de reducción Gaussiana para encontrar la forma escalonada reducida $A_{red}$ de $A$ mediante una sucesión de operaciones elementales. Por el teorema de la sección de matrices equivalentes por filas, tenemos que $R=E_{k}\cdots E_{1}A$, donde $E_{k},\dots ,E_{1}$ son matrices elementales. Cada $E_{i}$ es invertible, y $A$ es invertible. Por la proposición anterior, tenemos entonces que $A_{red}$ es invertible. Se puede mostrar que entonces ninguna fila de $A_{red}$ puede consistir de puros ceros (verifícalo de tarea moral), de modo que toda fila de $A$ tiene pivote (que es igual a $1$). Como hay $n$ filas y $n$ columnas, entonces hay exactamente un $1$ en cada fila y en cada columna. A $A_{red}$ no le queda otra opción que ser la matriz identidad.

$2\Rightarrow 3)$. Si $A$ es equivalente por filas a $I$, entonces hay operaciones elementales que la llevan a $I$. Como ser equivalente por filas es relación de equivalencia, existen entonces operaciones elementales que llevan $I$ a $A$. Pero entonces justo $A$ se obtiene de $I$ tras aplicar un producto (por la izquierda) de matrices elementales. Por supuesto, en este producto podemos ignorar a $I$ (o pensarla como un reescalamiento por $1$).

$3\Rightarrow 1)$. Finalmente como cada matriz elemental es invertible y todo producto de matrices invertibles es invertible tenemos que 3 implica 1.

$\square$

Ya que entendemos mejor la invertibilidad, la podemos conectar también con la existencia y unicidad de soluciones en sistemas de ecuaciones lineales.

Teorema. Sea $A\in M_{n}(\mathbb{R})$; las siguientes afirmaciones son equivalentes:

  1. $A$ es invertible.
  2. Para todo $Y$, el sistema $AX=Y$ tiene exactamente una solución $X$.
  3. Para todo $Y$, el sistema $AX=Y$ tiene al menos una solución $X$.

Demostración. $1\Rightarrow 2)$. Supongamos $A$ invertible. Tenemos que $X=A^{-1}Y$ es solución pues $AX=A(A^{-1})Y=IY=Y$. Veamos que la solución es única. Si $X$ y $X’$ son soluciones, tendríamos $AX=Y=AX’$. Multiplicando por $A^{-1}$ por la izquierda en ambos lados de la igualdad obtenemos $X=X’$.

$2\Rightarrow 3)$. Es claro pues la única solución es, en particular, una solución.

$3\Rightarrow 1)$. Tomemos los vectores canónicos $\hat{e}_1,\hat{e}_2,\ldots,\hat{e}_n$ de $\mathbb{R}^n$. Por $(3)$ tenemos que todos los sistemas $AX=\hat{e}_1, \ldots, AX=\hat{e}_n$ tienen solución. Tomemos soluciones $B_1,\ldots,B_n$ para cada uno de ellos y tomemos $B$ como la matriz con columnas $B_1,\ldots, B_n$. Por el truco de hacer el producto de matrices por columnas, se tiene que las columnas de $AB$ son $AB_1=\hat{e}_1,\ldots, AB_n=\hat{e}_n$, es decir, $AB$ es la matriz identidad.

$\square$

En la demostración anterior falta un detalle importante. ¿Puedes encontrar cuál es? Está en la demostración $3\Rightarrow 1)$. Si quieres saber cuál es y cómo arreglarlo, puedes consultar la entrada Mariposa de 7 equivalencias de matrices invertibles.

Terminamos la teoría de esta entrada con un resultado que conecta invertibilidad y determinantes.

Proposición. Sea $A\in M_{n}(\mathbb{R})$. $A$ es invertible, si y sólo si, $det(A)\neq 0$.

Demostración. Si $A$ es invertible, entonces se cumple la ecuación $I=AA^{-1}$. Aplicando determinante de ambos lados y usando que es multiplicativo: $$1=det(I)=det(AA^{-1})=det(A)det(A^{-1}).$$ Como al lado izquierdo tenemos un $1$, entonces $\det(A)\neq 0$.

Si $det(A)\neq 0$, llevemos $A$ a su forma escalonada reducida $A_{red}$. Por la observación hecha al final de la sección de matrices elementales, se tiene que $\det(A_{red})\neq 0$. Así, en cada fila tenemos por lo menos un elemento no cero. Como argumentamos anteriormente, esto implica $A_{red}=I$. Como $A$ es equivalente por filas a $I$, entonces es invertible.

$\square$

Mas adelante…

Continuaremos estableciendo herramientas de Álgebra lineal que usaremos en el desarrollo de los temas subsiguientes. En la siguiente entrada hablaremos de eigenvalores y eigenvectores. Con ellos, expondremos un método que proporciona una representación matricial sencilla simple para cierto tipos de transformaciones lineales.

Tarea moral

  1. Demuestra que la relación «es equivalente por filas» es una relación de equivalencia en $M_{m,n}(\mathbb{R})$.
  2. Sea $A\in M_{m,n}\mathbb{R}$. Verifica que para cualquier operación elemental $e$ de cualquiera de los tres tipos se cumple que $e(A)X=e(B)$ es equivalente a $AX=B$. Deberás ver que cualquier solución de uno es solución del otro y viceversa.
  3. Demuestra que si $A$ es invertible, también lo es $A^{-1}$ y que $(A^{-1})^{-1}=A$. Verifica la invertibilidad izquierda y derecha.
  4. Demuestra que cualquiera de las tres operaciones elementales para matrices son invertibles. Es decir, para cada operación elemental, hay otra que al aplicarla sucesivamente nos regresa a la matriz original.
  5. Prueba que una matriz invertible tiene por lo menos un elemento distinto de cero en cada fila, y por lo menos un elemento distinto de cero en cada columna.

Entradas relacionadas

Álgebra Lineal II: Unicidad de la forma de Jordan para nilpotentes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan para matrices nilpotentes. Demostramos una parte: la existencia de la forma canónica de Jordan. Para ello, nos enfocamos en el teorema en su versión en términos de transformaciones lineales. En esta entrada nos enfocaremos en demostrar la unicidad de la forma canónica de Jordan. Curiosamente, en este caso será un poco más cómodo trabajar con la forma matricial del teorema. Para recordar lo que queremos probar, volvemos a poner el enunciado del teorema a continuación. Lo que buscamos es ver que los enteros $k_1,\ldots, k_d$ que menciona el teorema son únicos.

Teorema. Sea $A$ una matriz nilpotente en $M_n(F)$. Entonces existen únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} y para los cuales $A$ es similar a la siguiente matriz de bloques: $$\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

Nuestra estrategia para mostrar la unicidad será el estudio del rango de las potencias de $A$. Si $A$ es similar una matriz en forma canónica $J$, entonces existe $P$ invertible tal que $A=P^{-1}JP$, de donde se puede mostrar indutivamente que $A^k=P^{-1}J^kP$, mostrando que $A^k$ y $J^k$ son similares. Además, sabemos por teoría anterior que matrices similares tienen el mismo rango. De modo que si $A$ es similar a $J$ entonces todas las potencias de $A$ tienen el mismo rango que todas las potencias de $J$. Con esta idea en mente estudiaremos cómo es el rango de matrices de bloques de Jordan de eigenvalor cero.

Rango de potencias de bloques de Jordan

Claramente el rango del bloque de Jordan $J_{0,n}$ es $n-1$, pues ya está en forma escalonada reducida y tiene $n-1$ vectores distintos de cero. El siguiente resultado generaliza esta observación.

Proposición. Sea $n$ un entero positivo, $F$ un campo y $J_{0,n}$ el bloque de Jordan de eigenvalor $0$ y tamaño $n$ en $M_n(F)$. Para $k=1,\ldots,n$ se tiene que el rango de $J_{0,n}^k$ es igual a $n-k$. Para valores de $k$ más grandes, el rango es igual a cero.

Demostración. Si $e_1,\ldots,e_n$ es la base canónica de $F^n$, tenemos que $J_{0,n}e_i=e_{i-1}$ para $i=2,\ldots,n$ y $J_{0,n}e_1=0$. De manera intuitiva, la multiplicación matricial por $J_{0,n}$ va «desplazando los elementos de la base $e_1,\ldots,e_n$ a la izquierda, hasta sacarlos». De este modo, $J_{0,n}^k$ para $k=1,\ldots,n$ hace lo siguiente:

$$J_{0,n}^k e_i=\begin{cases} 0 & \text{para $k\geq i$}\\ e_{i-k} & \text{para $k\leq i-1$.}\end{cases}$$

Así, $J_{0,n}^k$ manda a la base $e_1,\ldots,e_n$ a los vectores $e_1,\ldots,e_{n-k}$ y a $k$ copias del vector cero. Como los primeros son $n-k$ vectores linealmente independientes, obtenemos que el rango de $J_{0,n}^k$ es $n-k$.

Para valores de $k$ más grandes la potencia se hace la matriz cero, así que su rango es cero.

$\square$

Rango de potencias de matrices de bloques de Jordan

¿Qué sucede si ahora estudiamos el rango de las potencias de una matriz de bloques de Jordan? Consideremos, por ejemplo, la siguiente matriz, en donde $k_1,\ldots,k_d$ son enteros positivos de suma $n$ y con $k_1\leq \ldots \leq k_d$:

$$J=\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

Por un lado, es sencillo elevar esta matriz a potencias, pues simplemente los bloques se elevan a las potencias correspondientes. En símbolos:

$$J^r=\begin{pmatrix} J_{0,k_1}^r& 0 & \cdots & 0 \\ 0 & J_{0,k_2}^r& \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}^r\end{pmatrix}.$$

¿Cuál es el rango de esta potencia? Nos conviene cambiar un poco de notación. En vez de considerar a los $k_i$ por separado, los agruparemos de acuerdo a su valor, que puede ir de $1$ a $n$. Así, para cada $j=1,\ldots,n$ definimos $m_j$ como la cantidad de valores $k_i$ iguales a $j$. Bajo esta notación, la igualdad $k_1+\ldots+k_d=n$ se puede reescribir como $$m_1+2m_2+3m_3+\ldots+nm_n=n.$$

Una primera observación es que el rango de $J$ es simplemente la suma de los rangos de cada una de las $J_{0,k_i}$. Cada una de éstas contribuye con rango $k_i-1$. Así, en términos de las $m_j$ tenemos lo siguiente:

\begin{align*}
\text{rango}(J)&=\sum_{i=1}^d (k_i-1)\\
&=\sum_{j=1}^n (j-1) m_j \\
&=0\cdot m_1 + 1\cdot m_2 + 2 \cdot m_3 + \ldots + (n-1) \cdot m_n.
\end{align*}

De manera similar,

\begin{align*}
\text{rango}(J^r)&=\sum_{i=1}^d \text{rango}(J_{0,k_i}^r)\\
&=\sum_{j=1}^n m_j \text{rango}(J_{0,j}^r).
\end{align*}

El término $\text{rango}(J_{0,j}^r)$ lo podemos calcular con la proposición de la sección anterior, cuidando la restricción entre el tamaño y las potencias que queremos. De aquí y de la restricción original para la las $m_j$ salen todas las siguientes igualdades:

\begin{align*}
n&= 1\cdot m_1 + 2\cdot m_2 + 3 \cdot m_3 + \ldots + n \cdot m_n\\
\text{rango}(J)&=0\cdot m_1 + 1\cdot m_2 + 2 \cdot m_3 + \ldots + (n-1) \cdot m_n\\
\text{rango}(J^2)&= 0 \cdot m_1 + 0 \cdot m_2 + 1 \cdot m_3 + \ldots + (n-2)\cdot m_n\\
\text{rango}(J^3)&= 0 \cdot m_1 + 0 \cdot m_2 + 0 \cdot m_3 + \ldots + (n-3)\cdot m_n\\
&\vdots\\
\text{rango}(J^{n-1})&= 0\cdot m_1 + 0 \cdot m_2 + 0 \cdot m_3 + \ldots + 1 \cdot m_n.
\end{align*}

A partir de aquí el rango de $J^n$ es $0$. Esto nos da una manera de entender con mucha precisión el rango de cualquier potencia de una matriz diagonal por bloques hecha con bloques de Jordan.

Unicidad de la forma canónica de Jordan

Estamos listos para justificar la unicidad de la forma canónica de Jordan. Una matriz diagonal por bloques hecha por bloques de Jordan queda totalmente determinada por los valores de $m_j$ de la sección anterior. Supongamos que $A$ tiene como forma canónica de Jordan tanto a una matriz $J$ con valores $m_j$, como a otra matriz $J’$ con valores $m_j’$.

Como dos matrices similares cumplen que sus potencias son todas del mismo rango, entonces para cualquier $r$ de $1$ a $n-1$ se cumple que $$\text{rango}(J^r)=\text{rango}(A^r)=\text{rango}(J’^r).$$ Así, tanto $(m_1,\ldots,m_n)$ como $({m_1}’,\ldots,{m_n}’)$ son soluciones al siguiente sistema de ecuaciones en variables $x_1,\ldots,x_n$.

\begin{align*}
n&= 1\cdot x_1 + 2\cdot x_2 + 3 \cdot x_3 + \ldots + n \cdot x_n\\
\text{rango}(A)&=0\cdot x_1 + 1\cdot x_2 + 2 \cdot x_3 + \ldots + (n-1) \cdot x_n\\
\text{rango}(A^2)&= 0 \cdot x_1 + 0 \cdot x_2 + 1 \cdot x_3 + \ldots + (n-2)\cdot x_n\\
\text{rango}(A^3)&= 0 \cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + (n-3)\cdot x_n\\
&\vdots\\
\text{rango}(A^{n-1})&= 0\cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + 1 \cdot x_n.
\end{align*}

Pero este es un sistema de $n$ ecuaciones en $n$ variables y con matriz asociada de determinante $1$, así que su solución es única. Esto muestra que $(m_1,\ldots,m_n)=({m_1}’,\ldots,{m_n}’)$. Entonces, en $J$ y $J’$ aparecen la misma cantidad de bloques de cada tamaño. Como además los bloques van de tamaño menor a mayor tanto en $J$ como en $J’$, concluimos que $J=J’$.

Como consecuencia de toda esta discusión, obtenemos de hecho lo siguiente.

Corolario. Dos matrices nilpotentes son semejantes si y sólo si tienen la misma forma canónica de Jordan. Distintas formas canónicas de Jordan dan distintas clases de semejanza.

Una receta para encontrar la forma canónica de Jordan de nilpotentes

La demostración anterior no sólo demuestra la unicidad de la forma canónica de Jordan. Además, nos dice exactamente cómo obtenerla. Para ello:

  1. Calculamos todas las potencias de $A$ hasta $n-1$.
  2. Usando reducción gaussiana (o de otro modo), calculamos el rango de cada una de estas potencias.
  3. Resolvemos el sistema de ecuaciones en variables $x_j$ de la sección anterior.
  4. La forma canónica de Jordan de $A$ tiene $x_j$ bloques de tamaño $j$, que debemos colocar en orden creciente de tamaño.

Ejemplo. Consideremos la siguiente matriz en $M_7(\mathbb{R})$: $$C=\begin{pmatrix}-27 & 266 & 1 & -37 & 135 & -125 & 53\\217 & -1563 & 118 & 33 & -1251 & 1020 & 361\\236 & -1784 & 188 & 16 & -1512 & 1234 & 585\\11 & -10 & -25 & 12 & 28 & -29 & -80\\-159 & 1133 & -114 & -98 & 878 & -690 & -232\\197 & -1409 & 88 & -19 & -1151 & 952 & 348\\-230 & 1605 & -179 & -100 & 1316 & -1031 & -440\end{pmatrix}$$

Sus números son muy complicados, sin embargo, nos podemos auxiliar de herramientas computacionales para encontrar sus potencias. Soprendentemente esta es una matriz nilpotente de índice $3$ pues:

$$C^2=\begin{pmatrix}0 & -10209 & -3403 & -6806 & -6806 & 10209 & 0\\0 & 14691 & 4897 & 9794 & 9794 & -14691 & 0\\0 & 2739 & 913 & 1826 & 1826 & -2739 & 0\\0 & 7221 & 2407 & 4814 & 4814 & -7221 & 0\\0 & -14193 & -4731 & -9462 & -9462 & 14193 & 0\\0 & 10956 & 3652 & 7304 & 7304 & -10956 & 0\\0 & -11952 & -3984 & -7968 & -7968 & 11952 & 0\end{pmatrix}$$

y

$$C^3=\begin{pmatrix}0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\end{pmatrix}.$$

Usando reducción gaussiana, o herramientas computacionales, obtenemos que el rango de $C$ es $4$ y que el rango de $C^2$ es $2$. A partir de $k\geq 3$ obtenemos que $\text{rango}(C^k)=\text{rango}(O_7)=0$. Si queremos encontrar la forma canónica de Jordan de $C$, necesitamos entonces resolver el siguiente sistema de ecuaciones, que nos dirá cuántos bloques $x_j$ de tamaño $j$ hay:

\begin{align*}
7&= x_1+2x_2+3x_3+4x_4+5x_5+6x_6+7x_7\\
4&=x_2 + 2x_3 + 3x_4+4x_5+5x_6+6x_7\\
2&= x_3 + 2x_4+3x_5+4x_6+5x_7 \\
0&= x_4+2x_5+3x_6+4x_7\\
0 &= x_5+2x_6+3x_7\\
0&= x_6+2x_7\\
0&= x_7
\end{align*}

Para resolverlo lo mejor es proceder «de abajo hacia arriba». Las últimas cuatro ecuaciones nos dicen que $x_7=x_6=x_5=x_4=0$. Así, el sistema queda un poco más simple, como:

\begin{align*}
7&= x_1+2x_2+3x_3\\
4&=x_2 + 2x_3\\
2&= x_3.
\end{align*}

De la última igualdad, tenemos $x_3=2$, lo que nos dice que la forma canónica de Jordan tendría dos bloques de tamaño $3$. Sustituyendo en la penúltima igualdad obtenemos que $4=x_2+4$, de donde $x_2=0$. Así, no tendremos ningún bloque de tamaño $2$. Finalmente, sustituyendo ambos valores en la primera igualdad obtenemos que $7=x_1+0+6$. De aquí obtenemos $x_1=1$, así que la forma canónica de Jordan tendrá un bloque de tamaño $1$. En resumen, la forma canónica de Jordan es la matriz $$\begin{pmatrix} J_{0,1} & 0 & 0 \\ 0 & J_{0,3} & 0 \\ 0 & 0 & J_{0,3}\end{pmatrix}.$$ Explícitamente, ésta es la siguiente matriz:

$$\begin{pmatrix} 0& 0 & 0 & 0 & 0 & 0 & 0 \\ 0& 0 & 1 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 1 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 1 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \end{pmatrix}.$$

Para verla un poco más «como de bloques» la podemos reescribir de la siguiente manera:

$$\left(\begin{array}{c|ccc|ccc} 0& 0 & 0 & 0 & 0 & 0 & 0 \\ \hline 0& 0 & 1 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 1 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \\ \hline 0& 0 & 0 & 0 & 0 & 1 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \end{array}\right).$$

$\square$

Más adelante…

Hemos demostrado la existencia y unicidad de la forma canónica de Jordan para matrices nilpotentes. Este es un resultado interesante por sí mismo. Sin embargo, también es un paso intermedio para un resultado más general. En las siguientes entradas hablaremos de una versión más general del teorema de Jordan, para matrices tales que su polinomio característico se descomponga totalmente en el campo en el que estemos trabajando.

Tarea moral

  1. Considera la siguiente matriz: $$M=\begin{pmatrix}11 & 11 & -11 & -11\\-1 & -1 & 1 & 1\\3 & 3 & -3 & -3\\7 & 7 & -7 & -7\end{pmatrix}.$$
    1. Muestra que $M$ es una matriz nilpotente y determina su índice.
    2. ¿Cuál es la forma canónica de Jordan de $M$?
  2. Describe las posibles formas canónicas de Jordan para una matriz nilpotente $A \in M_{5}(F)$ de índice $2$.
  3. Describe las posibles formas canónicas de Jordan para una matriz nilpotente $A \in M_{7}(F)$ de rango $5$.
  4. Encuentra de manera explícita la inversa de la siguiente matriz en $M_n(\mathbb{R})$ y usa esto para dar de manera explícita la solución al sistema de ecuación en las variables $x_i$ que aparece en la entrada: $$\begin{pmatrix} 1 & 2 & 3 & \cdots & n-1 & n \\ 0 & 1 & 2 & \cdots & n-2 & n-1 \\ 0 & 0 & 1 & \cdots & n-3 & n-2 \\ & \vdots & & \ddots & & \vdots\\ 0 & 0 & 0 & \cdots & 1 & 2 \\ 0 & 0 & 0 & \cdots & 0 & 1\end{pmatrix}.$$
  5. Sea $A$ una matriz nilpotente en $M_n(\mathbb{R})$. Muestra que las matrices $A$ y $5A$ son similares entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Ecuaciones Diferenciales I – Videos: Teorema de existencia y unicidad para sistemas de ecuaciones de primer orden

Por Eduardo Vera Rosales

Introducción

Vamos a concluir la tercera unidad del curso revisando el teorema de existencia y unicidad para sistemas de ecuaciones de primer orden, en su forma general, es decir, para sistemas lineales y no lineales que satisfagan las hipótesis del teorema. Hasta el momento únicamente demostramos el teorema de existencia y unicidad para sistemas lineales con coeficientes constantes, pero es importante demostrar la versión general al igual que hicimos para las ecuaciones de primer orden.

Lo primero que veremos es que un sistema de ecuaciones de la forma $$\begin{alignedat}{4} \dot{x}_{1} &= F_{1}(t,x_{1},x_{2},…,x_{n}) \\ \dot{x}_{2} &= F_{2}(t,x_{1},x_{2},…,x_{n}) \\ & \; \; \vdots \notag \\ \dot{x}_{n} &= F_{n}(t,x_{1},x_{2},…,x_{n}) \end{alignedat}$$ se puede escribir en forma abreviada como sigue: $$\dot{\textbf{X}}(t)=\textbf{F}(t,\textbf{X}(t))$$ donde $\textbf{F}$ es el vector conformado por las funciones $F_{i}$ del sistema, con $i \in \{1,…,n\}$. Si además agregamos la condición inicial $\textbf{X}(t_{0})=\textbf{Y}$, entonces podemos ver que el sistema se reduce a una expresión muy similar al problema de condición inicial $$\frac{dy}{dt}=f(t,y(t)) \,\,\,\,\, ; \,\,\,\,\, y(t_{0})=y_{0}$$ salvo que ahora $\textbf{X}$ es una función que toma valores en $\mathbb{R}^{n}$, y $\textbf{F}$ es una función de $\mathbb{R}^{n+1}$ a $\mathbb{R}^{n}$.

Afortunadamente la mayoría de los lemas y teoremas que usamos para demostrar el teorema de existencia y unicidad para ecuaciones de primer orden se pueden extender a funciones de varias variables, por lo que la demostración será muy similar a la demostración de este último teorema.

Antes de iniciar te dejo la entrada correspondiente al teorema de existencia y unicidad de Picard, para que te familiarices con él y te sea más fácil ver los videos de esta entrada.

El teorema de existencia y unicidad para sistemas de ecuaciones de primer orden. Ecuación integral asociada

Enunciamos el teorema de existencia y unicidad para sistemas de ecuaciones de primer orden, analizamos las similitudes que existen con el teorema de existencia y unicidad de Picard, y vemos que resolver el problema de condición inicial es equivalente a resolver la ecuación integral $$\textbf{X}(t)=\textbf{Y}+\int_{t_{0}}^{t} \textbf{F}(s, \textbf{X}(s)) \, ds.$$

Demostración de la existencia de la solución al problema de condición inicial

Demostramos la existencia de una solución al problema de condición inicial estudiando bajo qué circunstancias converge uniformemente la sucesión de iteraciones de Picard del problema. En dado caso que esto último suceda, la función a la cual convergen las iteraciones será solución a la ecuación integral del video anterior.

Demostración de la unicidad de la solución al problema de condición inicial

Concluimos la demostración del teorema probando la unicidad de la solución al problema de condición inicial.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Sea $\textbf{F}(t,\textbf{X}(t))$ continua en un dominio $E \subseteq \mathbb{R}^{n+1}$ que contenga a $(t_{0},\textbf{Y})$. Demuestra que $\textbf{X}(t)$ es solución al problema de condición inicial $$\dot{\textbf{X}}(t)=\textbf{F}(t,\textbf{X}(t)) \,\,\,\,\, ; \,\,\,\,\, \textbf{X}(t_{0})=\textbf{Y}$$ si y sólo si es solución a la ecuación integral $$\textbf{X}(t)=\textbf{Y}+\int_{t_{0}}^{t} \textbf{F}(s,\textbf{X}(s)) \, ds.$$
  • Considera el problema de condición inicial $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 1\\ 1 & 0 \end{pmatrix} \textbf{X} + \begin{pmatrix} t \\ t \end{pmatrix} \,\,\,\,\, ; \,\,\,\,\, \textbf{X}(0)=\begin{pmatrix} 1 \\ -1 \end{pmatrix}.$$ Calcula las iteraciones de Picard correspondientes al problema. ¿Convergen a alguna función? En caso afirmativo, muestra que dicha función es solución al problema de condición inicial.
  • Supongamos que $\textbf{F}(t,\textbf{X}(t))$ es continua en $$R:=\{(t,x_{1},…,x_{n}) \in \mathbb{R}^{n+1} : |t-t_{0}| \leq a, \lVert \textbf{X}(t) – \textbf{Y} \rVert \leq b, \, \, a, b \in \mathbb{R}\}.$$ Demuestra que existe $M > 0$ y $h \in \mathbb{R}$ tal que $$\lVert \textbf{X}^{n}(t)-Y \rVert \leq M |t-t_{0}|, \forall n \in\mathbb{N}, \forall t \in I_{h} \subseteq \mathbb{R}.$$ Recuerda que $\textbf{X}^{n}(t)$ es la $n$-ésima iteración de Picard correspondientes al problema de condición inicial que estudiamos a lo largo de la entrada. (Hint: La prueba es similar al lema análogo que probamos en este video para el teorema de existencia y unicidad de Picard).
  • Consideremos el problema de condición inicial $$a\frac{d^{2}y}{dt^{2}}+b\frac{dy}{dt}+cy=0 \,\,\,\,\, ; \,\,\,\,\, y(t_{0})=y_{0} \,\,\,\,\, ; \,\,\,\,\, \frac{dy}{dt}(t_{0})=y_{1}$$ con $a,b,c$ constantes. ¿Si el sistema de ecuaciones asociado satisface el teorema de existencia y unicidad, entonces el problema de condición inicial original tiene una única solución?

Más adelante

Con este teorema finalizamos la tercera unidad del curso. En la cuarta unidad comenzaremos con la teoría cualitativa de los sistemas de ecuaciones de primer orden.

Veremos que los sistemas tienen puntos de equilibrio, los clasificaremos según su estabilidad. En virtud de esto vamos a analizar el comportamiento de las soluciones cerca de puntos de equilibrio y dibujaremos el plano fase de un sistema.

Abordaremos sistemas no lineales, y aunque no los resolveremos explícitamente, veremos el comportamiento de sus soluciones cerca de sus puntos de equilibrio.

Finalmente, veremos algunos sistemas que satisfacen propiedades interesantes, como los sistemas Hamiltonianos, los disipativos, entre otros.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Valores propios repetidos

Por Eduardo Vera Rosales

Introducción

En las últimas entradas hemos revisado el método de valores y vectores propios para resolver sistemas lineales homogéneos con coeficientes constantes de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$. Revisamos los casos cuando la matriz asociada tiene valores propios reales y todos distintos, y cuando tiene valores complejos. Para el primer caso las funciones $e^{\lambda_{i} t}\textbf{v}_{i}$ son soluciones linealmente independientes, donde $\lambda_{i}$ es un valor propio y $\textbf{v}_{i}$ es un vector propio asociado a $\lambda_{i}, \; \forall i \in \{1,…,n\}$. La solución general es la combinación lineal de dichas soluciones. Para el caso de valores propios complejos vimos que de una solución compleja $e^{\lambda_{i} t}\textbf{v}_{i}$ podíamos encontrar dos soluciones reales: la parte real y la parte imaginaria de dicha solución. Además estas soluciones resultaron ser linealmente independientes por lo que no fue difícil hallar la solución general al sistema de esta forma.

Vamos a terminar de revisar el método de valores y vectores propios analizando el caso cuando la matriz $\textbf{A}$ asociada al sistema tiene valores propios repetidos, tanto si es diagonalizable como si no lo es.

Iniciaremos con el caso cuando es $\textbf{A}$ es diagonalizable. Veremos que es bastante sencillo hallar $n$ vectores propios linealmente independientes ya que si $\lambda_{i}$ es un valor propio con multiplicidad $k$, entonces existirán $k$ vectores propios linealmente independientes asociados a dicho valor propio. Por lo tanto, podremos encontrar $n$ soluciones linealmente independientes al sistema y la solución general será la combinación lineal de estas.

Finalizaremos con el caso cuando $\textbf{A}$ no es diagonalizable, donde no existirán $n$ vectores propios linealmente independientes ya que para algún valor propio $\lambda_{i}$ con multiplicidad $k$ no existirán $k$ vectores propios linealmente independientes. Sin embargo, con ayuda de la exponencial de la matriz $\textbf{e}^{t \textbf{A}}$ y el concepto de vector propio generalizado podremos encontrar $k$ soluciones linealmente independientes correspondientes al valor propio $\lambda_{i}$. Nuevamente la solución general será la combinación lineal de las $n$ soluciones generadas de esta manera.

Método de valores y vectores propios para matrices diagonalizables con valores propios repetidos

Analizamos el caso cuando la matriz $\textbf{A}$ asociada al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ es diagonalizable y tiene valores propios repetidos. Resolvemos un par de sistemas para ejemplificar el caso correspondiente.

Método de valores y vectores propios para matrices no diagonalizables

En el primer video analizamos de manera general el caso cuando la matriz asociada al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ no es diagonalizable. Definimos el concepto de vector propio generalizado y con ayuda de la exponencial $\text{e}^{t \textbf{A}}$ generamos la solución general al sistema. En el segundo video resolvemos un par de ejemplos referentes al caso analizado.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Es posible tener una matriz $\textbf{A}$ de tamaño $3 \times 3$ con valores propios complejos repetidos?
  • Prueba que si $\lambda$ es un valor propio complejo con multiplicidad $k$ de $\textbf{A}$, entonces su conjugado $\bar{\lambda}$ tiene multiplicidad $k$.
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} 0 & 0 & 0 & -1\\ 1 & 0 & 0 & 0\\ 0 & 1 & 0 & -2\\ 0 & 0 & 1 & 0\end{pmatrix}\textbf{X}.$$
  • Resuelve el problema de condición inicial $$\dot{\textbf{X}}=\begin{pmatrix} 1 & 3 & 3\\ 3 & 1 & 3\\ 3 & 3 & 1\end{pmatrix}\textbf{X} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 0\\ 0 \end{pmatrix}.$$
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} 0 & -1 & 1\\ 2 & -3 & 1\\ 1 & -1 & -1\end{pmatrix}\textbf{X}.$$

Más adelante

Con esta entrada terminamos de analizar el método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Una vez que logramos resolver tales sistemas, es tiempo de estudiar el caso no homogéneo.

Como ya sabemos, la solución general a estos sistemas serán la suma de la solución general al sistema homogéneo correspondiente mas una solución particular al sistema no homogéneo. El método por el cual encontraremos esta solución particular será el de variación de parámetros, el cual estudiaremos en la siguiente entrada.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Valores propios complejos

Por Eduardo Vera Rosales

Introducción

En la entrada anterior comenzamos el estudio del método de valores y vectores propios para resolver sistemas de ecuaciones lineales homogéneas con coeficientes constantes, de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$. Vimos que si somos capaces de encontrar $n$ vectores propios de la matriz $\textbf{A}$ linealmente independientes, entonces las funciones de la forma $e^{\lambda t}\textbf{v}$, donde $\lambda$ es un valor propio con vector propio asociado $\textbf{v}$, son soluciones linealmente independientes, y por tanto la combinación lineal de estas será la solución general del sistema. También estudiamos el caso cuando $\textbf{A}$ tiene todos sus valores propios reales y distintos.

En esta entrada nos dedicaremos a estudiar el caso cuando $\textbf{A}$ tiene valores propios complejos. Dado que $e^{\lambda t}\textbf{v}$ es una solución compleja al sistema, entonces la solución general sería una función con valores complejos. Sin embargo nosotros queremos soluciones con valores reales, por lo que debemos hallar una forma de generar soluciones de esta forma.

Lo primero será ver que las partes real e imaginaria de una solución compleja al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ serán soluciones reales al mismo sistema. Además este par de soluciones serán linealmente independientes. Así, seremos capaces de encontrar un conjunto linealmente independiente de $n$ soluciones reales al sistema mediante el método de valores y vectores propios que nos ayuda a encontrar soluciones de la forma $e^{\lambda t}\textbf{v}$.

Finalizaremos la entrada con tres ejemplos, uno de ellos el problema del oscilador armónico, el cual revisamos en el siguiente video y que tiene asociado una ecuación diferencial de segundo orden. Resolveremos el mismo problema pero ahora mediante un sistema de ecuaciones homogéneo.

Método de valores y vectores propios. Raíces complejas del polinomio característico

Encontramos dos soluciones reales al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ dada una solución compleja de la forma $e^{\lambda t}\textbf{v}$ donde $\lambda$ es un valor propio complejo con vector propio asociado $\textbf{v}$. Las soluciones reales serán las partes real e imaginaria de la solución compleja. Además las dos soluciones reales serán linealmente independientes.

El oscilador armónico y más ejemplos

En el primer video resolvemos un par de ejemplos de sistemas cuya matriz asociada tiene valores propios complejos. En el segundo video resolvemos el problema del oscilador armónico sin fricción y sin fuerzas externas mediante un sistema de ecuaciones.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Supongamos que $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ es un sistema lineal homogéneo con coeficientes constantes de 4 ecuaciones, y supongamos que $\lambda$, $\bar{\lambda}$, $\mu$ y $\bar{\mu}$ son los valores propios complejos de $\textbf{A}$ con vectores propios $\textbf{v}$, $\bar{\textbf{v}}$, $\textbf{w}$ y $\bar{\textbf{w}}$, respectivamente. Prueba que si $\textbf{Y}_{1}(t)$, $\textbf{Z}_{1}(t)$ son las partes real e imaginaria de $e^{\lambda t}\textbf{v}$, y si $\textbf{Y}_{2}(t)$, $\textbf{Z}_{2}(t)$ son las partes real e imaginaria de $e^{\mu t}\textbf{w}$ entonces $\textbf{Y}_{1}(t)$, $\textbf{Z}_{1}(t)$, $\textbf{Y}_{2}(t)$ y $\textbf{Z}_{2}(t)$ son soluciones linealmente independientes al sistema.
  • Supongamos que $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ es un sistema lineal homogéneo con coeficientes constantes de 3 ecuaciones. ¿Es posible que la matriz $\textbf{A}$ tenga tres valores propios complejos?
  • Demuestra que la matriz $\begin{pmatrix} a & b\\ -b & a\end{pmatrix}$, con $b\neq0$ tiene valores propios complejos.
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} -1 & 2\\ -1 & -1\end{pmatrix}\textbf{X}.$$
  • Resuelve el problema de condición inicial $$\dot{\textbf{X}}=\begin{pmatrix} 2 & -6\\ 2 & 1\end{pmatrix}\textbf{X} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 0 \end{pmatrix}.$$

Más adelante

En la próxima entrada concluimos el estudio al método de valores y vectores propios estudiando el caso cuando $\textbf{A}$ es una matriz diagonalizable con valores propios repetidos, y también el caso cuando $\textbf{A}$ no es diagonalizable, es decir, cuando $\textbf{A}$ no tiene $n$ vectores propios linealmente independientes, por lo que no se pueden generar $n$ soluciones linealmente independientes al sistema en la forma que lo hemos venido haciendo. En este caso debemos introducir un concepto nuevo, que es el de vector propio generalizado, y modificar el método de valores y vectores propios para encontrar las $n$ soluciones linealmente independientes al sistema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»