Archivo de la etiqueta: valores propios

Ecuaciones Diferenciales I – Videos: Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Valores propios complejos

Por Eduardo Vera Rosales

Introducción

En la entrada anterior comenzamos el estudio del método de valores y vectores propios para resolver sistemas de ecuaciones lineales homogéneas con coeficientes constantes, de la forma $\dot{\textbf{X}}=\textbf{A}\textbf{X}$. Vimos que si somos capaces de encontrar $n$ vectores propios de la matriz $\textbf{A}$ linealmente independientes, entonces las funciones de la forma $e^{\lambda t}\textbf{v}$, donde $\lambda$ es un valor propio con vector propio asociado $\textbf{v}$, son soluciones linealmente independientes, y por tanto la combinación lineal de estas será la solución general del sistema. También estudiamos el caso cuando $\textbf{A}$ tiene todos sus valores propios reales y distintos.

En esta entrada nos dedicaremos a estudiar el caso cuando $\textbf{A}$ tiene valores propios complejos. Dado que $e^{\lambda t}\textbf{v}$ es una solución compleja al sistema, entonces la solución general sería una función con valores complejos. Sin embargo nosotros queremos soluciones con valores reales, por lo que debemos hallar una forma de generar soluciones de esta forma.

Lo primero será ver que las partes real e imaginaria de una solución compleja al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ serán soluciones reales al mismo sistema. Además este par de soluciones serán linealmente independientes. Así, seremos capaces de encontrar un conjunto linealmente independiente de $n$ soluciones reales al sistema mediante el método de valores y vectores propios que nos ayuda a encontrar soluciones de la forma $e^{\lambda t}\textbf{v}$.

Finalizaremos la entrada con tres ejemplos, uno de ellos el problema del oscilador armónico, el cual revisamos en el siguiente video y que tiene asociado una ecuación diferencial de segundo orden. Resolveremos el mismo problema pero ahora mediante un sistema de ecuaciones homogéneo.

Método de valores y vectores propios. Raíces complejas del polinomio característico

Encontramos dos soluciones reales al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ dada una solución compleja de la forma $e^{\lambda t}\textbf{v}$ donde $\lambda$ es un valor propio complejo con vector propio asociado $\textbf{v}$. Las soluciones reales serán las partes real e imaginaria de la solución compleja. Además las dos soluciones reales serán linealmente independientes.

El oscilador armónico y más ejemplos

En el primer video resolvemos un par de ejemplos de sistemas cuya matriz asociada tiene valores propios complejos. En el segundo video resolvemos el problema del oscilador armónico sin fricción y sin fuerzas externas mediante un sistema de ecuaciones.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Supongamos que $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ es un sistema lineal homogéneo con coeficientes constantes de 4 ecuaciones, y supongamos que $\lambda$, $\bar{\lambda}$, $\mu$ y $\bar{\mu}$ son los valores propios complejos de $\textbf{A}$ con vectores propios $\textbf{v}$, $\bar{\textbf{v}}$, $\textbf{w}$ y $\bar{\textbf{w}}$, respectivamente. Prueba que si $\textbf{Y}_{1}(t)$, $\textbf{Z}_{1}(t)$ son las partes real e imaginaria de $e^{\lambda t}\textbf{v}$, y si $\textbf{Y}_{2}(t)$, $\textbf{Z}_{2}(t)$ son las partes real e imaginaria de $e^{\mu t}\textbf{w}$ entonces $\textbf{Y}_{1}(t)$, $\textbf{Z}_{1}(t)$, $\textbf{Y}_{2}(t)$ y $\textbf{Z}_{2}(t)$ son soluciones linealmente independientes al sistema.
  • Supongamos que $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ es un sistema lineal homogéneo con coeficientes constantes de 3 ecuaciones. ¿Es posible que la matriz $\textbf{A}$ tenga tres valores propios complejos?
  • Demuestra que la matriz $\begin{pmatrix} a & b\\ -b & a\end{pmatrix}$, con $b\neq0$ tiene valores propios complejos.
  • Encuentra la solución general al sistema $$\dot{\textbf{X}}=\begin{pmatrix} -1 & 2\\ -1 & -1\end{pmatrix}\textbf{X}.$$
  • Resuelve el problema de condición inicial $$\dot{\textbf{X}}=\begin{pmatrix} 2 & -6\\ 2 & 1\end{pmatrix}\textbf{X} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 0 \end{pmatrix}.$$

Más adelante

En la próxima entrada concluimos el estudio al método de valores y vectores propios estudiando el caso cuando $\textbf{A}$ es una matriz diagonalizable con valores propios repetidos, y también el caso cuando $\textbf{A}$ no es diagonalizable, es decir, cuando $\textbf{A}$ no tiene $n$ vectores propios linealmente independientes, por lo que no se pueden generar $n$ soluciones linealmente independientes al sistema en la forma que lo hemos venido haciendo. En este caso debemos introducir un concepto nuevo, que es el de vector propio generalizado, y modificar el método de valores y vectores propios para encontrar las $n$ soluciones linealmente independientes al sistema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Analítica I: Valores y vectores propios

Por Paola Lizeth Rojas Salazar

Introducción

Mucho hemos hablado, a lo largo de las entradas anteriores, sobre las soluciones de las ecuaciones resultantes de la forma $det(A-I\lambda)=0$ con $A$ matriz y $x$ vector; sin embargo, aún no nos hemos dedicado a resolver este tipo de ecuaciones. En esta entrada, hablaremos de las soluciones de estas ecuaciones que se llaman valores propios y que tienen un vector propio asociado.

¿Qué son?

Si tienes una matriz cuadrada $A$, vamos a decir que un vector $v$ es vector propio de $A$ con valor propio $\lambda \in \mathbb R$, si $v\neq 0$ y $Av=\lambda v$. A la pareja $\lambda , v$, la vamos a llamar pareja propia de A y el principal problema de estudio de esta entrada será encontrar a estas parejas.

Implicaciones importantes

Lema 4.7: Si $u$ y $v$ son vectores propios de $A$ con el mismo valor $\lambda \in \mathbb R$, entonces cualquier combinación lineal no trivial de ellos también es vector propio de $A$.

Demostración

Si tenemos dos parejas de $A$, $u$, $v$ que cumplen $Au=\lambda u$ y $Av=\lambda v$, entonces, para cualquier par de coeficientes $\alpha, \beta \in \mathbb R$ se tiene que, la combinación lineal de $u$ y $v$ con estos vectores, se cumple:

\begin{equation} A(\alpha u+\beta v)=\alpha (Au)+ \beta(Av)=\alpha (\lambda u)+\beta (\lambda v)=\lambda (\alpha u+\beta v)\end{equation}

Lo que significa que, si $\alpha u+ \beta v\neq 0$, entonces es vector propio de $A$ con valor propio $\lambda$.

Con lo que hemos terminado la demostración.

El siguiente lema es muy importante para realizar los cálculos.

Lema 4.8: Para cualquier matriz A cuadrada, se cumple: $\lambda$ es un valor propio de $A$ si y solo si, $det(A-\lambda I)=0$

Demostración

Sabemos que, como $\lambda$ es valor propio de $A$, entonces tiene a su vector propio $v$ correspondiente que cumple que: $Av=\lambda v$.

$\Longleftrightarrow Av-\lambda v=0$

$\Longleftrightarrow (A-\lambda I)v=0$

Y, como $v\neq 0$, entonces:

$\Longleftrightarrow det(A-\lambda I)=0$

Fin de la demostración.

Observa que, con los conocimientos que tenemos hasta el momento, ya puedes demostrar fácilmente el siguiente Lema y Corolario.

Lema 4.9: Si A es una matriz simétrica de $2×2$, entonces $A$ tiene dos valores propios $\lambda_1$ y $\lambda_2$ en $\mathbb R$.

Corolario 4.10: Sea $A$ una matriz simétrica de $2×2$, con valores propios $\lambda_1$ y $\lambda_2$. Entonces, sus valores propios coinciden ($\lambda_1 =\lambda_2$) si y solo si, $A= \lambda_1 I$. En este caso, cualquier vector $v\neq 0$ es vector propio.

Corolario 4.11: Considera una matriz simétrica $A$ de $2×2$. Entonces, existe una base $u, v \in \mathbb R^2$, donde $u$ y $v$ son vectores propios de $A$.

Demostración

Por el Lema 4.9, sabemos que $A$ tiene dos valores propios $\lambda_1$ y $\lambda_2$.

Caso 1, $\lambda_1=\lambda_2$

Por el Corolario 4.10, cualquier base $u,v \in \mathbb R^2$ funciona.

Caso 2, $\lambda_1\neq \lambda_2$

Por la definición de valor propio, existen $u,v$, vectores distintos de $0$ que corresponden a los valores propios $\lambda_1$ y $\lambda_2$ respectivamente.

Estos vectores no pueden ser paralelos porque por el Lema 4.8, esto implicaría que $\lambda_1=\lambda_2$.

Entonces, $u$ y $v$ forman una base de $\mathbb R^2$.

Terminamos la demostración.

Ejemplo

Calculemos los valores y vectores propios de la siguiente matriz simétrica:

\begin{equation}A=\begin{pmatrix} 2 & 2 \\ 2 & -1\end{pmatrix}\end{equation}

Valores propios

Recordemos que, para encontrar los valores propios, debemos resolver su polinomio característico que está dado por $det(A-\lambda I)$:

\begin{equation}det(A-\lambda I)=det\left(\begin{pmatrix} 2 & 2 \\ 2 & -1\end{pmatrix}-\begin{pmatrix} \lambda & 0\\ 0 & \lambda\end{pmatrix}\right)\end{equation}

Si continuamos con el desarrollo de la expresión anterior, comprueba que llegamos al siguiente polinomio característico:

\begin{equation}det(A-\lambda I)= \lambda^2-\lambda -6\end{equation}

Para resolver el polinomio anterior, debemos igualarlo a $0$, de donde vamos a obtener que, las raíces del polinomio son: $\lambda_1=\frac{1+\sqrt{1+24}}{2}=3$ y $\lambda_2=\frac{1-5}{2}=-2$

Vectores propios

Para encontrar los vectores propios correspondientes a $\lambda_1$ y $\lambda_2$, debemos encontrar una solución no trivial para los sistemas $(A-\lambda_i I)x=0$ con $i=1,2$

Para $\lambda_1=3$

\begin{equation}(A-3I)x=\begin{pmatrix} -1 & 2 \\ 2 & -4\end{pmatrix}\begin{pmatrix} x\\ y\end{pmatrix}=\begin{pmatrix} -x+2y\\ 2x-4y\end{pmatrix}=\begin{pmatrix} 0 \\ 0\end{pmatrix}\end{equation}

De donde obtenemos el siguiente sistema:

\begin{equation}\begin{matrix}-x+2y=0\\2x-4y=0\end{matrix}\end{equation}

Donde, una de sus soluciones no triviales es $u^T=(2,1)$

Para $\lambda_2=-2$

\begin{equation}(A-(-2)I)x=\begin{pmatrix} 4 & 2 \\ 2 & 1\end{pmatrix}\begin{pmatrix} x\\ y\end{pmatrix}=\begin{pmatrix} 4x+2y\\ 2x+y\end{pmatrix}=\begin{pmatrix} 0 \\ 0\end{pmatrix}\end{equation}

De donde obtenemos el siguiente sistema:

\begin{equation}\begin{matrix}4x+2y=0\\2x+y=0\end{matrix}\end{equation}

Donde, una de sus soluciones no triviales es $v^T=(-1,2)$

Observa que estos vectores $u$ y $v$ son ortogonales, ¿será coincidencia? Lo veremos más adelante.

Tarea moral

  1. Comprueba que, para los vectores propios obtenidos en los sistemas de ecuaciones $(6)$ y $(7)$, se cumple que $Au=3u$ y que $Av=-2v$.
  2. Demuestra, con un argumento algebraico y uno geométrico, que la matriz \begin{equation}\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\end{equation} no tiene vectores propios.
  3. Demuestra que la matriz \begin{equation}\begin{pmatrix} a & -b \\ b & a \end{pmatrix}\end{equation} no tiene vectores propios para $b\neq0$.
  4. Usa el Lema 4.9 para demostrar el Corolario 4.10.
  5. Demuestra el Lema 4.9. Hint: usa que, al ser $A$ matriz simétrica, entonces $A=A^T$, después, expresa a $A$ de la siguiente forma y desarrolla:

\begin{equation}A=\begin{pmatrix} a & b \\ b & c\end{pmatrix} \end{equation}

Más adelante…

En la siguiente entrada, concluiremos nuestro estudio de los valores y vectores propios, analizando la diagonalización ortogonal de matrices simétricas.

Ecuaciones Diferenciales I – Videos: Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Valores propios distintos

Por Eduardo Vera Rosales

Introducción

En la entrada anterior dimos las definiciones elementales y necesarias para diagonalizar una matriz de coeficientes constantes. Vimos los conceptos de valores y vectores propios y el polinomio característico, todo esto para poder encontrar la matriz $\textbf{e}^{t\textbf{A}}$. Sabemos que $\textbf{e}^{t\textbf{A}}$ es una matriz fundamental de soluciones al sistema lineal homogéneo $\dot{\textbf{X}}=\textbf{A}\textbf{X}$, por lo que sus columnas son soluciones linealmente independientes a dicho sistema. Así, de paso encontramos la solución general al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$.

Ahora vamos a olvidarnos un poco de $\textbf{e}^{t\textbf{A}}$, y vamos a resolver $\dot{\textbf{X}}=\textbf{A}\textbf{X}$ pero de una manera ligeramente distinta. Lo que haremos será suponer que una solución a tal sistema es de la forma $\textbf{X}(t)=e^{\lambda t}\textbf{v}$ para cierto vector constante $\textbf{v}$. Resultará que $\textbf{X}(t)$ será solución al sistema si y sólo si $\textbf{A}\textbf{v}=\lambda\textbf{v}$. Es decir, si y sólo si $\textbf{v}$ es un vector propio de la matriz $\textbf{A}$ del sistema, y $\lambda$ es el valor propio asociado a $\textbf{v}$.

El método de valores y vectores propios que desarrollamos para diagonalizar una matriz en la entrada anterior, nos servirá de la misma manera para hallar la solución general al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$, al menos si $\textbf{A}$ es diagonalizable, pues ya sabemos cómo encontrar los valores y vectores propios de $\textbf{A}$, y al tener $n$ valores propios con sus respectivos vectores propios, entonces seremos capaces de encontrar $n$ soluciones linealmente independientes al sistema y formas la solución general a este.

Una vez establecido cómo debe verse la solución general al sistema, finalizaremos la entrada resolviendo un par de ejemplos de sistemas donde la matriz $\textbf{A}$ es diagonalizable y las raíces del polinomio característico igualado a cero son todas reales y distintas.

La solución general al sistema lineal homogéneo con coeficientes constantes

Hallamos la solución general al sistema lineal homogéneo $\dot{\textbf{X}}=\textbf{A}\textbf{X}$, suponiendo que $\textbf{A}$ es una matriz diagonalizable.

Método de valores y vectores propios. Raíces reales distintas del polinomio característico

Mediante un par de ejemplos revisamos el caso cuando $\textbf{A}$ es diagonalizable y las raíces del polinomio característico son todas reales y distintas. Además en el segundo ejemplo, verificamos que $$\textbf{e}^{t\textbf{A}}=\textbf{X}_{f}(t)\textbf{X}_f^{-1}{0}$$ donde $\textbf{X}_{f}(t)$ es una matriz fundamental de soluciones al sistema. La matriz del segundo ejemplo fue diagonalizada en el siguiente video de la entrada anterior, y calculamos $\textbf{e}^{t\textbf{A}}$. (Compara los resultados obtenidos).

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Resuelve los siguientes sistemas y problemas de condición inicial. Encuentra $\textbf{e}^{t\textbf{A}}$ en cada caso:

  • $\dot{\textbf{X}}=\begin{pmatrix} 1 & 1\\ 4 & -2\end{pmatrix}\textbf{X}$.
  • $\dot{\textbf{X}}=\begin{pmatrix} 1 & 4\\ 3 & 2\end{pmatrix}\textbf{X} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 10\end{pmatrix}$.
  • $\dot{\textbf{X}}=\begin{pmatrix} 1 & -1 & 4\\ 3 & 2 & -1 \\ 2 & 1 & -1\end{pmatrix}\textbf{X}$.
  • $\dot{\textbf{X}}=\begin{pmatrix} 0 & 1 & 0\\ 2 & 0 & 2 \\ 0 & 1 & 0\end{pmatrix}\textbf{X} \, \, \, \, \, ; \, \, \, \, \, \textbf{X}(0)=\begin{pmatrix} 1\\ 0 \\ 0\end{pmatrix}$.

Más adelante

Una vez que hemos logrado escribir la solución general al sistema $\dot{\textbf{X}}=\textbf{A}\textbf{X}$, cuando $\textbf{A}$ es diagonalizable, continuaremos revisando los posibles casos que se presentan con las raíces del polinomio característico. En particular, en la siguiente entrada revisaremos el caso cuando se presentan raíces complejas, es decir, cuando aparecen valores propios complejos de la matriz $\textbf{A}$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal II: El teorema de descomposición polar real

Por Ayax Calderón

Introducción

En la entrada anterior enunciamos y demostramos el teorema espectral para matrices simétricas reales. Una de las consecuencias de este teorema es el teorema de descomposición polar. Se puede pensar en el teorema de descomposición polar como al análogo a un resultado muy conocido de números complejos: cualquier número complejo se puede pensar de la forma $z=e^{i\theta}r$ con $r\geq 0$ real. Geométricamente, el complejo se obtiene «rotando tanto como el argumento y luego alargando de acuerdo a la norma».

Así mismo, veremos que toda matriz $A$ tendrá una expresión de la forma $A=US$ donde $U$ es una matriz ortogonal (que juega el papel de «la rotación») y $S$ es una matriz simétrica positiva (que por el teorema espectral recordemos que es básicamente «alargar en varias direcciones»). Este resultado es increíble: ¡nos dice cómo son todas, todas las matrices reales en términos de matrices muy sencillas: las ortogonales (que conocemos muy bien) y las simétricas (que por el teorema espectral también conocemos muy bien)!

Caso invertible del teorema de descomposición polar

Recordemos un resultado de la entrada anterior, que era una de las partes de nuestro teorema de clasificación de matrices positivas. Nos dice que las matrices simétricas positivas «tienen raíz cuadrada».

Proposición. Sea $A$ una matriz simétrica positiva. Entonces existe una matriz simétrica $B$ tal que $B^2=A$.

Como recordatorio, para obtener a $B$ lo que hicimos fue diagonalizar a $A$ de la forma $A=P^{-1}DP$ con $D$ matriz diagonal cuyas entradas eran $\lambda_1,\ldots,\lambda_n$ los eigenvalores de $A$. Como $A$ era positiva, sus eigenvalores eran no negativos, así que podíamos construir $D’$ con entradas $\sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}$. Después, vimos que $B=P^{-1}D’P$ servía para que $B^2=A$. Observa que además $B$ es positiva pues sus eigenvalores son no negativos.

Como observación adicional, si $A$ fuera positiva definida entonces sus eigenvalores serían positivos, y entonces $B$ también tendría eigenvalores positivos. Así, $B$ sería positiva definida también. De hecho, se puede demostrar que en este caso la matriz $B$ es única (bajo la condición de ser simétrica positiva definida y raíz de $A$). Probar esto queda como parte de los ejercicios de la entrada.

Estamos listos para enunciar y demostrar el teorema de descomposición polar en el caso de matrices invertibles.

Teorema (De descomposición polar, caso invertible). Sea $A\in M_n(\mathbb{R})$ una matriz invertible. Entonces existe una única pareja $(U,S)$ con $U$ una matriz ortogonal y $S$ una matriz simétrica positiva definida para la que se cumple que $A=US$.

Demostración. Tomemos $A\in M_n(\mathbb{R})$ una matriz invertible. La matriz $^tAA$ es simétrica y positiva definida. Por la discusión anterior, existe una única matriz simétrica positiva definida $S$ tal que $^tAA=S^2$. Como $A$ es invertible, $S$ también lo es, así que definamos $$U=AS^{-1}.$$

Afirmamos que $(U,S)$ cumplen con lo requerido. Ya justificamos que $S$ es simétrica positiva definida. Además, de $U=AS^{-1}$ se obtiene inmediatamente $US=A$. Sólo falta verificar que $U$ es ortogonal. Para ello, al multiplicarla con su transpuesta obtenemos lo siguiente:
\begin{align*}
^tUU&=\hspace{.5mm}^tS^{-1}\hspace{.5mm}^tAAS^{-1}\\
&=S^{-1}S^2S^{-1}\\
&=I_n.
\end{align*}

Veamos ahora la unicidad. Supongamos que $A=U’S’$ con $U’$ ortogonal y $S’$ simétrica positiva definida, Entonces
$$^tAA=S’\hspace{.5mm}^tU’U’S’={S’}^2.$$

De esta manera, $S’$ es precisamente la raíz cuadrada de $^tAA$, que por la discusión anterior es única. Deducimos entonces que $S’=S$ y por lo tanto $U’=A{S’}^{-1}=AS^{-1}=U$.

$\square$

Caso general del teorema de descomposición polar

Es natural preguntarse qué sucede cuando la matriz $A$ no es invertible. Resulta que en ese caso aún podemos encontrar una descomposición, aunque perdemos un poco de las propiedades de las matrices y la unicidad. Por ejemplo, si $A=O_n$, entonces $A=UO_n$ para cualquier matriz ortogonal $U$ y entonces tenemos muchas posibles descomposiciones.

Teorema (De descomposición polar, caso general). Cualquier matriz $A\in M_n(\mathbb{R})$ se puede escribir de la forma $A=US$ con $U$ una matriz ortogonal y $S$ una matriz simétrica positiva.

¿Por qué falla nuestra demostración? Todavía tenemos que $^tAA$ es positiva, así que podríamos tomar una raíz cuadrada $S$. El problema es que como $A$ no es invertible, entonces $S$ tampoco lo es. Por ello, no podemos definir $U=AS^{-1}$ como lo hicimos con anterioridad. Sin embargo, podemos ser astutos y «cambiar tantito» a $A$ para que sí se vuelva invertible. De hecho, podemos tomar muchas matrices que se acercan a $A$ y sí son invertibles. Con ello podemos usar un «argumento al límite». Formalicemos estas ideas.

Demostración. Consideremos las matrices $A_k=A+\frac{1}{k}I_n$. Recordemos que $\det(A+\lambda I_n)$ es un polinomio de grado $n$ así que tiene a lo más $n$ raíces. Por ello, existe un $k_0$ tal que para toda $k>k_0$ la matriz $A_k$ es invertible. Al aplicar el teorema de descomposición polar a cada una de dichas $A_k$, obtenemos una matriz ortogonal $U_k$ y una simétrica positiva definida $S_k$ tales que

$$A_k=U_kS_k.$$

Las entradas de cada $U_k$ cumplen que están en el intervalo $[-1,1]$ (pues la suma de las entradas de cada fila es igual a $1$). Así, $U_k$ es una sucesión de matrices en el compacto de matrices con entradas $[-1,1]$. En un compacto toda sucesión tiene una subsucesión convergente, así que podemos elegir una subsucesión de estas matrices, digamos $U_{k_1}, U_{k_2},\ldots$ que converge a una matriz $U$.

Se puede ver que el producto de matrices es continúo y obtener inversas de matrices también es continuo (por ejemplo, por las fórmulas de inversa por matriz de adjuntos). De este modo, aplicando límite $j\to \infty$ a la igualdad $^tU_{k_j}U_{k_j}=I_n$ obtenemos que $^tU=I_n$, de modo que $U$ es ortogonal.

Del mismo modo, como trasponer es continuo, $S_{k_1}, S_{k_2},\ldots$ converge a una matriz simétrica $S$. Finalmente, usando nuevamente la continuidad del producto de matrices obtenemos

\begin{align*}
A&=\lim_{j\to \infty} A_{k_j}\\
&=\lim_{j\to \infty} U_{k_j} S_{k_j}\\
&=US.
\end{align*}

Sólo nos falta demostrar que $S$ es positiva, pero si tomamos $X\in\mathbb{R}^n$, entonces pasando al límite $j\to \infty$ en la desigualdad $^tXS_{k_j}X > 0$ obtenemos $^tXSX\geq 0$. Aquí es donde se podría perder que $S$ es positiva definida, pero seguimos teniendo que $S$ es positiva.

$\square$

Más adelante…

Tanto el teorema espectral como el teorema de descomposición polar son resultados de caracterización fundamentales en álgebra lineal y finalmente nos dan una respuesta a la pregunta de, geométricamente, cómo son todas las posibles transformaciones lineales. En las siguientes secciones se esbozarán los resultados análogos para el caso complejo.

Después de ello, en la cuarta unidad del curso cubriremos otro teorema que nos permitirá decir «cómo son todas las matrices». Quizás no todas las matrices sean directamente similares a una matriz diagonal. Pero enunciaremos y demostraremos el teorema de Jordan que dirá que cualquier matriz es similar a una «casi diagonal», a la que llamaremos diagonal por bloques.

Tarea moral

  1. Sean que $A$ y $B$ son matrices simétricas. Demuestra que $A$ y $B$ conmutan si y sólo si existe una misma matriz $P$ tal que $PAP^{-1}$ y $PBP^{-1}$ son diagonales (a esto se le conoce como que $A$ y $B$ sean «simultáneamente diagonalizables»)
  2. Usando el ejercicio anterior, demuestra que si $A$ es simétrica positiva definida, y se cumple $B^2=A=C^2$ con $B$ y $C$ matrices simétricas positivas definidas, entonces $B=C$.
  3. Sean $A,B\in M_n(\mathbb{R})$ matrices tales que $^tAA=^tBB$. Demuestra que existe una matriz ortogonal $U\in M_n(\mathbb{R})$ tal que $B=UA$.
  4. Encuentra la descomposición polar de $$\begin{pmatrix}
    11 & -5\\
    -2 & 10 \end{pmatrix}.$$
  5. Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Propiedades de eigenvectores y eigenvalores

Por Julio Sampietro

Introducción

En la entrada anterior platicamos acerca de eigenvectores, eigenvalores y eigenespacios de matrices y transformaciones lineales. Vimos algunos ejemplos básicos. En esta entrada profundizaremos en el estudio de estos objetos y exploraremos diversas de sus propiedades. Comenzaremos con algunas observaciones inmediatas. Después, veremos cómo encontrar de manera sencilla los eigenvalores de las matrices triangulares superiores. También veremos que «eigenvectores correspondientes a eigenvalores diferentes son linealmente independientes«. Finalmente, conectaremos estas nuevas ideas con un objeto que estudiamos previamente: el polinomio mínimo.

Primeras observaciones

A partir de la proposición de la entrada anterior que nos dice cómo calcular eigenvalores se desprenden algunas consecuencias sencillas pero útiles.

Por ejemplo, recuerda que el determinante de una matriz y su transpuesta es igual. En particular, si $A\in M_n(F)$ entonces

\begin{align*}
\det(\lambda I_n -\ ^{t}A)= \det(\ ^{t}(\lambda I_n- A))= \det(\lambda I_n-A).
\end{align*}

Luego $\det (\lambda I_n-A)=0$ si y sólo si $\det(\lambda I_n-\ ^{t}A)=0$. Recordando que las raíces de estos polinomios son precisamente los eigenvalores, se sigue que los eigenvalores de $A$ y $^{t}A$ son iguales.

Por otro lado, como los eigenvalores son las raíces de un polinomio de grado $n$, sabemos que hay a lo más $n$ soluciones. Entonces toda matriz tiene a lo más $n$ eigenvalores.

Esto también ocurre para transformaciones lineales en espacios de dimensión finita y lo podemos enunciar como sigue:

Corolario. Sea $V$ un espacio de dimensión finita sobre $F$ y $T:V\to V$ lineal. Entonces $T$ tiene a lo más $\dim V$ eigenvalores distintos.

Sin embargo, si el espacio no es de dimensión finita no podemos hacer tal afirmación. Si $V$ es el espacio de todas las funciones suaves (es decir con derivadas de todos los órdenes) de $\mathbb{R}$ en $\mathbb{R}$ y $T:V\to V$ es la función lineal que a cada función la manda en su derivada, entonces tenemos «muchos» eigenvalores. Haciendo esto más preciso, para cada real $r$ la función $e^{rx}$ es un eigenvector con eigenvalor $r$ puesto que

\begin{align*}
T(e^{rx})= \left(e^{rx}\right)’= re^{rx}.
\end{align*}

Así, tenemos al menos tantos eigenvalores como números reales. De hecho, estos son exactamente los eigenvalores de $T$, lo cual puede demostrarse mediante el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales, que estudiarás en otro momento de tu formación matemática.

Matrices triangulares superiores

Parte del interés de «triangular» matrices (es decir, encontrar una matriz similar que sea triangular superior) está dada por la facilidad de calcular sus eigenvalores. Exploramos esto mediante los siguientes dos problemas.

Problema 1. Sea $A=[a_{ij}]$ una matriz triangular superior en $M_n(F)$. Demuestra que los eigenvalores de $A$ son precisamente los elementos en la diagonal.

Solución. Ya establecimos que encontrar los valores propios se reduce a encontrar las raíces del polinomio $\det(\lambda I_n-A)$. Notamos que si $A$ es triangular superior, entonces $\lambda I_n-A$ también es triangular superior. Más aún, las entradas de la diagonal son simplemente $\lambda-a_{ii}$. Pero sabemos que el determinante de una matriz triangular superior es el producto de sus entradas diagonales. Así

\begin{align*}
\det(\lambda I_n -A)= (\lambda-a_{11})(\lambda-a_{22})\cdots (\lambda -a_{nn})
\end{align*}

cuyas raíces son exactamente los elementos $a_{ii}$.

$\square$

Podemos combinar el resultado anterior con otras propiedades de matrices triangulares superiores para resolver a mano algunos problemas que de entrada parecen complicados.

Problema 2. Encuentra los eigenvalores de $A^{3}$ donde

\begin{align*}
A=\begin{pmatrix} 1 & 2 &3 &4 \\ 0 & 5 & 6 & 7\\ 0 & 0 & 8 & 9\\ 0 &0 &0 & 10\end{pmatrix}\in M_4(\mathbb{R}).
\end{align*}

Solución. En realidad no hace falta hacer el producto de matrices para encontrar la matriz $A^3$. Sabemos que el producto de dos matrices triangulares superiores es triangular superior y que de hecho las entradas de la diagonal son solo el producto de las entradas correspondientes. Es decir, si $[a_{ij}]$ y $[b_{ij}]$ son dos matrices triangulares superiores, las entradas de la diagonal son $a_{ii}b_{ii}$. En nuestro caso, las entradas de la diagonal son $1^3, 5^3, 8^3$ y $10^3$, y por el problema anterior, estos son precisamente los eigenvalores de $A^3$.

$\triangle$

Relaciones con independencia lineal y combinaciones polinomiales

El resultado principal de esta entrada es el siguiente teorema, que en particular afirma que si dos eigenvalores son distintos, sus eigenvectores son linealmente independientes. En realidad, el resultado es un poco más general y lo enunciamos a continuación

Teorema. Sean $\lambda_1,\dots, \lambda_k$ eigenvalores distintos dos a dos de una transformación lineal $T:V\to V$. Entonces los $\lambda_i$-eigenespacios están en posición de suma directa.

Demostración. Por definición, tenemos que demostrar que si tenemos una colección $\{v_i\}$ de vectores con $T(v_i)=\lambda_i v_i$ y $v_1+\dots+v_k=0$ entonces $v_1=\dots=v_k=0$. Procedemos por inducción sobre $k$.

Nuestro caso base es una tautología, pues si $k=1$ entonces tenemos que mostrar que si $v_1=0$ entonces $v_1=0$.

Asumamos que el resultado se cumple para $k-1$ y verifiquemos que se cumple para $k$. Supongamos que $v_1+\dots+v_k=0$. Aplicando $T$ de ambos lados de esta igualdad llegamos a

\begin{align*}
T(v_1+\dots+v_k)&= T(v_1)+\dots+T(v_k)\\
&=\lambda_1 v_1+\dots +\lambda _k v_k=0.
\end{align*}

Por otro lado, si multiplicamos a la igualdad $v_1+\dots+v_k=0$ por $\lambda_k$ de ambos lados llegamos a

\begin{align*}
\lambda_k v_1+\dots +\lambda _k v_k=0.
\end{align*}

Sustrayendo y factorizando estas dos igualdades se sigue que

\begin{align*}
(\lambda_k -\lambda_1)v_1+\dots +(\lambda_k-\lambda_{k-1})v_{k-1}=0.
\end{align*}

Esto es una combinación lineal de los primeros $k-1$ vectores $v_i$ igualada a cero. Luego, la hipótesis inductiva nos dice que $(\lambda_k-\lambda_i)v_i=0$ para todo $i=1,\dots, k-1$. Como $\lambda_k\neq \lambda_i$ entonces $\lambda_k-\lambda_i\neq 0$ y entonces $v_i=0$. Sustituyendo en la igualdad original, esto implica que $v_k=0$ inmediatamente.

$\square$

Enseguida veremos que si formamos un polinomio $P(T)$, entonces $P(\lambda)$ es un eigenvalor de $P(T)$ para cualquier eigenvalor $\lambda$ de $T$. Esto lo veremos en el siguiente problema.

Problema. Sea $\lambda$ un eigenvalor de $T:V\to V$ y sea $P$ un polinomio en una variable con coeficientes en $F$. Demuestra que $P(\lambda)$ es un eigenvalor de $P(T)$.

Solución. Como $\lambda$ es un eigenvalor de $T$, existe $v$ un vector no cero tal que $T(v)=\lambda v$. Inductivamente, se cumple que $T^{k}(v)=\lambda^{k} v$. En efecto

\begin{align*}
T^{k+1}(v)&=T(T^{k}(v))\\
&= T(\lambda^{k} v)\\
&= \lambda^{k}T(v)\\
&=\lambda^{k+1}v.
\end{align*}

Usando esto, si $P(X)=a_n X^{n}+\dots+a_1 X+a_0$ se tiene que

\begin{align*}
P(T)(v)&= a_nT^{n}(v)+\dots +a_1 T(v)+ a_0 v\\
&= a_n\lambda^{n}v+\dots +a_1\lambda v+a_0v\\
&= (a_n\lambda^{n}+\dots +a_1\lambda +a_0)v\\
&= P(\lambda) v.
\end{align*}

Esto muestra que $P(\lambda)$ es un eigenvalor de $P(T)$.

$\square$

Relación con el polinomio mínimo

Una consecuencia del problema previo es la siguiente proposición.

Proposición. Sea $A\in M_n(\mathbb{C})$ una matriz y $P\in \mathbb{C}[X]$ un polinomio tal que $P(A)=O_n$. Entonces cualquier eigenvalor $\lambda$ de $A$ satisface $P(\lambda)=0$.

Solución. Por el problema anterior, $P(\lambda)$ es un eigenvalor de $P(A)$, pero $P(A)=O_n$ y el único eigenvalor de la matriz cero es $0$. Luego $P(\lambda)=0$.

$\square$

De esto, podemos por fin establecer una conexión con el polinomio mínimo, que enunciamos en forma de teorema.

Teorema. Sea $T:V\to V$ una transformación lineal sobre un espacio de dimensión finita sobre un campo $F$. Los eigenvalores de $T$ son precisamente las raíces en $F$ del polinomio mínimo $\mu_T$.

Demostración. Dado que $\mu_T(T)=0$, el problema que acabamos de resolver nos dice que todos los eigenvalores de $T$ son raíces de $\mu_T$.

Conversamente, supongamos que existe $\lambda$ una raíz de $\mu_T$ que no es eigenvalor. Entonces la transformación $T-\lambda \operatorname{Id}$ es invertible. Como $\mu_T(\lambda)=0$, podemos factorizar la raíz y escribir $\mu_T(X)=(X-\lambda)Q(X)$ para algún $Q\in F[X]$. Dado que $\mu_T(T)=0$ deducimos que

\begin{align*}
(T-\lambda \operatorname{Id})\circ Q(T)=0.
\end{align*}

Recordando una vez más que $T-\lambda \operatorname{Id}$ es invertible, esta ecuación implica que $Q(T)=0$. Ya que $\mu_T$ es el polinomio mínimo, por una propiedad que mostramos anteriormente obtendríamos que $\mu_T$ divide a $Q$. Pero esto se contradice con la igualdad $\mu_T(X)=(X-\lambda)Q(X)$, que nos dice que $\mu_T$ tiene grado mayor. Esto concluye la demostración.

$\square$

Ejercicios

Terminamos con un par de ejercicios para repasar el material de estas secciones. El primero de entre ellos toma prestados nombres de la probabilidad (lo lo cuál puede sugerirte en qué tipo de texto te podrías encontrar con estas matrices).

Problema 1. Una matriz $A\in M_n(\mathbb{R})$ se dice estocástica si $a_{ij}\geq 0$ para todo $i,j\in \{1,\dots, n\}$ y $\sum_{j=1}^{n} a_{ij}=1$ para todo $i\in \{1,\dots, n\}$.

Demuestra que $1$ es un eigenvalor de cualquier matriz estocástica.

Solución. Consideremos el vector $v=(1,\dots, 1)$. Nota que

\begin{align*}
A\cdot v&= \begin{pmatrix}
a_{11} & a_{12} &\dots & a_{1n}\\
a_{21} & a_{22} & \dots & a_{2n}\\
\dots & \dots & \dots & \dots\\
a_{n1} & a_{n2} & \dots & a_{nn}
\end{pmatrix} \cdot \begin{pmatrix}
1\\
1\\
\vdots\\
1
\end{pmatrix}\\
&= \begin{pmatrix}
a_{11}+a_{12}+\dots+a_{1n}\\
a_{21}+a_{22}+\dots+a_{2n}\\
\vdots\\
a_{n1}+a_{n2}+\dots+a_{nn}
\end{pmatrix}\\
&=\begin{pmatrix}
1\\
1\\
\vdots\\
1\end{pmatrix}.
\end{align*}

Es decir $A\cdot v=v$, por lo que $v$ es un eigenvector de $A$ con eigenvalor asociado $1$.

$\square$

Problema 2. Sea $V$ el espacio de todos los polinomios con coeficientes reales. Sea $T:V\to V$ la transformación lineal dada por $P(X)\mapsto P(1-X)$. ¿Cuáles son los eigenvalores de $T$?

Solución. Observa que
\begin{align*}T^2(P)&=T\circ T(P)\\&= T(P(1-X))\\&= P(1-(1-X))\\&= P(X).\end{align*} Así $T^2=\operatorname{Id}$, o bien $T^2-\text{Id}=0$. Luego, el polinomio mínimo $\mu_T$ tiene que dividir al polinomio $X^2-1$. Sin embargo, los únicos factores de este polinomio son $X-1$ y $X+1$. Dado que $T\neq \pm \operatorname{Id}$ se tiene que $\mu_T(X)=X^2-1$. Por el último teorema que vimos, los eigenvalores de $T$ son precisamente las raíces de $\mu_T$ en $\mathbb{R}$, es decir $\pm 1$.

$\triangle$

Más adelante…

En las entradas subsecuentes iremos más a fondo en el concepto de polinomio característico, para eventualmente llegar al teorema de Cayley-Hamilton. Para eso tendremos que equiparnos de bastante teoría y repasar varias propiedades de dicho polinomio.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $V$ el espacio de polinomios con coeficientes reales de grado a lo más $n$. Encuentra los eigenvalores de la transformación $T:P(X)\mapsto P(X)-(1+X)P'(X)$.
  • Si $V$ es el espacio de polinomios con coeficientes reales, encuentra los eigenvalores de $T:P(X)\mapsto P(3X)$.
  • Sean $A,B$ matrices en $M_n(\mathbb{C})$ tales que $AB-BA=B$. Demuestra que para todo $k\geq 1$ se cumple que $AB^{k}-B^{k}A=kB^{k}$ y de esto deduce que $B$ es nilpotente: existe $m$ tal que $B^{m}=0$. Sugerencia: ¿Cuántos eigenvalores puede tener $T:X\mapsto AX-XA$?
  • ¿Puedes generalizar el último problema de la sección de matrices triangulares superiores?
  • Sea $A$ una matriz cuadrada con entradas reales. Supón que $\lambda$ es un real positivo que es eigenvalor de $A^2$. Demuestra que $\sqrt{\lambda}$ o $-\sqrt{\lambda}$ es un eigenvalor de $A$. ¿Sucederá a veces que sólo una de estas es eigenvalor?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»