Archivo de la categoría: Geometría analítica I

Álgebra Lineal II: Aplicaciones del teorema de Cayley-Hamilton

Introducción

En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.

Encontrar inversas de matrices

El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz $A$ en $M_n(F)$ tiene polinomio característico $$\chi_A(x)=x^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0.$$ Como $a_0=\det(A)$, si $a_0=0$ entonces la matriz no es invertible. Supongamos entonces que $a_0\neq 0$. Por el teorema de Cayley-Hamilton tenemos que $$A^n+a_{n-1}A^{n-1}+\ldots+a_1A+a_0I_n=O_n.$$ De aquí podemos despejar la matriz identidad como sigue:

\begin{align*}
I_n&=-\frac{1}{a_0}\left( A^n+a_{n-1}A^{n-1}+\ldots+a_1A \right)\\
&=-\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right) A.
\end{align*}

Estos cálculos muestran que la inversa de $A$ es la matriz $$ -\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-1}+\ldots+a_1 I\right).$$

Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz $$A=\begin{pmatrix} 2 & 2 & 0 \\ 0 & -1 & 0 \\ 1 & 1 & 1 \end{pmatrix}.$$ Su polinomio característico es $\lambda^3-2\lambda^2 – \lambda +2$. Usando la fórmula de arriba, tenemos que

$$A^{-1}=-\frac{1}{2}(A^2-2A-I).$$

Necesitamos entonces $A^2$, que es:

$$A^2=\begin{pmatrix} 4 & 2 & 0 \\ 0 & 1 & 0 \\ 3 & 2 & 1 \end{pmatrix}.$$

De aquí, tras hacer las cuentas correspondientes, obtenemos que:

$$A^{-1}=\begin{pmatrix} \frac{1}{2} & 1 & 0 \\ 0 & -1 & 0 \\ -\frac{1}{2} & 0 & 1\end{pmatrix}.$$

Puedes verificar que en efecto esta es la inversa de $A$ realizando la multiplicación correspondiente.

$\square$

El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.

Corolario. Si $A$ es una matriz con entradas en los enteros y determinante $1$ ó $-1$, entonces $A^{-1}$ tiene entradas enteras.

Encontrar el polinomio mínimo de una matriz

Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.

Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.

Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:

  • Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
  • Además, para cada eigenvalor $\lambda$ ya vimos que $\lambda$ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor $x-\lambda$ en el polinomio mínimo para cada eigenvalor $\lambda$.

Ejemplo. Encontramos el polinomio mínimo de la siguiente matriz:

$$B=\begin{pmatrix} 2 & 0 & 4 \\ 3 & -1 & -1 \\0 & 0 & 2 \end{pmatrix}.$$

Una cuenta estándar muestra que el polinomio característico es $(x-2)^2(x+1)$. El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor $(x-2)$ y un factor $(x+1)$. Sólo hay dos polinomios con esas condiciones: $(x-2)(x+1)$ y $(x-2)^2(x+1)$. Si $(x-2)(x+1)$ anula a $B$, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:

\begin{align*}
(B-2I_3)(B+I_3)&=\begin{pmatrix}0 & 0 & 4 \\ 3 & -3 & -1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} 3 & 0 & 4 \\ 3 & 0 & -1 \\ 0 & 0 & 3 \end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 & 12 \\ 0 & 0 & 12 \\ 0 & 0 & 0 \end{pmatrix}.
\end{align*}

Así, $(x-2)(x+1)$ no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico $(x-2)^2(x+1)$.

$\square$

Ejemplo. Consideremos la matriz $C=\begin{pmatrix} 3 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix}$. Su polinomio característico es $(x-3)^3$. Así, su polinomio mínimo es $x-3$, $(x-3)^2$ ó $(x-3)^3$. Nos damos cuenta rápidamente que $x-3$ sí anula a la matriz pues $A-3I_3=O_3$. De este modo, el polinomio mínimo es $x-3$.

$\square$

Clasificación de matrices con alguna condición algebraica

Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.

Por ejemplo, ¿quienes son todas las matrices en $M_n(\mathbb{R})$ que son su propia inversa? La condición algebraica es $A^2=I_2$. Si el polinomio característico de $A$ es $x^2+bx+c$, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que $O_2=A^2+bA+cI_2=bA+(c+1)I_2$. De aquí tenemos un par de casos:

  • Si $b\neq 0$, podemos despejar a $A$ como $A=-\frac{c+1}{b}I_2$, es decir $A$ debe ser un múltiplo de la identidad. Simplificando la notación, $A=xI_2$. Así, la condición $A^2=I_2$ se convierte en $x^2I_2=I_2$, de donde $x^2=1$ y por lo tanto $x=\pm 1$. Esto nos da las soluciones $A=I_2$ y $A=-I_2$.
  • Si $b=0$, entonces $O_2=(c+1)I_2$, de donde $c=-1$. De este modo, el polinomio característico es $x^2-1=(x+1)(x-1)$. Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$, y sólo esas.

Más adelante…

El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.

Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.

Tarea moral

  1. Encuentra el polinomio mínimo de la matriz $\begin{pmatrix}-3 & 1 & 0 & 0 \\ 0 & -3 & 0 & 0 \\ 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 2\end{pmatrix}$
  2. Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & -1 & 2\\ 2 & 2 & 1 \end{pmatrix}.$$
  3. Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es $1$ ó $-1$.
  4. ¿Cómo son todas las matrices en $M_2(\mathbb{R})$ tales que $A^2=A$?
  5. ¿Cómo son todas las matrices en $M_3(\mathbb{R})$ de determinante $0$ tales que $A^3=O_3$?

Entradas relacionadas

Geometría Analítica I: Clasificación afín y por semejanzas de curvas cuadráticas

Introducción

En entradas anteriores, mencionamos la clasificación afín de curvas cuadráticas, en las siguientes líneas, continuaremos con este análisis, convirtiendo los parámetros $\alpha, \beta$ y $\gamma$ o $a$ y $b$ que ya vimos anteriormente, en $1$ o $-1$, lo que nos va a permitir concluir con esta clasificación.

Clasificación

Para poder convertir los parámetros $a$ y $b$ de las cónicas y transformarlos en $1$ o $-1$, se debe alargar o encoger en los ejes.

Por ejemplo, para la parábola que está dada por el polinomio $P(x,y)=x^2+ay$ con $a\neq 0$, podemos lograr esto si hacemos:

\begin{equation}P\left(x, -\frac{y}{a}\right)=x^2-y\end{equation}

Lo que nos da el polinomio de la parábola canónica.

Observa que, en $(1)$, ya no tenemos los términos $a$ o $b$ con los que escribimos la ecuación de las cónicas en la Unidad 2.

Con lo anterior, puedes darte cuenta de que, para cualquier polinomio en el que los valores estén en la parte lineal, podemos dividir o multiplicar por $a$ o $b$ para hacerlo $1$ o $-1$.

Pero, ¿cómo podemos eliminar estos términos cuando los valores están en la parte cuadrática?

Considerando la matriz de la parte cuadrática que está dada por una matriz de la forma:

\begin{equation} B^TAB=\begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix} \begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix} \begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}=\begin{pmatrix} a^2 \alpha & 0 \\ 0 & b^2 \beta \end{pmatrix}\end{equation}

De la matriz anterior, como queremos tener una matriz de la forma:

\begin{equation}\begin{pmatrix} \pm 1& 0 \\ 0 & \pm 1 \end{pmatrix}\end{equation}

Entonces, debemos tomar los valores $a=\left(\sqrt{|\alpha|} \right)^{-1}$ y $b=\left(\sqrt{|\beta|} \right)^{-1}$

Tarea moral

  1. ¿Cuál es la matriz de una homotecia que lleve a la parábola dada por $x^2+ay$ con $a\neq 0$, en la canónica dada por $x^2-y$?
  2. Del ejercicio anterior, concluye que hay solo una clase de parábolas módulo semejanzas.

Más adelante…

Eso es todo por el momento para la materia de Geometría analítica I, en las siguientes entradas, empezaremos con nuevos temas, correspondientes al curso de Geometría analítica II.

Geometría Analítica I: Clasificación isométrica de curvas cuadráticas

Introducción

Ya vimos cómo afectan las traslaciones y las transformaciones ortogonales a los polinomios cuadráticos, en esta entrada, usaremos todo lo que hemos aprendido de las entradas anteriores, para dar la clasificación isométrica de las curvas.

Clasificación

Vamos a demostrar, por medio de los siguientes teoremas, que cualquier polinomio cuadrado es isométricamente equivalente a alguna de las nueve posibles familias canónicas que mencionamos en entradas anteriores, cuando clasificamos las curvas.

Debido a que vimos que el polinomio cuadrático $P(x)=x*Ax+2b*x+c$ con $A=A^T\neq 0$, lo podemos componer con una isometría de la forma $g(x)=Bx+h$ con $B\in O(2)$ y obtener una ecuación de la forma:

\begin{equation}(P\circ g)(x)=x*(B^TAB)x+2B^T(Ah+b)*x+P(h)\end{equation}

Entonces, observa que el análisis para esta clasificación, puede partirse en dos grandes casos que dependen del determinante de la matriz, es decir, cuando $det(A)\neq 0$ y cuando $det(A)=0$.

Antes de analizar cada uno de estos casos, veamos un Lema que nos va a ayudar.

Lema 4.14: Si A es una matriz simétrica con valores propios $\alpha$ y $\beta$, entonces $det(A)=\alpha \beta$

Demostración

Sea $B$ una rotación que diagonaliza a $A$, entonces:

\begin{equation} \alpha \beta=det\begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix}=det(B^TAB)\end{equation}

Y recuerda que el determinante es una función lineal, lo que nos permite realizar la siguiente igualdad:

\begin{equation} \alpha \beta=det(B^TAB)=det(B^T)det(A)det(B)=1*det(A)*1=det(A)\end{equation}

Date cuenta que, con las igualdades anteriores, ya podemos dar por concluida la demostración.

Ahora sí podemos analizar cada uno de los casos que mencionamos al inicio.

Caso 1: $det(A)\neq 0$

De aquí, vamos a separar en varios casos, pero empecemos realizando un análisis general. Nombremos como el centro a $h=-A^{-1}b$ y a $B$ como una rotación que diagonalice a $A$. Entonces, observa que $P$ es isométricamente equivalente a un polinomio de la siguiente forma:

\begin{equation} P_1(x,y)=\alpha x^2+\beta y^2+\gamma\end{equation}

A continuación, vamos a encontrar estas equivalencias usando el Lema 4.14.

Caso 1.1 $det(A)>0$

Hay $3$ posibilidades:

  • $\gamma =0$, entonces la única solución es $(x,y)=(0,0)$
  • $\gamma$ del mismo signo que $\alpha$ y $\beta$, entonces la curva es vacía porque no hay soluciones reales.
  • $\gamma$ de signo opuesto que $\alpha$ y $\beta$, entonces, los ceros de $P_1$ coinciden con las soluciones canónicas de la elipse con $a=\sqrt{\frac{-\gamma}{\alpha}}, b=\sqrt{\frac{-\gamma}{\beta}}$ dada por:

\begin{equation}\frac{x^2}{a^2}+\frac{y^2}{b^2}=1\end{equation}

Caso 1.2 $det(A)<0$

Hay $2$ posibilidades:

  • $\gamma=0$, entonces $P_1$ es una diferencia de cuadrados que, como $\alpha>0$, entonces $a=sqrt{\alpha}, b=\sqrt{-\beta}$ y puede factorizarse como se muestra a continuación. Además, esto implica que se trata de dos rectas cuya intersección es el centro.

\begin{equation}(ax+by)(ax-by)\end{equation}

  • $\gamma\neq 0$, entonces, podemos elegir el primer vector propio correspondiente a $x$, de manera que su valor propio $\alpha$ tenga signo contrario a $\gamma$, lo que implica que los ceros de $P_1$ corresponden a las soluciones de la ecuación canónica de la hipérbola que tiene a $a=\sqrt{-\frac{\gamma}{\alpha}}$ y $b=\sqrt{\frac{\gamma}{\beta}}$, cuya ecuación se puede expresar como:

\begin{equation}\frac{x^2}{a^2}-\frac{y^2}{b^2}=1\end{equation}

Caso 2: $det(A)= 0$

Observa que, en este caso, no tenemos la seguridad de eliminar la parte lineal y que nos conviene simplificar la parte cuadrática. Por el Lema 4.14, uno de los valores propios es cero y el otro es distinto de cero.

Entonces, $P$ es isométricamente equivalente a un polinomio de la forma:

\begin{equation}(x+\alpha )^2+\beta y+(\gamma – \alpha^2)\end{equation}

Comprueba que, si hacemos el cambio de variable dado por $x’=x+\alpha$, podemos simplificar el polinomio anterior como:

\begin{equation}P_2(x,y)=x^2+ay+b\end{equation}

Y de nuevo tenemos dos subcasos.

Caso 2.1 $a=0$

  • $b<0$, entonces, $P_2$ define dos rectas paralelas.
  • $b=0$, entonces $P_2$ es una recta doble.
  • $b>0$, entonces $P_2$ consiste en dos rectas imaginarias.

Caso 2.2 $a\neq 0$

SI hacemos el cambio de variable $y’=y+\frac{b}{a}$, tenemos que $P$ es isométricamente equivalente al polinomio:

\begin{equation}x^2+ay\end{equation}

Que define una parábola.

Tarea moral

  1. Encuentra un polinomio que defina las siguientes curvas cuadráticas:
    • La hipérbola con semieje principal $4$ en la dirección $(2,1)$, semieje secundario $1$ y centro en $(2,3)$.
    • La elipse con semieje mayor $3$ en la dirección $(3,4)$, semieje menor $2$ y centro en $(-1,2)$.
  2. Describe geométricamente las siguientes curvas cuadráticas que están definidas por los siguientes polinomios, además, da su centro la dirección de los ejes y los parámetros o la ecuación canónica correspondiente:
    • $9x^2-4xy+6y^2-58x+24y+59$
    • $66x^2-24xy+59y^2-108x-94y+1$
    • $-7x^2+48xy+7y^2+158x-6y-88$
    • $32x^2+48xy+18y^2+31x-8y-88$

Más adelante…

En la última sección de esta unidad, veremos otra forma de clasificar las curvas, que es mediante la semejanza de curvas cuadráticas.

Geometría Analítica I: Diagonalización ortogonal de matrices simétricas

Introducción

Anteriormente, estudiamos los vectores y valores propios de las matrices simétricas, en esta entrada vamos a usar que ya sabemos muchas cosas sobre el comportamiento respecto al producto interior, para hablar sobre la diagonalización ortogonal de matrices simétricas, cuyo procedimiento inicia resolviendo su polinomio característico.

Teoremas importantes

Antes de ver el proceso para la diagonalización ortogonal de matrices simétricas, vamos a enunciar un lema y un teorema que van a justificar la «receta» a seguir para esta diagonalización.

Lema 4.12: Considera una matriz simétrica $A$. Si $\lambda_1, u$ y $\lambda_2, v$, son pares propios de $A$ con $\lambda_1\neq \lambda_2$, entonces $u$ y $v$ son ortogonales.

Demostración

Sabemos que:

\begin{equation} \lambda_1(u\cdot v)=(\lambda_1u)\cdot v= Au\cdot v=u\cdot Av=u\cdot(\lambda_2 v)=\lambda_2(u\cdot v)\end{equation}

Esto implica que $(\lambda_1 – \lambda_2)(u\cdot v)=0$

Y $\lambda_1\neq \lambda_2$, entonces $u\cdot v$=0.

Con lo que hemos terminado la demostración.

Teorema 4.13: Considera una matriz simétrica de $2×2$, $A$. Entonces existe una rotación $B\in O(2)$ tal que $B^TAB$ es diagonal de la siguiente forma:

\begin{equation}\begin{pmatrix} \lambda_1 & 0 \\ 0 & \lambda_2\end{pmatrix}\end{equation}

Con $\lambda_1$ y $\lambda_2$, los valores propios de $A$.

Demostración

Por las entradas anteriores, las siguientes implicaciones son ciertas, puedes comprobarlo tú mismo con facilidad.

Como $A$ es simétrica de $2×2$, entonces $A$ tiene valores propios $\lambda_1, \lambda_2 \in \mathbb R$.

Caso 1 $\lambda_1=\lambda_2$

Entonces $A$ es diagonal y puede tomarse a $B$ como la matriz identidad que es rotación en $O(2)$.

Caso 2 $\lambda_1\neq \lambda_2$

Consideramos a $u, v$, los vectores propios correspondientes a $\lambda_1$ y $\lambda_2$. Observa que $u$ es diferente al vector cero.

Sabemos que $u$ y $v$ son ortogonales, entonces $v$ es paralelo a $u^T$ que también es vector propio correspondiente a $\lambda_2$.

Considera $B=\frac{1}{|u|} (u, u^T)$, donde se puede comprobar fácilmente que $B$ es la matriz de una rotación y que cumple que $B^TAB$ es diagonal.

«Receta»

Ingredientes

  1. Una matriz simétrica $A=A^T$ de $2×2$

Procedimiento

  1. Resolver su polinomio característico con $det(A-\lambda I)$.
  2. Encontrar $u\neq 0$ tal que $(A-\lambda_1 I)u=0$.
  3. Declarar $B=\frac{1}{|u|} (u, u^T)$.
  4. La matriz diagonal, con entradas $\lambda_1$ y $\lambda_2$, estará dada por $B^TAB$.

Tarea moral

  1. Termina de escribir la demostración del Teorema 4.13.
  2. Demuestra que, si una matriz $A$ cualquiera, tiene dos valores propios distintos, entonces existe una matriz $B\in Gl(2)$ tal que $B^{-1}AB$ es diagonal.
  3. Encuentra la matriz $B$ de una rotación que diagonalice las siguientes matrices simétricas: Además, calcula $B^TAB$:
    • \begin{equation}A=\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix}\end{equation}
    • \begin{equation}A=\begin{pmatrix} -6 & 12 \\ 12 & 1 \end{pmatrix}\end{equation}
    • \begin{equation}A=\begin{pmatrix} -7 & -6 \\ -6 & 2 \end{pmatrix}\end{equation}

Más adelante…

Avanza a las siguientes entradas, en las que usaremos estos conocimientos para dar dos nuevas formas de clasificación de las curvas.

Geometría Analítica I: Valores y vectores propios

Introducción

Mucho hemos hablado, a lo largo de las entradas anteriores, sobre las soluciones de las ecuaciones resultantes de la forma $det(A-I\lambda)=0$ con $A$ matriz y $x$ vector; sin embargo, aún no nos hemos dedicado a resolver este tipo de ecuaciones. En esta entrada, hablaremos de las soluciones de estas ecuaciones que se llaman valores propios y que tienen un vector propio asociado.

¿Qué son?

Si tienes una matriz cuadrada $A$, vamos a decir que un vector $v$ es vector propio de $A$ con valor propio $\lambda \in \mathbb R$, si $v\neq 0$ y $Av=\lambda v$. A la pareja $\lambda , v$, la vamos a llamar pareja propia de A y el principal problema de estudio de esta entrada será encontrar a estas parejas.

Implicaciones importantes

Lema 4.7: Si $u$ y $v$ son vectores propios de $A$ con el mismo valor $\lambda \in \mathbb R$, entonces cualquier combinación lineal no trivial de ellos también es vector propio de $A$.

Demostración

Si tenemos dos parejas de $A$, $u$, $v$ que cumplen $Au=\lambda u$ y $Av=\lambda v$, entonces, para cualquier par de coeficientes $\alpha, \beta \in \mathbb R$ se tiene que, la combinación lineal de $u$ y $v$ con estos vectores, se cumple:

\begin{equation} A(\alpha u+\beta v)=\alpha (Au)+ \beta(Av)=\alpha (\lambda u)+\beta (\lambda v)=\lambda (\alpha u+\beta v)\end{equation}

Lo que significa que, si $\alpha u+ \beta v\neq 0$, entonces es vector propio de $A$ con valor propio $\lambda$.

Con lo que hemos terminado la demostración.

El siguiente lema es muy importante para realizar los cálculos.

Lema 4.8: Para cualquier matriz A cuadrada, se cumple: $\lambda$ es un valor propio de $A$ si y solo si, $det(A-\lambda I)=0$

Demostración

Sabemos que, como $\lambda$ es valor propio de $A$, entonces tiene a su vector propio $v$ correspondiente que cumple que: $Av=\lambda v$.

$\Longleftrightarrow Av-\lambda v=0$

$\Longleftrightarrow (A-\lambda I)v=0$

Y, como $v\neq 0$, entonces:

$\Longleftrightarrow det(A-\lambda I)=0$

Fin de la demostración.

Observa que, con los conocimientos que tenemos hasta el momento, ya puedes demostrar fácilmente el siguiente Lema y Corolario.

Lema 4.9: Si A es una matriz simétrica de $2×2$, entonces $A$ tiene dos valores propios $\lambda_1$ y $\lambda_2$ en $\mathbb R$.

Corolario 4.10: Sea $A$ una matriz simétrica de $2×2$, con valores propios $\lambda_1$ y $\lambda_2$. Entonces, sus valores propios coinciden ($\lambda_1 =\lambda_2$) si y solo si, $A= \lambda_1 I$. En este caso, cualquier vector $v\neq 0$ es vector propio.

Corolario 4.11: Considera una matriz simétrica $A$ de $2×2$. Entonces, existe una base $u, v \in \mathbb R^2$, donde $u$ y $v$ son vectores propios de $A$.

Demostración

Por el Lema 4.9, sabemos que $A$ tiene dos valores propios $\lambda_1$ y $\lambda_2$.

Caso 1, $\lambda_1=\lambda_2$

Por el Corolario 4.10, cualquier base $u,v \in \mathbb R^2$ funciona.

Caso 2, $\lambda_1\neq \lambda_2$

Por la definición de valor propio, existen $u,v$, vectores distintos de $0$ que corresponden a los valores propios $\lambda_1$ y $\lambda_2$ respectivamente.

Estos vectores no pueden ser paralelos porque por el Lema 4.8, esto implicaría que $\lambda_1=\lambda_2$.

Entonces, $u$ y $v$ forman una base de $\mathbb R^2$.

Terminamos la demostración.

Ejemplo

Calculemos los valores y vectores propios de la siguiente matriz simétrica:

\begin{equation}A=\begin{pmatrix} 2 & 2 \\ 2 & -1\end{pmatrix}\end{equation}

Valores propios

Recordemos que, para encontrar los valores propios, debemos resolver su polinomio característico que está dado por $det(A-\lambda I)$:

\begin{equation}det(A-\lambda I)=det\left(\begin{pmatrix} 2 & 2 \\ 2 & -1\end{pmatrix}-\begin{pmatrix} \lambda & 0\\ 0 & \lambda\end{pmatrix}\right)\end{equation}

Si continuamos con el desarrollo de la expresión anterior, comprueba que llegamos al siguiente polinomio característico:

\begin{equation}det(A-\lambda I)= \lambda^2-\lambda -6\end{equation}

Para resolver el polinomio anterior, debemos igualarlo a $0$, de donde vamos a obtener que, las raíces del polinomio son: $\lambda_1=\frac{1+\sqrt{1+24}}{2}=3$ y $\lambda_2=\frac{1-5}{2}=-2$

Vectores propios

Para encontrar los vectores propios correspondientes a $\lambda_1$ y $\lambda_2$, debemos encontrar una solución no trivial para los sistemas $(A-\lambda_i I)x=0$ con $i=1,2$

Para $\lambda_1=3$

\begin{equation}(A-3I)x=\begin{pmatrix} -1 & 2 \\ 2 & -4\end{pmatrix}\begin{pmatrix} x\\ y\end{pmatrix}=\begin{pmatrix} -x+2y\\ 2x-4y\end{pmatrix}=\begin{pmatrix} 0 \\ 0\end{pmatrix}\end{equation}

De donde obtenemos el siguiente sistema:

\begin{equation}\begin{matrix}-x+2y=0\\2x-4y=0\end{matrix}\end{equation}

Donde, una de sus soluciones no triviales es $u^T=(2,1)$

Para $\lambda_2=-2$

\begin{equation}(A-(-2)I)x=\begin{pmatrix} 4 & 2 \\ 2 & 1\end{pmatrix}\begin{pmatrix} x\\ y\end{pmatrix}=\begin{pmatrix} 4x+2y\\ 2x+y\end{pmatrix}=\begin{pmatrix} 0 \\ 0\end{pmatrix}\end{equation}

De donde obtenemos el siguiente sistema:

\begin{equation}\begin{matrix}4x+2y=0\\2x+y=0\end{matrix}\end{equation}

Donde, una de sus soluciones no triviales es $v^T=(-1,2)$

Observa que estos vectores $u$ y $v$ son ortogonales, ¿será coincidencia? Lo veremos más adelante.

Tarea moral

  1. Comprueba que, para los vectores propios obtenidos en los sistemas de ecuaciones $(6)$ y $(7)$, se cumple que $Au=3u$ y que $Av=-2v$.
  2. Demuestra, con un argumento algebraico y uno geométrico, que la matriz \begin{equation}\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\end{equation} no tiene vectores propios.
  3. Demuestra que la matriz \begin{equation}\begin{pmatrix} a & -b \\ b & a \end{pmatrix}\end{equation} no tiene vectores propios para $b\neq0$.
  4. Usa el Lema 4.9 para demostrar el Corolario 4.10.
  5. Demuestra el Lema 4.9. Hint: usa que, al ser $A$ matriz simétrica, entonces $A=A^T$, después, expresa a $A$ de la siguiente forma y desarrolla:

\begin{equation}A=\begin{pmatrix} a & b \\ b & c\end{pmatrix} \end{equation}

Más adelante…

En la siguiente entrada, concluiremos nuestro estudio de los valores y vectores propios, analizando la diagonalización ortogonal de matrices simétricas.