Archivo de la etiqueta: valores propios

Ecuaciones Diferenciales I – Videos: Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Valores propios complejos

Por Eduardo Vera Rosales

Introducción

En la entrada anterior comenzamos el estudio del método de valores y vectores propios para resolver sistemas de ecuaciones lineales homogéneas con coeficientes constantes, de la forma X˙=AX. Vimos que si somos capaces de encontrar n vectores propios de la matriz A linealmente independientes, entonces las funciones de la forma eλtv, donde λ es un valor propio con vector propio asociado v, son soluciones linealmente independientes, y por tanto la combinación lineal de estas será la solución general del sistema. También estudiamos el caso cuando A tiene todos sus valores propios reales y distintos.

En esta entrada nos dedicaremos a estudiar el caso cuando A tiene valores propios complejos. Dado que eλtv es una solución compleja al sistema, entonces la solución general sería una función con valores complejos. Sin embargo nosotros queremos soluciones con valores reales, por lo que debemos hallar una forma de generar soluciones de esta forma.

Lo primero será ver que las partes real e imaginaria de una solución compleja al sistema X˙=AX serán soluciones reales al mismo sistema. Además este par de soluciones serán linealmente independientes. Así, seremos capaces de encontrar un conjunto linealmente independiente de n soluciones reales al sistema mediante el método de valores y vectores propios que nos ayuda a encontrar soluciones de la forma eλtv.

Finalizaremos la entrada con tres ejemplos, uno de ellos el problema del oscilador armónico, el cual revisamos en el siguiente video y que tiene asociado una ecuación diferencial de segundo orden. Resolveremos el mismo problema pero ahora mediante un sistema de ecuaciones homogéneo.

Método de valores y vectores propios. Raíces complejas del polinomio característico

Encontramos dos soluciones reales al sistema X˙=AX dada una solución compleja de la forma eλtv donde λ es un valor propio complejo con vector propio asociado v. Las soluciones reales serán las partes real e imaginaria de la solución compleja. Además las dos soluciones reales serán linealmente independientes.

El oscilador armónico y más ejemplos

En el primer video resolvemos un par de ejemplos de sistemas cuya matriz asociada tiene valores propios complejos. En el segundo video resolvemos el problema del oscilador armónico sin fricción y sin fuerzas externas mediante un sistema de ecuaciones.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Supongamos que X˙=AX es un sistema lineal homogéneo con coeficientes constantes de 4 ecuaciones, y supongamos que λ, λ¯, μ y μ¯ son los valores propios complejos de A con vectores propios v, v¯, w y w¯, respectivamente. Prueba que si Y1(t), Z1(t) son las partes real e imaginaria de eλtv, y si Y2(t), Z2(t) son las partes real e imaginaria de eμtw entonces Y1(t), Z1(t), Y2(t) y Z2(t) son soluciones linealmente independientes al sistema.
  • Supongamos que X˙=AX es un sistema lineal homogéneo con coeficientes constantes de 3 ecuaciones. ¿Es posible que la matriz A tenga tres valores propios complejos?
  • Demuestra que la matriz (abba), con b0 tiene valores propios complejos.
  • Encuentra la solución general al sistema X˙=(1211)X.
  • Resuelve el problema de condición inicial X˙=(2621)X;X(0)=(10).

Más adelante

En la próxima entrada concluimos el estudio al método de valores y vectores propios estudiando el caso cuando A es una matriz diagonalizable con valores propios repetidos, y también el caso cuando A no es diagonalizable, es decir, cuando A no tiene n vectores propios linealmente independientes, por lo que no se pueden generar n soluciones linealmente independientes al sistema en la forma que lo hemos venido haciendo. En este caso debemos introducir un concepto nuevo, que es el de vector propio generalizado, y modificar el método de valores y vectores propios para encontrar las n soluciones linealmente independientes al sistema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Analítica I: Valores y vectores propios

Por Paola Lizeth Rojas Salazar

Introducción

Mucho hemos hablado, a lo largo de las entradas anteriores, sobre las soluciones de las ecuaciones resultantes de la forma det(AIλ)=0 con A matriz y x vector; sin embargo, aún no nos hemos dedicado a resolver este tipo de ecuaciones. En esta entrada, hablaremos de las soluciones de estas ecuaciones que se llaman valores propios y que tienen un vector propio asociado.

¿Qué son?

Si tienes una matriz cuadrada A, vamos a decir que un vector v es vector propio de A con valor propio λR, si v0 y Av=λv. A la pareja λ,v, la vamos a llamar pareja propia de A y el principal problema de estudio de esta entrada será encontrar a estas parejas.

Implicaciones importantes

Lema 4.7: Si u y v son vectores propios de A con el mismo valor λR, entonces cualquier combinación lineal no trivial de ellos también es vector propio de A.

Demostración

Si tenemos dos parejas de A, u, v que cumplen Au=λu y Av=λv, entonces, para cualquier par de coeficientes α,βR se tiene que, la combinación lineal de u y v con estos vectores, se cumple:

(1)A(αu+βv)=α(Au)+β(Av)=α(λu)+β(λv)=λ(αu+βv)

Lo que significa que, si αu+βv0, entonces es vector propio de A con valor propio λ.

Con lo que hemos terminado la demostración.

El siguiente lema es muy importante para realizar los cálculos.

Lema 4.8: Para cualquier matriz A cuadrada, se cumple: λ es un valor propio de A si y solo si, det(AλI)=0

Demostración

Sabemos que, como λ es valor propio de A, entonces tiene a su vector propio v correspondiente que cumple que: Av=λv.

Avλv=0

(AλI)v=0

Y, como v0, entonces:

det(AλI)=0

Fin de la demostración.

Observa que, con los conocimientos que tenemos hasta el momento, ya puedes demostrar fácilmente el siguiente Lema y Corolario.

Lema 4.9: Si A es una matriz simétrica de 2×2, entonces A tiene dos valores propios λ1 y λ2 en R.

Corolario 4.10: Sea A una matriz simétrica de 2×2, con valores propios λ1 y λ2. Entonces, sus valores propios coinciden (λ1=λ2) si y solo si, A=λ1I. En este caso, cualquier vector v0 es vector propio.

Corolario 4.11: Considera una matriz simétrica A de 2×2. Entonces, existe una base u,vR2, donde u y v son vectores propios de A.

Demostración

Por el Lema 4.9, sabemos que A tiene dos valores propios λ1 y λ2.

Caso 1, λ1=λ2

Por el Corolario 4.10, cualquier base u,vR2 funciona.

Caso 2, λ1λ2

Por la definición de valor propio, existen u,v, vectores distintos de 0 que corresponden a los valores propios λ1 y λ2 respectivamente.

Estos vectores no pueden ser paralelos porque por el Lema 4.8, esto implicaría que λ1=λ2.

Entonces, u y v forman una base de R2.

Terminamos la demostración.

Ejemplo

Calculemos los valores y vectores propios de la siguiente matriz simétrica:

(2)A=(2221)

Valores propios

Recordemos que, para encontrar los valores propios, debemos resolver su polinomio característico que está dado por det(AλI):

(3)det(AλI)=det((2221)(λ00λ))

Si continuamos con el desarrollo de la expresión anterior, comprueba que llegamos al siguiente polinomio característico:

(4)det(AλI)=λ2λ6

Para resolver el polinomio anterior, debemos igualarlo a 0, de donde vamos a obtener que, las raíces del polinomio son: λ1=1+1+242=3 y λ2=152=2

Vectores propios

Para encontrar los vectores propios correspondientes a λ1 y λ2, debemos encontrar una solución no trivial para los sistemas (AλiI)x=0 con i=1,2

Para λ1=3

(5)(A3I)x=(1224)(xy)=(x+2y2x4y)=(00)

De donde obtenemos el siguiente sistema:

(6)x+2y=02x4y=0

Donde, una de sus soluciones no triviales es uT=(2,1)

Para λ2=2

(7)(A(2)I)x=(4221)(xy)=(4x+2y2x+y)=(00)

De donde obtenemos el siguiente sistema:

(8)4x+2y=02x+y=0

Donde, una de sus soluciones no triviales es vT=(1,2)

Observa que estos vectores u y v son ortogonales, ¿será coincidencia? Lo veremos más adelante.

Tarea moral

  1. Comprueba que, para los vectores propios obtenidos en los sistemas de ecuaciones (6) y (7), se cumple que Au=3u y que Av=2v.
  2. Demuestra, con un argumento algebraico y uno geométrico, que la matriz (9)(0110) no tiene vectores propios.
  3. Demuestra que la matriz (10)(abba) no tiene vectores propios para b0.
  4. Usa el Lema 4.9 para demostrar el Corolario 4.10.
  5. Demuestra el Lema 4.9. Hint: usa que, al ser A matriz simétrica, entonces A=AT, después, expresa a A de la siguiente forma y desarrolla:

(11)A=(abbc)

Más adelante…

En la siguiente entrada, concluiremos nuestro estudio de los valores y vectores propios, analizando la diagonalización ortogonal de matrices simétricas.

Ecuaciones Diferenciales I – Videos: Método de valores y vectores propios para sistemas lineales homogéneos con coeficientes constantes. Valores propios distintos

Por Eduardo Vera Rosales

Introducción

En la entrada anterior dimos las definiciones elementales y necesarias para diagonalizar una matriz de coeficientes constantes. Vimos los conceptos de valores y vectores propios y el polinomio característico, todo esto para poder encontrar la matriz etA. Sabemos que etA es una matriz fundamental de soluciones al sistema lineal homogéneo X˙=AX, por lo que sus columnas son soluciones linealmente independientes a dicho sistema. Así, de paso encontramos la solución general al sistema X˙=AX.

Ahora vamos a olvidarnos un poco de etA, y vamos a resolver X˙=AX pero de una manera ligeramente distinta. Lo que haremos será suponer que una solución a tal sistema es de la forma X(t)=eλtv para cierto vector constante v. Resultará que X(t) será solución al sistema si y sólo si Av=λv. Es decir, si y sólo si v es un vector propio de la matriz A del sistema, y λ es el valor propio asociado a v.

El método de valores y vectores propios que desarrollamos para diagonalizar una matriz en la entrada anterior, nos servirá de la misma manera para hallar la solución general al sistema X˙=AX, al menos si A es diagonalizable, pues ya sabemos cómo encontrar los valores y vectores propios de A, y al tener n valores propios con sus respectivos vectores propios, entonces seremos capaces de encontrar n soluciones linealmente independientes al sistema y formas la solución general a este.

Una vez establecido cómo debe verse la solución general al sistema, finalizaremos la entrada resolviendo un par de ejemplos de sistemas donde la matriz A es diagonalizable y las raíces del polinomio característico igualado a cero son todas reales y distintas.

La solución general al sistema lineal homogéneo con coeficientes constantes

Hallamos la solución general al sistema lineal homogéneo X˙=AX, suponiendo que A es una matriz diagonalizable.

Método de valores y vectores propios. Raíces reales distintas del polinomio característico

Mediante un par de ejemplos revisamos el caso cuando A es diagonalizable y las raíces del polinomio característico son todas reales y distintas. Además en el segundo ejemplo, verificamos que etA=Xf(t)Xf10 donde Xf(t) es una matriz fundamental de soluciones al sistema. La matriz del segundo ejemplo fue diagonalizada en el siguiente video de la entrada anterior, y calculamos etA. (Compara los resultados obtenidos).

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Resuelve los siguientes sistemas y problemas de condición inicial. Encuentra etA en cada caso:

  • X˙=(1142)X.
  • X˙=(1432)X;X(0)=(110).
  • X˙=(114321211)X.
  • X˙=(010202010)X;X(0)=(100).

Más adelante

Una vez que hemos logrado escribir la solución general al sistema X˙=AX, cuando A es diagonalizable, continuaremos revisando los posibles casos que se presentan con las raíces del polinomio característico. En particular, en la siguiente entrada revisaremos el caso cuando se presentan raíces complejas, es decir, cuando aparecen valores propios complejos de la matriz A.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal II: El teorema de descomposición polar real

Por Ayax Calderón

Introducción

En la entrada anterior enunciamos y demostramos el teorema espectral para matrices simétricas reales. Una de las consecuencias de este teorema es el teorema de descomposición polar. Se puede pensar en el teorema de descomposición polar como al análogo a un resultado muy conocido de números complejos: cualquier número complejo se puede pensar de la forma z=eiθr con r0 real. Geométricamente, el complejo se obtiene «rotando tanto como el argumento y luego alargando de acuerdo a la norma».

Así mismo, veremos que toda matriz A tendrá una expresión de la forma A=US donde U es una matriz ortogonal (que juega el papel de «la rotación») y S es una matriz simétrica positiva (que por el teorema espectral recordemos que es básicamente «alargar en varias direcciones»). Este resultado es increíble: ¡nos dice cómo son todas, todas las matrices reales en términos de matrices muy sencillas: las ortogonales (que conocemos muy bien) y las simétricas (que por el teorema espectral también conocemos muy bien)!

Caso invertible del teorema de descomposición polar

Recordemos un resultado de la entrada anterior, que era una de las partes de nuestro teorema de clasificación de matrices positivas. Nos dice que las matrices simétricas positivas «tienen raíz cuadrada».

Proposición. Sea A una matriz simétrica positiva. Entonces existe una matriz simétrica B tal que B2=A.

Como recordatorio, para obtener a B lo que hicimos fue diagonalizar a A de la forma A=P1DP con D matriz diagonal cuyas entradas eran λ1,,λn los eigenvalores de A. Como A era positiva, sus eigenvalores eran no negativos, así que podíamos construir D con entradas λ1,,λn. Después, vimos que B=P1DP servía para que B2=A. Observa que además B es positiva pues sus eigenvalores son no negativos.

Como observación adicional, si A fuera positiva definida entonces sus eigenvalores serían positivos, y entonces B también tendría eigenvalores positivos. Así, B sería positiva definida también. De hecho, se puede demostrar que en este caso la matriz B es única (bajo la condición de ser simétrica positiva definida y raíz de A). Probar esto queda como parte de los ejercicios de la entrada.

Estamos listos para enunciar y demostrar el teorema de descomposición polar en el caso de matrices invertibles.

Teorema (De descomposición polar, caso invertible). Sea AMn(R) una matriz invertible. Entonces existe una única pareja (U,S) con U una matriz ortogonal y S una matriz simétrica positiva definida para la que se cumple que A=US.

Demostración. Tomemos AMn(R) una matriz invertible. La matriz tAA es simétrica y positiva definida. Por la discusión anterior, existe una única matriz simétrica positiva definida S tal que tAA=S2. Como A es invertible, S también lo es, así que definamos U=AS1.

Afirmamos que (U,S) cumplen con lo requerido. Ya justificamos que S es simétrica positiva definida. Además, de U=AS1 se obtiene inmediatamente US=A. Sólo falta verificar que U es ortogonal. Para ello, al multiplicarla con su transpuesta obtenemos lo siguiente:
tUU=tS1tAAS1=S1S2S1=In.

Veamos ahora la unicidad. Supongamos que A=US con U ortogonal y S simétrica positiva definida, Entonces
tAA=StUUS=S2.

De esta manera, S es precisamente la raíz cuadrada de tAA, que por la discusión anterior es única. Deducimos entonces que S=S y por lo tanto U=AS1=AS1=U.

◻

Caso general del teorema de descomposición polar

Es natural preguntarse qué sucede cuando la matriz A no es invertible. Resulta que en ese caso aún podemos encontrar una descomposición, aunque perdemos un poco de las propiedades de las matrices y la unicidad. Por ejemplo, si A=On, entonces A=UOn para cualquier matriz ortogonal U y entonces tenemos muchas posibles descomposiciones.

Teorema (De descomposición polar, caso general). Cualquier matriz AMn(R) se puede escribir de la forma A=US con U una matriz ortogonal y S una matriz simétrica positiva.

¿Por qué falla nuestra demostración? Todavía tenemos que tAA es positiva, así que podríamos tomar una raíz cuadrada S. El problema es que como A no es invertible, entonces S tampoco lo es. Por ello, no podemos definir U=AS1 como lo hicimos con anterioridad. Sin embargo, podemos ser astutos y «cambiar tantito» a A para que sí se vuelva invertible. De hecho, podemos tomar muchas matrices que se acercan a A y sí son invertibles. Con ello podemos usar un «argumento al límite». Formalicemos estas ideas.

Demostración. Consideremos las matrices Ak=A+1kIn. Recordemos que det(A+λIn) es un polinomio de grado n así que tiene a lo más n raíces. Por ello, existe un k0 tal que para toda k>k0 la matriz Ak es invertible. Al aplicar el teorema de descomposición polar a cada una de dichas Ak, obtenemos una matriz ortogonal Uk y una simétrica positiva definida Sk tales que

Ak=UkSk.

Las entradas de cada Uk cumplen que están en el intervalo [1,1] (pues la suma de las entradas de cada fila es igual a 1). Así, Uk es una sucesión de matrices en el compacto de matrices con entradas [1,1]. En un compacto toda sucesión tiene una subsucesión convergente, así que podemos elegir una subsucesión de estas matrices, digamos Uk1,Uk2, que converge a una matriz U.

Se puede ver que el producto de matrices es continúo y obtener inversas de matrices también es continuo (por ejemplo, por las fórmulas de inversa por matriz de adjuntos). De este modo, aplicando límite j a la igualdad tUkjUkj=In obtenemos que tU=In, de modo que U es ortogonal.

Del mismo modo, como trasponer es continuo, Sk1,Sk2, converge a una matriz simétrica S. Finalmente, usando nuevamente la continuidad del producto de matrices obtenemos

A=limjAkj=limjUkjSkj=US.

Sólo nos falta demostrar que S es positiva, pero si tomamos XRn, entonces pasando al límite j en la desigualdad tXSkjX>0 obtenemos tXSX0. Aquí es donde se podría perder que S es positiva definida, pero seguimos teniendo que S es positiva.

◻

Más adelante…

Tanto el teorema espectral como el teorema de descomposición polar son resultados de caracterización fundamentales en álgebra lineal y finalmente nos dan una respuesta a la pregunta de, geométricamente, cómo son todas las posibles transformaciones lineales. En las siguientes secciones se esbozarán los resultados análogos para el caso complejo.

Después de ello, en la cuarta unidad del curso cubriremos otro teorema que nos permitirá decir «cómo son todas las matrices». Quizás no todas las matrices sean directamente similares a una matriz diagonal. Pero enunciaremos y demostraremos el teorema de Jordan que dirá que cualquier matriz es similar a una «casi diagonal», a la que llamaremos diagonal por bloques.

Tarea moral

  1. Sean que A y B son matrices simétricas. Demuestra que A y B conmutan si y sólo si existe una misma matriz P tal que PAP1 y PBP1 son diagonales (a esto se le conoce como que A y B sean «simultáneamente diagonalizables»)
  2. Usando el ejercicio anterior, demuestra que si A es simétrica positiva definida, y se cumple B2=A=C2 con B y C matrices simétricas positivas definidas, entonces B=C.
  3. Sean A,BMn(R) matrices tales que tAA=tBB. Demuestra que existe una matriz ortogonal UMn(R) tal que B=UA.
  4. Encuentra la descomposición polar de (115210).
  5. Sea A una matriz cuadrada con descomposición polar A=WP. Demuestra que A es normal si y sólo si WP2=P2W.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Propiedades de eigenvectores y eigenvalores

Por Julio Sampietro

Introducción

En la entrada anterior platicamos acerca de eigenvectores, eigenvalores y eigenespacios de matrices y transformaciones lineales. Vimos algunos ejemplos básicos. En esta entrada profundizaremos en el estudio de estos objetos y exploraremos diversas de sus propiedades. Comenzaremos con algunas observaciones inmediatas. Después, veremos cómo encontrar de manera sencilla los eigenvalores de las matrices triangulares superiores. También veremos que «eigenvectores correspondientes a eigenvalores diferentes son linealmente independientes«. Finalmente, conectaremos estas nuevas ideas con un objeto que estudiamos previamente: el polinomio mínimo.

Primeras observaciones

A partir de la proposición de la entrada anterior que nos dice cómo calcular eigenvalores se desprenden algunas consecuencias sencillas pero útiles.

Por ejemplo, recuerda que el determinante de una matriz y su transpuesta es igual. En particular, si AMn(F) entonces

det(λIn tA)=det( t(λInA))=det(λInA).

Luego det(λInA)=0 si y sólo si det(λIn tA)=0. Recordando que las raíces de estos polinomios son precisamente los eigenvalores, se sigue que los eigenvalores de A y tA son iguales.

Por otro lado, como los eigenvalores son las raíces de un polinomio de grado n, sabemos que hay a lo más n soluciones. Entonces toda matriz tiene a lo más n eigenvalores.

Esto también ocurre para transformaciones lineales en espacios de dimensión finita y lo podemos enunciar como sigue:

Corolario. Sea V un espacio de dimensión finita sobre F y T:VV lineal. Entonces T tiene a lo más dimV eigenvalores distintos.

Sin embargo, si el espacio no es de dimensión finita no podemos hacer tal afirmación. Si V es el espacio de todas las funciones suaves (es decir con derivadas de todos los órdenes) de R en R y T:VV es la función lineal que a cada función la manda en su derivada, entonces tenemos «muchos» eigenvalores. Haciendo esto más preciso, para cada real r la función erx es un eigenvector con eigenvalor r puesto que

T(erx)=(erx)=rerx.

Así, tenemos al menos tantos eigenvalores como números reales. De hecho, estos son exactamente los eigenvalores de T, lo cual puede demostrarse mediante el teorema de existencia y unicidad de soluciones de ecuaciones diferenciales, que estudiarás en otro momento de tu formación matemática.

Matrices triangulares superiores

Parte del interés de «triangular» matrices (es decir, encontrar una matriz similar que sea triangular superior) está dada por la facilidad de calcular sus eigenvalores. Exploramos esto mediante los siguientes dos problemas.

Problema 1. Sea A=[aij] una matriz triangular superior en Mn(F). Demuestra que los eigenvalores de A son precisamente los elementos en la diagonal.

Solución. Ya establecimos que encontrar los valores propios se reduce a encontrar las raíces del polinomio det(λInA). Notamos que si A es triangular superior, entonces λInA también es triangular superior. Más aún, las entradas de la diagonal son simplemente λaii. Pero sabemos que el determinante de una matriz triangular superior es el producto de sus entradas diagonales. Así

det(λInA)=(λa11)(λa22)(λann)

cuyas raíces son exactamente los elementos aii.

◻

Podemos combinar el resultado anterior con otras propiedades de matrices triangulares superiores para resolver a mano algunos problemas que de entrada parecen complicados.

Problema 2. Encuentra los eigenvalores de A3 donde

A=(12340567008900010)M4(R).

Solución. En realidad no hace falta hacer el producto de matrices para encontrar la matriz A3. Sabemos que el producto de dos matrices triangulares superiores es triangular superior y que de hecho las entradas de la diagonal son solo el producto de las entradas correspondientes. Es decir, si [aij] y [bij] son dos matrices triangulares superiores, las entradas de la diagonal son aiibii. En nuestro caso, las entradas de la diagonal son 13,53,83 y 103, y por el problema anterior, estos son precisamente los eigenvalores de A3.

Relaciones con independencia lineal y combinaciones polinomiales

El resultado principal de esta entrada es el siguiente teorema, que en particular afirma que si dos eigenvalores son distintos, sus eigenvectores son linealmente independientes. En realidad, el resultado es un poco más general y lo enunciamos a continuación

Teorema. Sean λ1,,λk eigenvalores distintos dos a dos de una transformación lineal T:VV. Entonces los λi-eigenespacios están en posición de suma directa.

Demostración. Por definición, tenemos que demostrar que si tenemos una colección {vi} de vectores con T(vi)=λivi y v1++vk=0 entonces v1==vk=0. Procedemos por inducción sobre k.

Nuestro caso base es una tautología, pues si k=1 entonces tenemos que mostrar que si v1=0 entonces v1=0.

Asumamos que el resultado se cumple para k1 y verifiquemos que se cumple para k. Supongamos que v1++vk=0. Aplicando T de ambos lados de esta igualdad llegamos a

T(v1++vk)=T(v1)++T(vk)=λ1v1++λkvk=0.

Por otro lado, si multiplicamos a la igualdad v1++vk=0 por λk de ambos lados llegamos a

λkv1++λkvk=0.

Sustrayendo y factorizando estas dos igualdades se sigue que

(λkλ1)v1++(λkλk1)vk1=0.

Esto es una combinación lineal de los primeros k1 vectores vi igualada a cero. Luego, la hipótesis inductiva nos dice que (λkλi)vi=0 para todo i=1,,k1. Como λkλi entonces λkλi0 y entonces vi=0. Sustituyendo en la igualdad original, esto implica que vk=0 inmediatamente.

◻

Enseguida veremos que si formamos un polinomio P(T), entonces P(λ) es un eigenvalor de P(T) para cualquier eigenvalor λ de T. Esto lo veremos en el siguiente problema.

Problema. Sea λ un eigenvalor de T:VV y sea P un polinomio en una variable con coeficientes en F. Demuestra que P(λ) es un eigenvalor de P(T).

Solución. Como λ es un eigenvalor de T, existe v un vector no cero tal que T(v)=λv. Inductivamente, se cumple que Tk(v)=λkv. En efecto

Tk+1(v)=T(Tk(v))=T(λkv)=λkT(v)=λk+1v.

Usando esto, si P(X)=anXn++a1X+a0 se tiene que

P(T)(v)=anTn(v)++a1T(v)+a0v=anλnv++a1λv+a0v=(anλn++a1λ+a0)v=P(λ)v.

Esto muestra que P(λ) es un eigenvalor de P(T).

◻

Relación con el polinomio mínimo

Una consecuencia del problema previo es la siguiente proposición.

Proposición. Sea AMn(C) una matriz y PC[X] un polinomio tal que P(A)=On. Entonces cualquier eigenvalor λ de A satisface P(λ)=0.

Solución. Por el problema anterior, P(λ) es un eigenvalor de P(A), pero P(A)=On y el único eigenvalor de la matriz cero es 0. Luego P(λ)=0.

◻

De esto, podemos por fin establecer una conexión con el polinomio mínimo, que enunciamos en forma de teorema.

Teorema. Sea T:VV una transformación lineal sobre un espacio de dimensión finita sobre un campo F. Los eigenvalores de T son precisamente las raíces en F del polinomio mínimo μT.

Demostración. Dado que μT(T)=0, el problema que acabamos de resolver nos dice que todos los eigenvalores de T son raíces de μT.

Conversamente, supongamos que existe λ una raíz de μT que no es eigenvalor. Entonces la transformación TλId es invertible. Como μT(λ)=0, podemos factorizar la raíz y escribir μT(X)=(Xλ)Q(X) para algún QF[X]. Dado que μT(T)=0 deducimos que

(TλId)Q(T)=0.

Recordando una vez más que TλId es invertible, esta ecuación implica que Q(T)=0. Ya que μT es el polinomio mínimo, por una propiedad que mostramos anteriormente obtendríamos que μT divide a Q. Pero esto se contradice con la igualdad μT(X)=(Xλ)Q(X), que nos dice que μT tiene grado mayor. Esto concluye la demostración.

◻

Ejercicios

Terminamos con un par de ejercicios para repasar el material de estas secciones. El primero de entre ellos toma prestados nombres de la probabilidad (lo lo cuál puede sugerirte en qué tipo de texto te podrías encontrar con estas matrices).

Problema 1. Una matriz AMn(R) se dice estocástica si aij0 para todo i,j{1,,n} y j=1naij=1 para todo i{1,,n}.

Demuestra que 1 es un eigenvalor de cualquier matriz estocástica.

Solución. Consideremos el vector v=(1,,1). Nota que

Av=(a11a12a1na21a22a2nan1an2ann)(111)=(a11+a12++a1na21+a22++a2nan1+an2++ann)=(111).

Es decir Av=v, por lo que v es un eigenvector de A con eigenvalor asociado 1.

◻

Problema 2. Sea V el espacio de todos los polinomios con coeficientes reales. Sea T:VV la transformación lineal dada por P(X)P(1X). ¿Cuáles son los eigenvalores de T?

Solución. Observa que
T2(P)=TT(P)=T(P(1X))=P(1(1X))=P(X). Así T2=Id, o bien T2Id=0. Luego, el polinomio mínimo μT tiene que dividir al polinomio X21. Sin embargo, los únicos factores de este polinomio son X1 y X+1. Dado que T±Id se tiene que μT(X)=X21. Por el último teorema que vimos, los eigenvalores de T son precisamente las raíces de μT en R, es decir ±1.

Más adelante…

En las entradas subsecuentes iremos más a fondo en el concepto de polinomio característico, para eventualmente llegar al teorema de Cayley-Hamilton. Para eso tendremos que equiparnos de bastante teoría y repasar varias propiedades de dicho polinomio.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea V el espacio de polinomios con coeficientes reales de grado a lo más n. Encuentra los eigenvalores de la transformación T:P(X)P(X)(1+X)P(X).
  • Si V es el espacio de polinomios con coeficientes reales, encuentra los eigenvalores de T:P(X)P(3X).
  • Sean A,B matrices en Mn(C) tales que ABBA=B. Demuestra que para todo k1 se cumple que ABkBkA=kBk y de esto deduce que B es nilpotente: existe m tal que Bm=0. Sugerencia: ¿Cuántos eigenvalores puede tener T:XAXXA?
  • ¿Puedes generalizar el último problema de la sección de matrices triangulares superiores?
  • Sea A una matriz cuadrada con entradas reales. Supón que λ es un real positivo que es eigenvalor de A2. Demuestra que λ o λ es un eigenvalor de A. ¿Sucederá a veces que sólo una de estas es eigenvalor?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»