Archivo de la etiqueta: diagonalizable

Cálculo Diferencial e Integral III: Introducción al teorema de la función inversa

Por Alejandro Antonio Estrada Franco

Introducción

Estamos a punto de entrar a discutir dos de los resultados principales de nuestro curso: el teorema de la función inversa y el teorema de la función implícita. Repasemos un poco qué hemos hecho hasta ahora. En las dos entradas anteriores introdujimos la noción de diferenciabilidad, la cual cuando sucede para una función f:RnRm, nos dice que f se parece mucho a una función lineal en un punto dado. Vimos que esta noción implica continuidad y que tiene una regla de la cadena relacionada con el producto de matrices. También, hemos discutido cómo esta noción se relaciona con la existencia de espacios tangentes a gráficas multidimensionales.

Ahora queremos entender todavía mejor a las funciones diferenciables. Hay dos teoremas que nos permiten hacer eso. Uno es el teorema de la función inversa y el otro es el teorema de la función implícita. En esta entrada hablaremos del primero, y en un par de entradas más introduciremos el segundo resultado. El propósito del teorema de la función inversa es dar una condición bajo la cual una función es invertible, por lo menos localmente. De hecho, la mayoría de las veces sólo se puede garantizar la invertibilidad localmente, pues las funciones usualmente no son inyectivas y esto da comportamientos globales más difíciles de manejar.

Enunciar el teorema y entenderlo requiere de cierto esfuerzo. Y demostrarlo todavía más. Por esta razón, en esta entrada nos enfocaremos sólo en dar el teorema y presentar herramientas preliminares que necesitaremos para hacer su demostración.

Enunciado del teorema de la función inversa

Supongamos que tenemos f:RnRn y que es diferenciable en el punto a¯. Entonces, f se parece mucho a una función lineal en a¯, más o menos f(x¯)f(a¯)+Ta¯(x¯a¯). Así, si Ta¯ es invertible, suena a que «cerquita de a¯» la función f(x¯) debe de ser invertible. El teorema de la función inversa pone estas ideas de manera formal.

Teorema (de la función inversa). Sea f:SRnRn de clase C1 en el abierto S. Si la matriz Df(a¯) es invertible, entonces, existe δ>0 tal que:

  1. Bδ(a¯)S y f es inyectiva en Bδ(a¯).
  2. f1:f(Bδ(a¯))RnRn es continua en f(Bδ(a¯)).
  3. f(Bδ(a¯))Rn es un conjunto abierto.
  4. f1 es de clase C1 en f(Bδ(a¯)) y además, si x¯=f(v¯)f(Bδ(a¯)), entonces, Df1(x¯)=Df1(f(v¯))=(Df(v¯))1.

Veamos qué nos dice de manera intuitiva cada una de las conclusiones del teorema.

  1. Tendremos una bola Bδ(a¯) dentro de la cual f será inyectiva, y por lo tanto será biyectiva hacia su imagen. Así, f restringida a esta bola será invertible. Es importante que sea una bola abierta, porque entonces sí tenemos toda una región «gordita» en donde pasa la invertibilidad (piensa que si fuera un cerrado, a lo mejor sólo es el punto a¯ y esto no tiene chiste).
  2. La inversa f1 que existirá para f será continua. Esto es lo mínimo que podríamos esperar, aunque de hecho el punto 4 garantiza algo mucho mejor.
  3. La imagen de f en la bola Bδ(a¯) será un conjunto abierto.
  4. Más aún, se tendrá que f1 será de clase C1 y se podrá dar de manera explícita a su derivada en términos de la derivada de f con una regla muy sencilla: simplemente la matriz que funciona para derivar f le sacamos su inversa como matriz y esa funciona al evaluarla en el punto apropiado.

El teorema de la función inversa es profundo pues tanto su enunciado como su demostración combina ideas de topología, álgebra y cálculo. Por esta razón, para su demostración necesitaremos recopilar varias de las herramientas de álgebra lineal que hemos repasado en la Unidad 2 y la Unidad 5. Así mismo, necesitaremos ideas topológicas de las que hemos visto en la Unidad 3. Con ellas desarrollaremos algunos resultados auxiliares que en la siguiente entrada nos permitirán concluir la demostración.

Un criterio para campos vectoriales C1

El teorema de la función inversa es para funciones de clase C1. Nos conviene entender esta noción mejor. Cuando una función f es de clase C1, entonces es diferenciable. Pero el regreso no es cierto y hay contraejemplos. ¿Qué le falta a una función diferenciable para ser de clase C1? A grandes rasgos, que las funciones derivadas Ta¯ y Tb¯ hagan casi lo mismo cuando a¯ y b¯ son cercanos. En términos de matrices, necesitaremos que la expresión ||(Df(a¯)Df(b¯))(x¯)|| sea pequeña cuando a¯ y b¯ son cercanos entre sí.

El siguiente teorema será importante en nuestro camino hacia el teorema de la función inversa. Intuitivamente, para lo que lo usaremos es para aproximar una función f localmente, con «cuadritos» que corresponden a los planos tangentes, porque «muy cerquita» estos planos varían muy poco si pedimos que f sea de clase C1. Es decir si a¯ y b¯ son dos puntos en el dominio de una función diferenciable, y estos están muy cerca uno del otro, sus planos tangentes serán casi el mismo. Esto nos invita a cambiar localmente a una superficie por cuadritos como más adelante se explicará con detalle.

Figura 1. En azul y en rojo dos planos que corresponden a las derivadas Ta¯ y Tb¯. Este cambio calculado es distintos puntos cercanos es «suave», esto se expresará con la ecuación ||Df(b¯)(x¯)Df(a¯)(x¯)||ϵ||x¯|| ya con las diferenciales para todo x¯.

El teorema concreto que nos interesa demostrar es la siguiente equivalencia para que una función sea de clase C1.

Teorema. Sea f:SRnRm una función diferenciable en S. Se tiene que f es de clase C1 en S si y sólo si para todo a¯S y para cada ε>0 existe δ>0 tal que Bδ(a¯)S, y si b¯Bδ(a¯) se tiene ||(Df(b¯)Df(a¯))(x¯)||ε||x¯|| para todo x¯Rn.

Demostración. ). Supongamos que f es de clase C1 en S, es decir, todas sus funciones componentes tienen derivadas parciales en S y son continuas. Sea ε>0. Veremos que se puede encontrar una δ como en el enunciado.

Tomemos a¯ y b¯ en S. Expresamos a (Df(b¯)Df(a¯))(x¯) como

(f1x1(b¯)f1x1(a¯)f1xn(b¯)f1xn(a¯)fmx1(b¯)fmx1(a¯)fmxn(b¯)fmxn(a¯))(x1xn)

o equivalentemente como

((f1(b¯)f1(a¯))x¯(fm(b¯)fm(a¯))x¯).

De tal manera que por Cauchy-Schwarz:

||(Df(b¯)Df(a¯))(x¯)||2=i=1m((fi(b¯)fi(a¯))x¯)2i=1m||fi(b¯)fi(a¯)||2||x¯||2=||x¯||2i=1m||fi(b¯)fi(a¯)||2=||x¯||2i=1mj=1n(fixj(b¯)fixj(a¯))2

En este punto se ve la importancia de que las parciales sean continuas. Podemos encontrar una δ que nos garantice que BδS y que si ||b¯a¯||<δ, entonces |fixj(b¯)fixj(a¯)|<εmn. En esta situación, podemos seguir acotando ||(Df(b¯)Df(a¯))(x¯)||2 como sigue:
||x¯||i=1mj=1nε2mn=ε2||x¯||2.

Al sacar raiz cuadrada, obtenemos la desigualdad ||(Df(b¯)Df(a¯))(x)||ε||x¯|| buscada.

). Supongamos ahora que para cada ε existe una δ como en el enunciado del teorema. Debemos ver que todas las derivadas parciales de todas las componentes son continuas. Podemos aplicar la desigualdad ||(Df(b¯)Df(a¯))(x¯)||||x¯||ε tomando como x¯ cada vector e^i de la base canónica. Esto nos dice que

||Df(b¯)(e^i)Df(a¯)(e^i)||<ε||e^i||=ε.

Por nuestro desarrollo anterior, para cada i tenemos

ε>||Df(b¯)(e^i)Df(a¯)(e^i)||=||(f1(b¯)e^if1(a¯)e^i,,fm(b¯)e^ifm(a¯)e^i)||=||(f1xi(b¯)f1xi(a¯),,fmxi(b¯)fmxi(a¯))||=j=1m(fjxi(b¯)fjxi(a¯))2.

Elevando al cuadrado,

j=1m(fjxi(b)fjxi(a))2<ε2.

Como todos los términos son no negativos, cada uno es menor a ϵ2. Así, para cada i,j tenemos

|fjxi(b¯)fjxi(a¯)|<ε.

Esto es precisamente lo que estábamos buscando: si b¯ está lo suficientemente cerca de a¯, cada derivada parcial en b¯ está cerca de su correspondiente en a¯.

◻

Invertibilidad de Df(a¯) en todo un abierto

En esta sección demostraremos lo siguiente. Si f:RnRn es un campo vectorial diferenciable en a¯ y Df(a¯) es invertible, entonces Df(x¯) será invertible para cualquier x¯ alrededor de cierta bola abierta alrededor de a¯. Los argumentos en esta ocasión están un poco más relacionados con el álgebra lineal.

Será útil que recuerdes que una transformación lineal T:RnRn es invertible si el único x¯Rn tal que T(x¯)=0¯ es x¯=0¯. El siguiente criterio es otra caracterización de invertibilidad en términos de lo que le hace T a la norma de los vectores.

Teorema. Sea T:RnRn una transformación lineal. La transformación T es invertible si y sólo si existe ε>0 tal que ||T(x¯)||ε||x¯|| para todo x¯Rn.

Demostración. ) Como T es invertible, para todo x¯0¯ sucede que T(x¯)0¯. En particular, esto sucede para todos los vectores en Sn1 (recuerda que es la esfera de radio 1 y dimensión n1 centrada en 0¯). Esta esfera es compacta y consiste exactamente de los x¯Rn de norma 1.

Sabemos que las transformaciones lineales y la función norma son continuas. Por la compacidad de Sn1, la expresión ||T(x¯)|| tiene un mínimo digamos ε, que alcanza en Sn1. Por el argumento del párrafo anterior, ε>0.

Tomemos ahora cualquier vector x¯Rn. Si x¯=0¯, entonces ||T(0¯)||=||0¯||=0ε||0¯||. Si x¯0¯, el vector x¯||x¯|| está en Sn1, de modo que ||T(x¯||x¯||)||ε. Usando linealidad para sacar el factor ||x¯|| y despejando obtenemos ||T(x¯)||ε||x¯||, como estábamos buscando.

) Este lado es más sencillo. Si existe dicha ε>0, entonces sucede que para x¯ en Rn, con x¯0¯ tenemos ||T(x¯)||ε||x¯||>0. Por lo tanto, T(x¯)0¯ y así T es invertible.

◻

Obtengamos una consecuencia del teorema de clasificación de la sección anterior que está muy relacionada con este resultado que acabamos de demostrar.

Teorema. Sea f:SRnRn de clase C1 en el conjunto abierto S y a¯S. Si Df(a¯) es invertible, entonces existen δ>0 y m>0 tales que Bδ(a¯)S y ||Df(b¯)(x¯)||m||x¯||, para todo b¯Bδ(a¯) y para todo x¯Rn.

Demostración. Como Df(a¯) es invertible, por el teorema que acabamos de demostrar existe ε>0 tal que ||Df(a¯)(x¯)||ε||x¯|| para todo x¯Rn.

Por nuestra caracterización de funciones C1, Ahora como fC1 en S (abierto) para ε=ε2>0, existe δ>0 tal que Bδ(a¯)S, y ||Df(b¯)(x¯)Df(a¯)(x¯)||ε2||x¯|| para todo b¯Bδ(a¯) y para todo x¯Rn.

Por la desigualdad del triángulo, ||Df(a¯)(x¯)Df(b¯)(x¯)||+||Df(b¯)(x¯)||||Df(a¯)(x¯)||,

de donde

||Df(b¯)(x¯)||||Df(a¯)(x¯)||||Df(b¯)(x¯)Df(a¯)(x¯)||ε||x¯||ε2||x¯||=ε2||x¯||.

De esta manera, el resultado es cierto para la δ que dimos y para m=ε2.

◻

El siguiente corolario es consecuencia inmediata de lo discutido en esta sección y está escrito de acuerdo a la aplicación que haremos más adelante en la demostración del teorema de la función inversa.

Corolario. Sea f:SRnRn una función de clase C1 en S y a¯S. Si Df(a¯) es invertible, entonces, existe δ>0 tal que Bδ(a¯)S y Df(b¯) es invertible para todo b¯Bδ(a¯).

Queda como tarea moral responder por qué este corolario es consecuencia inmediata del teorema anterior.

Un poco de intuición geométrica

Dejamos esta entrada hasta aquí, la naturaleza densamente teórica de lo que estamos haciendo puede hacer pesadas las exposiciones. Lo que hasta aquí demostramos es que para un campo vectorial C1 si su derivada en a¯ es invertible, entonces lo es en toda una vecindad que tiene a a¯. Imaginemos al pedacito de superficie f(Bδ(a¯)) cubierto con pequeños rectángulos. En cada punto, las imágenes de estos rectángulos están muy cerquita, casi pegados a la superficie. Esto nos garantizaría la invertibilidad de f en esta vecindad.

Figura 2

En la Figura 2 vemos ilustrado esto. El círculo inferior corresponde a la vecindad Bδ(a¯) en el dominio de f. La función f levanta una porción del plano en la sabana delineada con negro arriba del círculo. En el círculo tenemos al punto a¯ en verde agua. Sobre la sábana de arriba tenemos con el mismo color a f(a¯). Los puntos negros pequeños dentro de la vecindad alrededor de a¯ son alzados por f a puntos negros sobre la sabana. Sobre de cada punto negro en la sabana tenemos un cuadrito rojo que representa al cachito de plano tangente cerca de la imagen de cada punto. La imagen esta llena de estos pequeños cuadritos, todos ellos representan diferenciales invertibles, esto nos permitirá asegurar la invertibilidad de f en al menos una vecindad.

Más adelante…

En la siguiente entrada demostraremos el teorema de la función inversa, inciso por inciso. Es importante que estes familiarizado con los resultados de esta entrada, pues serán parte importante de la demostración.

Tarea moral

  1. ¿Qué diría el teorema de la función inversa para campos vectoriales f:R2R2? ¿Se puede usar para f(r,θ)=(rcos(θ),rsin(θ))? Si es así, ¿para qué valores de r y θ? ¿Qué diría en este caso explícitamente?
  2. Explica por qué el corolario que enunciamos en efecto se deduce de manera inmediata de lo discutido en la sección correspondiente.
  3. Revisa todas las desigualdades que usamos en esta entrada. ¿Qué resultado estamos usando? ¿Cuándo se darían estas igualdades?
  4. Demuestra que el determinante de una matriz es una función continua en términos de las entradas de la matriz. Usa esto para demostrar que si AMn(R) es una matriz y B es una matriz muy cercana a A, entonces B también es invertible.
  5. Demuestra que si una transformación T es diagonalizable, entonces en el teorema de caracterización de invertibilidad se puede usar como ϵ al mínimo de la expresión |λ| variando sobre todos los eigenvalores λ de T.

Entradas relacionadas

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Por Blanca Radillo

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz A es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en Mn(R) siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo F, no tenemos la garantía de que las matrices simétricas en Mn(F) también lo sean.

Problema 1. Demuestra que la matriz simétrica con coeficientes complejos

A=(1ii1)

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si A fuese diagonalizable, es decir, que existe una matriz invertible P y una diagonal D tal que A=P1DP, entonces A y D tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de A: buscamos λC tal que det(λIA)=0,

det(λIA)=|λ1iiλ+1|=(λ1)(λ+1)i2=λ21+1=λ2=0.

Por lo tanto, el eigenvalor con multiplicidad 2 de A (y también el eigenvalor de D) es λ=0. Si D es de la forma

D=(a00b),

es fácil ver (y calcular) que sus eigenvalores son a y b, pero por lo anterior, podemos concluir que a=b=0, y por lo tanto D es la matriz cero. Si fuese así, A=P1DP=0, contradiciendo la definición de A.

◻

Problema 2. Sea A una matriz simétrica con entradas reales y supongamos que Ak=I para algún entero positivo k. Prueba que A2=I.

Solución. Dado que A es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son k-raíces de la unidad, entonces deben ser ±1. Esto implica que todos los eigenvalores de A2 son iguales a 1. Dado que A2 también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto A2=I.

◻

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio V, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

T=supxV0T(x)x.

Por ende, decimos que una transformación es acotada si su norma es acotada, T<.

Problema 1. Sea V un espacio euclideano y sea T una transformación lineal simétrica en V. Sean λ1,,λn los eigenvalores de T. Prueba que

supxV0T(x)x=max1in|λi|.

Solución. Renumerando a los eigenvalores, podemos decir que maxi|λi|=|λn|. Sea e1,,en una base ortonormal de V tal que T(ei)=λiei para todo i. Si xV0, podemos escribirlo como x=x1e1++xnen para algunos reales xi. Entonces, por linealidad de T,

T(x)=i=1nλixiei.

Dado que |λi||λn| para toda i, tenemos que

T(x)x=i=1nλi2xi2i=1nxi2|λn|,

por lo tanto

max1in|λi|=|λn|=T(en)ensupxV0T(x)x|λn|=max1in|λi|.

Obteniendo lo que queremos.

◻

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema 2. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

A=17(263632326).

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

0=det(λIA)=|λ+2/76/73/76/7λ3/72/73/72/7λ6/7|=λ3λ2λ+1=(λ1)(λ21),

entonces los eigenvalores de A son 1,1, (λ=1 tiene multiplicidad 2).

Ahora, hay que encontrar los vectores v=(x,y,z) tal que Av=λv, para todo eigenvalor λ.

Si λ=1,

(λIA)v=17(56361023213)v=0,

reduciendo, obtenemos que v=(3α,2α,α) para todo αR.

Si λ=1, resolviendo de la misma manera (λIA)v=(IA)v=0, tenemos que v=(β,γ,3β+2γ) para todo β,γ. Entonces el conjunto de eigenvectores es

B={v1=(3,2,1),v2=(1,0,3),v3=(0,1,2)}.

Es fácil ver que el conjunto B es linealmente independiente, más aún dim(R3)=3=|B|, por lo tanto, B es la base consistente con los eigenvectores de A.

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Teorema espectral para matrices simétricas reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada demostramos el teorema espectral para matrices simétricas reales en sus dos formas. Como recordatorio, lo que probaremos es lo siguiente.

Teorema. Sea V un espacio euclideano y T:VV una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Teorema. Sea A una matriz simétrica en Rn. Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en Rn, tales que A=P1DP.

Para ello, usaremos los tres resultados auxiliares que demostramos en la entrada de eigenvalores de matrices simétricas reales. Los enunciados precisos están en ese enlace. Los resumimos aquí de manera un poco informal.

  • Los eigenvalores complejos de matrices simétricas reales son números reales.
  • Si una transformación T es simétrica y W es un subespacio estable bajo T, entonces W también lo es. Además, T restringida a W o a W también es simétrica.
  • Es lo mismo que una matriz sea diagonalizable, a que exista una base formada eigenvectores de la matriz.

Además de demostrar el teorema espectral, al final de la entrada probaremos una de sus consecuencias más importantes. Veremos una clasificación de las matrices que inducen formas bilineales positivas.

Demostración de la primera versión del teorema espectral

Comenzamos mostrando la siguiente versión del teorema espectral.

Teorema. Sea V un espacio euclideano y T:VV una transformación simétrica. Entonces, existe una base ortonormal de V que consiste de eigenvectores de T.

Demostración. Como V es espacio Euclideano, entonces tiene cierta dimensión finita n. Haremos inducción fuerte sobre n. Si n=1, el polinomio característico de T es de grado 1 y con coeficientes reales, así que tiene una raíz λ real. Si v es un eigenvector de T para λ, entonces vv también es eigenvector de T y conforma una base ortonormal para V.

Supongamos que el resultado es cierto para todo espacio Euclideano de dimensión menor a n y tomemos V espacio Euclideano de dimensión n. Por el teorema fundamental del álgebra, el polinomio característico de T tiene por lo menos una raíz λ en C. Como T es simétrica, cualquier matriz A que represente a T también, y λ sería una raíz del polinomio característico de A. Por el resultado que vimos en la entrada anterior, λ es real.

Consideremos el kernel W de la transformación λidT. Si W es de dimensión n, entonces W=V, y por lo tanto T(v)=λv para todo vector v en V, es decir, todo vector no cero de V es eigenvector de T. De esta forma, cualquier base ortonormal de V satisface la conclusión. De esta forma, podemos suponer que WV y que por lo tanto 1dimWn1, y como V=WW, se obtiene que 1dimWn1. Sea B una base ortonormal de W, que por lo tanto está formada por eigenvectores de T con eigenvalor λ.

Como la restricción T1 de T a W es una transformación simétrica, podemos aplicar la hipótesis inductiva y encontrar una base ortonormal B de eigenvectores de T1 (y por lo tanto de T) para W.

Usando de nuevo que V=WW, tenemos que BB es una base de V formada por eigenvectores de T.

El producto interior de dos elementos distintos de B, o de dos elementos distintos de B es cero, pues individualmente son bases ortonormales. El producto de un elemento de B y uno de B es cero pues un elemento está en W y el otro en W. Además, todos los elementos de BB tiene norma 1, pues vienen de bases ortogonales. Esto muestra que BB es una base ortonormal de V que consiste de eigenvectores de T.

◻

Demostración de la segunda versión del teorema espectral

Veamos ahora la demostración del teorema espectral en su enunciado con matrices.

Teorema. Sea A una matriz simétrica en Mn(R). Entonces, existe una matriz ortogonal P y una matriz diagonal D, ambas en Mn(R), tales que A=P1DP.

Demostración. Como A es una matriz simétrica, la transformación T:FnFn dada por T(X)=AX es simétrica. Aplicando la primer versión del teorema espectral, existe una base ortonormal de Fn que consiste de eigenvectores de T. Digamos que estos eigenvectores son C1,,Cn. Por definición de T, estos eigenvectores de T son exactamente eigenvectores de A.

Anteriormente demostramos que si construimos a una matriz B usando a C1,,Cn como columnas y tomamos la matriz diagonal D cuyas entradas son los eigenvalores correspondientes λ1,,λn, entonces A=BDB1.

Afirmamos que la matriz B es ortogonal. En efecto, la fila j de la matriz tB es precisamente Cj. De esta forma, la entrada (i,j) del producto tBB es precisamente el producto punto de Ci con Cj. Como la familia C1,,Cn es ortonormal, tenemos que dicho producto punto es uno si i=j y cero en otro caso. De aquí, se concluye que tBB=In.

Si una matriz es ortogonal, entonces su inversa también. Esto es sencillo de demostrar y queda como tarea moral. Así, definiendo P=B1, tenemos la igualdad A=P1DP, con D diagonal y P ortogonal, justo como lo afirma el teorema.

◻

Matrices positivas y positivas definidas

Una matriz A simétrica en Mn(R) induce una forma bilineal simétrica en Rn mediante la asignación (x,y)txAy, con forma cuadrática correspondiente xtxAx.

Definición. Una matriz A en Mn(R) es positiva o positiva definida si su forma bilineal asociada es positiva o positiva definida respectivamente.

Una de las aplicaciones del teorema espectral es que nos permite dar una clasificación de las matrices simétricas positivas.

Teorema. Sea A una matriz simétrica. Entonces todas las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B2 para alguna matriz simétrica B en Mn(R).
  4. A=tCC para alguna matriz C en Mn(R).

Demostración. (1) implica (2). Supongamos que A es positiva y tomemos λ un eigenvalor de A. Tomemos v un eigenvector de eigenvalor λ. Tenemos que:
λv2=λtvv=tv(λv)=tvAv0.

Como v20, debemos tener λ0.

(2) implica (3). Como A es matriz simétrica, por el teorema espectral tiene una diagonalización A=P1DP con P una matriz invertible y D una matriz diagonal cuyas entradas son los eigenvalores λ1,,λn de A. Como los eigenvalores son no negativos, podemos considerar la matriz diagonal E cuyas entradas son los reales λ1,,λn. Notemos que E2=D, así que si definimos a la matriz B=P1EP, tenemos que B2=P1E2P=P1DP=A.

Además, B es simétrica pues como E es diagonal y P es ortogonal, tenemos que
tB=tPtEt(P1)=P1EP=B.

(3) implica (4). Es inmediato, tomando C=B y usando que B es simétrica.

(4) implica (1). Si A=tCC y tomamos un vector v en Rn, tenemos que

tvAv=tvtCCv=t(Cv)(Cv)=Cv20,

lo cual muestra que A es positiva.

◻

También hay una versión de este teorema para matrices simétricas positivas definidas. Enunciarlo y demostrarlo queda como tarea moral.

En una entrada final, se verá otra consecuencia linda del teorema espectral: el teorema de descomposición polar. Dice que cualquier matriz con entradas reales se puede escribir como el producto de una matriz ortogonal y una matriz simétrica positiva.

Más allá del teorema espectral

Durante el curso introdujimos varias de las nociones fundamentales de álgebra lineal. Con ellas logramos llegar a uno de los teoremas más bellos: el teorema espectral. Sin embargo, la teoría de álgebra lineal no termina aquí. Si en tu formación matemática profundizas en el área, verás otros temas y resultados fundamentales como los siguientes:

  • El teorema de Cayley-Hamiltón: toda matriz se anula en su polinomio característico.
  • La clasificación de matrices diagonalizables: una matriz es diagonalizable si y sólo si su polinomio característico se factoriza en el campo de la matriz, y la multiplicidad algebraica de sus eigenvalores corresponde con la multiplicidad geométrica.
  • El teorema de la forma canónica de Jordan: aunque una matriz no se pueda diagonalizar, siempre puede ser llevada a una forma estándar «bonita».
  • Productos interiores con imágenes en C, a los que también se les conoce como formas hermitianas.
  • Los polinomios mínimos de matrices y transformaciones, que comparten varias propiedades con el polinomio característico, pero dan información un poco más detallada.

Más adelante…

En esta entrada discutimos dos demostraciones del teorema espectral. Sólo nos falta discutir cómo podemos aplicarlo. En la siguiente entrada trabajaremos con algunos problemas, por ejemplo, ver cómo se usa para demostrar que una matriz simétrica no es diagonalizable.

Finalmente, discutiremos cómo podemos pensar en las nociones de continuidad y acotamiento en el álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que la inversa de una matriz ortogonal es ortogonal.
  • Encuentra una base ortonormal de R3 conformada por eigenvectores de la matriz (10070307010).
  • Determina si la matriz anterior es positiva y/o positiva definida.
  • Enuncia y demuestra un teorema de clasificación de matrices simétricas positivas definidas.
  • Muestra que la matriz (51711077718) es positiva.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»