Archivo de la etiqueta: transformación lineal

Cálculo Diferencial e Integral III: Demostración del teorema de la función inversa

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior empezamos a hablar del teorema de la función inversa. Dimos su enunciado y probamos varias herramientas que nos ayudarán ahora con su demostración.

Recordemos que lo que queremos demostrar es lo siguiente.

Teorema (de la función inversa). Sea f:SRnRn de clase C1 en el abierto S. Si Df(a¯) es invertible, entonces, existe δ>0 tal que:

  1. Bδ(a¯)S y f es inyectiva en Bδ(a¯).
  2. f1:f(Bδ(a¯))RnRn es continua en f(Bδ(a¯)).
  3. f(Bδ(a¯))Rn es un conjunto abierto.
  4. f1 es de clase C1 en f(Bδ(a¯)) y además, si x¯=f(v¯)f(Bδ(a¯)), entonces, Df1(x¯)=Df1(f(v¯))=(Df(v¯))1.

La herramienta más importante que probamos en la entrada anterior nos dice que si una función f:SRnRn es de clase C1, a¯S y DF(a¯) es invertible, entonces existe una δ>0 tal que Bδ(a¯)S y Df(b¯) es invertible para todo b¯Bδ(a¯). Veremos cómo esta herramienta y otras que desarrollaremos en el transcurso de esta entrada nos permiten demostrar el teorema.

La función f es inyectiva en una vecindad de a¯

Vamos a enfocarnos en el punto (1) del teorema. Veremos que existe la δ que hace que la función restringida a la bola de radio δ centrada en a¯ es inyectiva. En esta parte de la prueba es conveniente que recuerdes que la norma infinito de un vector (x1,,xn)Rn es ||x¯||:=máx{|x1|,,|xn|}.

Además, cumple para todo x¯Rn que ||x¯||n||x¯||.

Veamos que bajo las hipótesis del problema se puede acotar ||f(u¯)f(v¯)|| en términos de ||u¯v¯|| dentro de cierta bola.

Proposición. Sea f:SRnRn de clase C1 en el conjunto abierto S, y a¯S. Si Df(a¯) es invertible, entonces existe δ>0 y ε>0 tal que Bδ(a¯)S y ||f(u¯)f(v¯)||ε||u¯v¯|| para cualesquiera u¯,v¯Bδ(a¯).

Demostración. Por la diferenciabilidad de f en a¯, tenemos

Df(a¯)(x¯)=(f1(a¯)x¯fn(a¯)x¯)

para cada a¯S y cada x¯Rn.

Como Df(a¯) es invertible, por los resultados de la entrada anterior existe un m>0 tal que

||Df(a¯)(x¯)||m||x¯||

para todo x¯Rn.

También por resultados de la entrada anterior, para ϵ:=m2n>0 existe δ>0 tal que si b¯Bδ(a¯)S entonces

||(Df(b¯)Df(a¯))(x¯)||m2n||x¯||

para todo x¯Rn.

Usaremos en un momento estas desigualdades, pero por ahora fijemos nuestra atención en lo siguiente. Dados u¯,v¯Bδ(a¯), tomemos el k{1,,n} tal que ||Df(a¯)(u¯v¯)||=|fk(a¯)(u¯v¯)|.

Para dicho k, tenemos

|fk(a¯)(u¯v¯)|=||Df(a¯)(u¯v¯)||1n||Df(a¯)(u¯v¯)||.

¿Cómo podemos seguir con nuestras desigualdades? Necesitamos usar el teorema del valor medio. Bastará el que demostramos para campos escalares. Aplicándolo a fk en los puntos u¯,v¯ cuyo segmento se queda en la bola convexa Bδ(a¯), podemos concluir que existe un vector w¯ en el segmento u¯v¯¯ que cumple

fk(u¯)fk(v¯)=f(w¯)(u¯v¯).

Sabemos que para cualquier vector el valor absoluto de cualquiera de sus coordenadas es en valor menor o igual que la norma del vector. Además, demostramos inicialmente unas desigualdades anteriores. Juntando esto, obtenemos la siguiente cadena de desigualdades:

||f(u¯)f(v¯)|||fk(u¯)fk(v¯)|=|f(w¯)(u¯v¯)||fk(a¯)(u¯v¯)||fk(w¯)(u¯v¯)fk(a¯)(u¯v¯)|1n||Df(a¯)(u¯v¯)||||Df(w¯)(u¯v¯)Df(a¯)(u¯v¯)||1n(m||u¯v¯||)m2n||u¯v¯||=m2n||u¯v¯||=ε||u¯v¯||.

La gran conclusión de esta cadena de desigualdades es que ||f(u¯)f(v¯)||ε||u¯v¯||, que es lo que buscábamos.

◻

¡Esto es justo lo que nos pide el primer punto! Hemos encontrado una bola alrededor de a¯ dentro de la cual si u¯v¯, entonces ||f(u¯)f(v¯)||ε||u¯v¯||>0, de modo que f(u¯)f(v¯). ¡La función restringida en esta bola es invertible! En términos geométricos el último teorema nos dice lo siguiente: Si f es diferenciable en un abierto S, y Df(a¯) es invertible, entonces hay una vecindad alrededor de a¯ en donde f «no se pega», es decir f es inyectiva.

Figura 1: Si la función no es inyectiva, lo que tenemos es que proyecta el rectángulo R en una superficie que pega los puntos a¯ y b¯. Arriba una función inyectiva y abajo una que no lo es.

Ya vimos cómo encontrar una bola Bδ(a¯) dentro de la cual f es inyectiva. Si pensamos que el contradominio es exactamente f(Bδ(a¯)), entonces la función también es suprayectiva. Esto hace que sea biyectiva y por tanto que tenga inversa f1.

La función inversa es continua

Veamos ahora que la función inversa es continua. De hecho, mostraremos algo un poco más fuerte.

Teorema. Sea f:SRnRn de clase C1 en el abierto S, y a¯S. Si Df(a¯) es invertible, entonces existe δ>0 tal que Bδ(a¯)S, f es inyectiva en Bδ(a¯) y además f1:f(Bδ(a¯))RnRn es uniformemente continua en su dominio.

Demostración. La primera parte y la existencia de f1:f(Bδ(a))RnRn se debe a la discusión de la sección anterior. De hecho, lo que mostramos es que existe δ>0 y ε>0 tal que ||f(v¯)f(u¯)||ε||v¯u¯|| para todo u¯,v¯Bδ(a¯).

Supongamos que nos dan un ε. Tomemos δ=εε. Tomemos x¯,y¯ en f(Bδ(a¯)) tales que ||y¯x¯||<δ. Como x¯ y y¯ están en dicha bola, podemos escribirlos como x¯=f(u¯), y¯=f(v¯) con u¯,v¯Bδ(a¯). Notemos entonces que

||f1(y¯)f1(x¯)||=||v¯u¯||1ε||f(v¯)f(u¯)||=1ε||y¯x¯||<εεε=ε.

Tenemos entonces que f1 es uniformemente continua en f(Bδ(a¯)).

◻

Esto demuestra el punto (2) de nuestro teorema. La prueba de que el conjunto f(Bδ(a¯)) es abierto no es para nada sencilla como parecería ser. Una demostración muy instructiva, al nivel de este curso, se puede encontrar en el libro Cálculo diferencial de varias variables del Dr. Javier Páez Cárdenas editado por la Facultad de Ciencias de la Universidad Nacional Autónoma de México (UNAM) en las páginas 474-476.

La función inversa es diferenciable

Resta hacer la demostración de (4). En esta sección veremos que la inversa f1 es derivable y que la derivada es precisamente lo que propone el teorema. En la siguiente sección veremos que la inversa es C1.

Tomemos un punto x¯0=f(v¯0)f(Bδ(a¯)). Mostraremos que, en efecto, T=(Df(v¯0))1 es la derivada de f1 en x¯0, lo cual haremos por definición verificando que

limx¯x¯0f1(x¯)f1(x¯0)T(x¯x¯0)||x¯x¯0||=0.

Para ello, introducimos la siguiente función auxiliar g:Bδ(a¯)RnRn dada por:

g(v¯)={v¯v¯0T(f(v¯)f(v¯0))||f(v¯)f(v¯0)||v¯v¯00¯v¯=v¯0.

Esta función está bien definida, pues f es inyectiva en la bola Bδ(a¯). La composición gf1 también está bien definida en el abierto f(Bδ(a¯)) y

(gf1)(x¯)={f1(x¯)f1(x¯0)T(x¯x¯0)||x¯x¯0||x¯x¯00¯x¯=x¯0

para todo x¯f(Bδ(a¯)). Esto nos permite poner el límite buscado como el límite de una composición de la siguiente forma:

limx¯x¯0f1(x¯)f1(x¯0)T(x¯x¯0)||x¯x¯0||=limx¯x¯0(gf1)(x¯)

Como f1 es continua en x¯0, basta demostrar que g es continua en v¯0=f1(x¯0). Esto equivale a probar que

limv¯v¯0g(v¯)=limv¯v¯0v¯v¯0(Df(v¯0))1(f(v¯)f(v¯0)))||f(v¯)f(v¯0)||=0.

Hay que demostrar este último límite. Reescribimos la expresión

v¯v¯0(Df(v¯0))1(f(v¯)f(v¯0))||f(v¯)f(v¯0)|| como

(Df(v¯0))1[Df(v¯0)(v¯v¯0)(f(v¯)f(v¯0))]||f(v¯)f(v¯0)||,

y luego multiplicamos y dividimos por ||v¯v¯0|| y reorganizamos para obtener

||v¯v¯0||||f(v¯)f(v¯0)||(Df(v¯0))1(f(v¯)f(v¯0)Df(v¯0)(v¯v¯0)||v¯v¯0||).

Como (Df(v¯0))1 es continua (por ser lineal) y f es diferenciable en v¯0, se tiene que

limv¯v¯0(Df(v¯0))1(f(v¯)f(v¯0)Df(v¯0)(v¯v¯0)||v¯v¯0||)=(Df(v¯0))1(limv¯v¯0f(v¯)f(v¯0)Df(v¯0)(v¯v¯0)||v¯v¯0||)=(Df(v¯0))1(0¯)=0¯.

El factor que nos falta entender es ||v¯v¯0||||f(v¯)f(v¯0)||. Pero por la primera proposición de esta entrada, sabemos que existe una ϵ>0 que acota este factor superiormente por 1ϵ. De esta manera,

limv¯v¯0g(v¯)=limv¯v¯0||v¯v¯0||||f(v¯)f(v¯0)||acotado(Df(v¯0))1(f(v¯)f(v¯0)Df(v¯0)(v¯v¯0)||v¯v¯0||)0=0.

Esto nos dice entonces que g es continua en v¯0 y por lo tanto:

limx¯x¯0(gf1)(x¯)=g(limx¯x¯0f1(x¯))=g(f1(x¯0))=g(v¯0)=0¯.

Por lo tanto f1 es diferenciable en x¯0 mediante la derivada que propusimos, es decir,

Df1(x¯0)=Df1(f(v¯0))=(Df(v¯0))1=(Df(f1(x¯0)))1

para todo x¯0f(Bδ(a¯)).

La función inversa es de clase C1

Resta verificar que f1 es de clase C1 en f(Bδ(a¯)). Lo haremos con la caracterización de la entrada anterior. Tomemos una μ>0. Nos gustaría ver que si x¯ y x¯0 están suficientemente cerca, entonces

||Df1(x¯)(z¯)Df1(x¯0)(z¯)||<μ||z¯||

para toda z¯Rn.

Recordemos que por la entrada anterior hay una m>0 tal que para todo z¯ en Rn se cumple

(1)1m||z¯||=1m|Df(v¯)((Df(v¯))1)(z¯)||||(Df(v¯))1(z¯)||

También notemos que, si X,Y son matrices invertibles en Mn(R), tenemos:

X1(YX)Y1=X1YY1X1XY1=X1Y1.

Tomando X=Df(v¯) y Y=Df(v¯0), aplicando la igualdad anterior en un punto x¯ en Rn, sacando normas y usando la desigualdad (1), obtenemos:

||(X1Y1)(z¯)||=||(X1(YX)Y1)(z¯)||1m||((YX)Y1)(z¯)||=1m||((Df(v¯0)Df(v¯))Df1(f(v¯0)))(z¯)||.

Como f es de clase C1, por la entrada anterior podemos construir una δ tal que Bδ(v¯0)Bδ(a¯) y para la cual si v¯ está en Bδ(v¯0), entonces:

(2)||(Df(v¯0)Df(v¯))(z¯)||m2μ||z¯||.

Para todo x¯Rn.

Finalmente, como f1 es continua en f(Bδ(a¯)), si x¯ y x¯0 están suficientemente cerca, digamos ||x¯x¯0||<ν, entonces

(3)||f1(x¯)f1(x¯0)||=||v¯v¯0||<δ..

Usamos todo lo anterior para establecer la siguiente cadena de desigualdades cuando ||x¯x¯0||<ν:

||Df1(x¯)(z¯)Df1(x¯0)(z¯)||=||Df1(f(v¯))(z¯)Df1(f(v¯0))(z¯)||1m||[Df(v¯0)Df(v¯)](Df1(f(v¯0)))(z¯)||1m(m2μ||Df1(f(v¯0))(z¯)||)=mμ||Df1(f(v¯0))(z¯)||mμ(1m||z¯||)=μ||z¯||.

Esto implica que f1 es de clase C1. Como tarea moral, revisa los detalles y di explícitamente qué resultado de la entrada anterior estamos usando.

◻

Ejemplo del teorema de la función inversa

Ejemplo. Consideremos ξ:R3R3 dada por ξ(r,θ,ϕ)=(rsenϕcosθ,rsenϕsenθ,rcosϕ). Se tiene que ξ es diferenciable en todo su dominio pues cada una de sus derivadas parciales es continua. Esta es la función de cambio de coordenadas de esféricas a rectangulares o cartesianas. La matriz jacobiana está dada como sigue.

Dξ(r,θ,ϕ)=(senϕcosθrsenϕsenθrcosϕcosθsenϕsenθrsenϕcosθrcosϕsenθcosϕ0rsenϕ).

Luego det(Dξ(r,θ,ϕ))=r2senϕ entonces Dξ es invertible cuando r0 y ϕkπ, kZ. Su inversa es:

(Dξ(r,θ,ϕ))1=(senϕcosθsenϕsenθcosϕsenθrsenϕcosθrsenϕ01rcosθcosϕ1rcosϕsenθ1rsenϕ).

El teorema de la función inversa nos garantiza la existencia local de una función ξ1. En este caso, sería la función de cambio de coordenadas rectangulares a esféricas. Si f:SR3R es una función C1 dada en coordenadas esféricas; podemos asumir que fξ1 es la misma función pero en términos de coordenadas rectangulares.

Más adelante…

¡Lo logramos! Hemos demostrado el teorema de la función inversa, uno de los resultados cruciales de nuestro curso. El siguiente tema es el teorema de la función implícita, que será otro de nuestros resultados principales. Uno podría pensar que nuevamente tendremos que hacer una demostración larga y detallada. Pero afortunadamente la demostración del teorema de la función implícita se apoya fuertemente en el teorema de la función inversa que ya demostramos. En la siguiente entrada enunciaremos y demostraremos nuestro nuevo resultado y una entrada más adelante veremos varios ejemplos para profundizar en su entendimiento.

Tarea moral

  1. En el ejemplo que dimos, verifica que el determinante en efecto es r2sinϕ. Verifica también que la inversa es la matriz dada.
  2. Repasa cada una de las demostraciones de esta entrada y asegúrate de entender por qué se siguen cada una de las desigualdades. Explica en qué momentos estamos usando resultados de la entrada anterior.
  3. Da la función inversa de la transformación de cambio de coordenadas polares a rectangulares g(r,θ)=(rcosθ,rsenθ).
  4. Demuestra que para todo x¯Rn se tiene ||x¯||n||x¯||.
  5. Verifica que en efecto |||| es una norma.

Entradas relacionadas

Cálculo Diferencial e Integral III: Introducción al teorema de la función inversa

Por Alejandro Antonio Estrada Franco

Introducción

Estamos a punto de entrar a discutir dos de los resultados principales de nuestro curso: el teorema de la función inversa y el teorema de la función implícita. Repasemos un poco qué hemos hecho hasta ahora. En las dos entradas anteriores introdujimos la noción de diferenciabilidad, la cual cuando sucede para una función f:RnRm, nos dice que f se parece mucho a una función lineal en un punto dado. Vimos que esta noción implica continuidad y que tiene una regla de la cadena relacionada con el producto de matrices. También, hemos discutido cómo esta noción se relaciona con la existencia de espacios tangentes a gráficas multidimensionales.

Ahora queremos entender todavía mejor a las funciones diferenciables. Hay dos teoremas que nos permiten hacer eso. Uno es el teorema de la función inversa y el otro es el teorema de la función implícita. En esta entrada hablaremos del primero, y en un par de entradas más introduciremos el segundo resultado. El propósito del teorema de la función inversa es dar una condición bajo la cual una función es invertible, por lo menos localmente. De hecho, la mayoría de las veces sólo se puede garantizar la invertibilidad localmente, pues las funciones usualmente no son inyectivas y esto da comportamientos globales más difíciles de manejar.

Enunciar el teorema y entenderlo requiere de cierto esfuerzo. Y demostrarlo todavía más. Por esta razón, en esta entrada nos enfocaremos sólo en dar el teorema y presentar herramientas preliminares que necesitaremos para hacer su demostración.

Enunciado del teorema de la función inversa

Supongamos que tenemos f:RnRn y que es diferenciable en el punto a¯. Entonces, f se parece mucho a una función lineal en a¯, más o menos f(x¯)f(a¯)+Ta¯(x¯a¯). Así, si Ta¯ es invertible, suena a que «cerquita de a¯» la función f(x¯) debe de ser invertible. El teorema de la función inversa pone estas ideas de manera formal.

Teorema (de la función inversa). Sea f:SRnRn de clase C1 en el abierto S. Si la matriz Df(a¯) es invertible, entonces, existe δ>0 tal que:

  1. Bδ(a¯)S y f es inyectiva en Bδ(a¯).
  2. f1:f(Bδ(a¯))RnRn es continua en f(Bδ(a¯)).
  3. f(Bδ(a¯))Rn es un conjunto abierto.
  4. f1 es de clase C1 en f(Bδ(a¯)) y además, si x¯=f(v¯)f(Bδ(a¯)), entonces, Df1(x¯)=Df1(f(v¯))=(Df(v¯))1.

Veamos qué nos dice de manera intuitiva cada una de las conclusiones del teorema.

  1. Tendremos una bola Bδ(a¯) dentro de la cual f será inyectiva, y por lo tanto será biyectiva hacia su imagen. Así, f restringida a esta bola será invertible. Es importante que sea una bola abierta, porque entonces sí tenemos toda una región «gordita» en donde pasa la invertibilidad (piensa que si fuera un cerrado, a lo mejor sólo es el punto a¯ y esto no tiene chiste).
  2. La inversa f1 que existirá para f será continua. Esto es lo mínimo que podríamos esperar, aunque de hecho el punto 4 garantiza algo mucho mejor.
  3. La imagen de f en la bola Bδ(a¯) será un conjunto abierto.
  4. Más aún, se tendrá que f1 será de clase C1 y se podrá dar de manera explícita a su derivada en términos de la derivada de f con una regla muy sencilla: simplemente la matriz que funciona para derivar f le sacamos su inversa como matriz y esa funciona al evaluarla en el punto apropiado.

El teorema de la función inversa es profundo pues tanto su enunciado como su demostración combina ideas de topología, álgebra y cálculo. Por esta razón, para su demostración necesitaremos recopilar varias de las herramientas de álgebra lineal que hemos repasado en la Unidad 2 y la Unidad 5. Así mismo, necesitaremos ideas topológicas de las que hemos visto en la Unidad 3. Con ellas desarrollaremos algunos resultados auxiliares que en la siguiente entrada nos permitirán concluir la demostración.

Un criterio para campos vectoriales C1

El teorema de la función inversa es para funciones de clase C1. Nos conviene entender esta noción mejor. Cuando una función f es de clase C1, entonces es diferenciable. Pero el regreso no es cierto y hay contraejemplos. ¿Qué le falta a una función diferenciable para ser de clase C1? A grandes rasgos, que las funciones derivadas Ta¯ y Tb¯ hagan casi lo mismo cuando a¯ y b¯ son cercanos. En términos de matrices, necesitaremos que la expresión ||(Df(a¯)Df(b¯))(x¯)|| sea pequeña cuando a¯ y b¯ son cercanos entre sí.

El siguiente teorema será importante en nuestro camino hacia el teorema de la función inversa. Intuitivamente, para lo que lo usaremos es para aproximar una función f localmente, con «cuadritos» que corresponden a los planos tangentes, porque «muy cerquita» estos planos varían muy poco si pedimos que f sea de clase C1. Es decir si a¯ y b¯ son dos puntos en el dominio de una función diferenciable, y estos están muy cerca uno del otro, sus planos tangentes serán casi el mismo. Esto nos invita a cambiar localmente a una superficie por cuadritos como más adelante se explicará con detalle.

Figura 1. En azul y en rojo dos planos que corresponden a las derivadas Ta¯ y Tb¯. Este cambio calculado es distintos puntos cercanos es «suave», esto se expresará con la ecuación ||Df(b¯)(x¯)Df(a¯)(x¯)||ϵ||x¯|| ya con las diferenciales para todo x¯.

El teorema concreto que nos interesa demostrar es la siguiente equivalencia para que una función sea de clase C1.

Teorema. Sea f:SRnRm una función diferenciable en S. Se tiene que f es de clase C1 en S si y sólo si para todo a¯S y para cada ε>0 existe δ>0 tal que Bδ(a¯)S, y si b¯Bδ(a¯) se tiene ||(Df(b¯)Df(a¯))(x¯)||ε||x¯|| para todo x¯Rn.

Demostración. ). Supongamos que f es de clase C1 en S, es decir, todas sus funciones componentes tienen derivadas parciales en S y son continuas. Sea ε>0. Veremos que se puede encontrar una δ como en el enunciado.

Tomemos a¯ y b¯ en S. Expresamos a (Df(b¯)Df(a¯))(x¯) como

(f1x1(b¯)f1x1(a¯)f1xn(b¯)f1xn(a¯)fmx1(b¯)fmx1(a¯)fmxn(b¯)fmxn(a¯))(x1xn)

o equivalentemente como

((f1(b¯)f1(a¯))x¯(fm(b¯)fm(a¯))x¯).

De tal manera que por Cauchy-Schwarz:

||(Df(b¯)Df(a¯))(x¯)||2=i=1m((fi(b¯)fi(a¯))x¯)2i=1m||fi(b¯)fi(a¯)||2||x¯||2=||x¯||2i=1m||fi(b¯)fi(a¯)||2=||x¯||2i=1mj=1n(fixj(b¯)fixj(a¯))2

En este punto se ve la importancia de que las parciales sean continuas. Podemos encontrar una δ que nos garantice que BδS y que si ||b¯a¯||<δ, entonces |fixj(b¯)fixj(a¯)|<εmn. En esta situación, podemos seguir acotando ||(Df(b¯)Df(a¯))(x¯)||2 como sigue:
||x¯||i=1mj=1nε2mn=ε2||x¯||2.

Al sacar raiz cuadrada, obtenemos la desigualdad ||(Df(b¯)Df(a¯))(x)||ε||x¯|| buscada.

). Supongamos ahora que para cada ε existe una δ como en el enunciado del teorema. Debemos ver que todas las derivadas parciales de todas las componentes son continuas. Podemos aplicar la desigualdad ||(Df(b¯)Df(a¯))(x¯)||||x¯||ε tomando como x¯ cada vector e^i de la base canónica. Esto nos dice que

||Df(b¯)(e^i)Df(a¯)(e^i)||<ε||e^i||=ε.

Por nuestro desarrollo anterior, para cada i tenemos

ε>||Df(b¯)(e^i)Df(a¯)(e^i)||=||(f1(b¯)e^if1(a¯)e^i,,fm(b¯)e^ifm(a¯)e^i)||=||(f1xi(b¯)f1xi(a¯),,fmxi(b¯)fmxi(a¯))||=j=1m(fjxi(b¯)fjxi(a¯))2.

Elevando al cuadrado,

j=1m(fjxi(b)fjxi(a))2<ε2.

Como todos los términos son no negativos, cada uno es menor a ϵ2. Así, para cada i,j tenemos

|fjxi(b¯)fjxi(a¯)|<ε.

Esto es precisamente lo que estábamos buscando: si b¯ está lo suficientemente cerca de a¯, cada derivada parcial en b¯ está cerca de su correspondiente en a¯.

◻

Invertibilidad de Df(a¯) en todo un abierto

En esta sección demostraremos lo siguiente. Si f:RnRn es un campo vectorial diferenciable en a¯ y Df(a¯) es invertible, entonces Df(x¯) será invertible para cualquier x¯ alrededor de cierta bola abierta alrededor de a¯. Los argumentos en esta ocasión están un poco más relacionados con el álgebra lineal.

Será útil que recuerdes que una transformación lineal T:RnRn es invertible si el único x¯Rn tal que T(x¯)=0¯ es x¯=0¯. El siguiente criterio es otra caracterización de invertibilidad en términos de lo que le hace T a la norma de los vectores.

Teorema. Sea T:RnRn una transformación lineal. La transformación T es invertible si y sólo si existe ε>0 tal que ||T(x¯)||ε||x¯|| para todo x¯Rn.

Demostración. ) Como T es invertible, para todo x¯0¯ sucede que T(x¯)0¯. En particular, esto sucede para todos los vectores en Sn1 (recuerda que es la esfera de radio 1 y dimensión n1 centrada en 0¯). Esta esfera es compacta y consiste exactamente de los x¯Rn de norma 1.

Sabemos que las transformaciones lineales y la función norma son continuas. Por la compacidad de Sn1, la expresión ||T(x¯)|| tiene un mínimo digamos ε, que alcanza en Sn1. Por el argumento del párrafo anterior, ε>0.

Tomemos ahora cualquier vector x¯Rn. Si x¯=0¯, entonces ||T(0¯)||=||0¯||=0ε||0¯||. Si x¯0¯, el vector x¯||x¯|| está en Sn1, de modo que ||T(x¯||x¯||)||ε. Usando linealidad para sacar el factor ||x¯|| y despejando obtenemos ||T(x¯)||ε||x¯||, como estábamos buscando.

) Este lado es más sencillo. Si existe dicha ε>0, entonces sucede que para x¯ en Rn, con x¯0¯ tenemos ||T(x¯)||ε||x¯||>0. Por lo tanto, T(x¯)0¯ y así T es invertible.

◻

Obtengamos una consecuencia del teorema de clasificación de la sección anterior que está muy relacionada con este resultado que acabamos de demostrar.

Teorema. Sea f:SRnRn de clase C1 en el conjunto abierto S y a¯S. Si Df(a¯) es invertible, entonces existen δ>0 y m>0 tales que Bδ(a¯)S y ||Df(b¯)(x¯)||m||x¯||, para todo b¯Bδ(a¯) y para todo x¯Rn.

Demostración. Como Df(a¯) es invertible, por el teorema que acabamos de demostrar existe ε>0 tal que ||Df(a¯)(x¯)||ε||x¯|| para todo x¯Rn.

Por nuestra caracterización de funciones C1, Ahora como fC1 en S (abierto) para ε=ε2>0, existe δ>0 tal que Bδ(a¯)S, y ||Df(b¯)(x¯)Df(a¯)(x¯)||ε2||x¯|| para todo b¯Bδ(a¯) y para todo x¯Rn.

Por la desigualdad del triángulo, ||Df(a¯)(x¯)Df(b¯)(x¯)||+||Df(b¯)(x¯)||||Df(a¯)(x¯)||,

de donde

||Df(b¯)(x¯)||||Df(a¯)(x¯)||||Df(b¯)(x¯)Df(a¯)(x¯)||ε||x¯||ε2||x¯||=ε2||x¯||.

De esta manera, el resultado es cierto para la δ que dimos y para m=ε2.

◻

El siguiente corolario es consecuencia inmediata de lo discutido en esta sección y está escrito de acuerdo a la aplicación que haremos más adelante en la demostración del teorema de la función inversa.

Corolario. Sea f:SRnRn una función de clase C1 en S y a¯S. Si Df(a¯) es invertible, entonces, existe δ>0 tal que Bδ(a¯)S y Df(b¯) es invertible para todo b¯Bδ(a¯).

Queda como tarea moral responder por qué este corolario es consecuencia inmediata del teorema anterior.

Un poco de intuición geométrica

Dejamos esta entrada hasta aquí, la naturaleza densamente teórica de lo que estamos haciendo puede hacer pesadas las exposiciones. Lo que hasta aquí demostramos es que para un campo vectorial C1 si su derivada en a¯ es invertible, entonces lo es en toda una vecindad que tiene a a¯. Imaginemos al pedacito de superficie f(Bδ(a¯)) cubierto con pequeños rectángulos. En cada punto, las imágenes de estos rectángulos están muy cerquita, casi pegados a la superficie. Esto nos garantizaría la invertibilidad de f en esta vecindad.

Figura 2

En la Figura 2 vemos ilustrado esto. El círculo inferior corresponde a la vecindad Bδ(a¯) en el dominio de f. La función f levanta una porción del plano en la sabana delineada con negro arriba del círculo. En el círculo tenemos al punto a¯ en verde agua. Sobre la sábana de arriba tenemos con el mismo color a f(a¯). Los puntos negros pequeños dentro de la vecindad alrededor de a¯ son alzados por f a puntos negros sobre la sabana. Sobre de cada punto negro en la sabana tenemos un cuadrito rojo que representa al cachito de plano tangente cerca de la imagen de cada punto. La imagen esta llena de estos pequeños cuadritos, todos ellos representan diferenciales invertibles, esto nos permitirá asegurar la invertibilidad de f en al menos una vecindad.

Más adelante…

En la siguiente entrada demostraremos el teorema de la función inversa, inciso por inciso. Es importante que estes familiarizado con los resultados de esta entrada, pues serán parte importante de la demostración.

Tarea moral

  1. ¿Qué diría el teorema de la función inversa para campos vectoriales f:R2R2? ¿Se puede usar para f(r,θ)=(rcos(θ),rsin(θ))? Si es así, ¿para qué valores de r y θ? ¿Qué diría en este caso explícitamente?
  2. Explica por qué el corolario que enunciamos en efecto se deduce de manera inmediata de lo discutido en la sección correspondiente.
  3. Revisa todas las desigualdades que usamos en esta entrada. ¿Qué resultado estamos usando? ¿Cuándo se darían estas igualdades?
  4. Demuestra que el determinante de una matriz es una función continua en términos de las entradas de la matriz. Usa esto para demostrar que si AMn(R) es una matriz y B es una matriz muy cercana a A, entonces B también es invertible.
  5. Demuestra que si una transformación T es diagonalizable, entonces en el teorema de caracterización de invertibilidad se puede usar como ϵ al mínimo de la expresión |λ| variando sobre todos los eigenvalores λ de T.

Entradas relacionadas

Cálculo Diferencial e Integral III: Regla de la cadena para campos vectoriales

Por Alejandro Antonio Estrada Franco

Introducción

Tenemos ya la definición de diferenciabilidad, y su versión manejable: la matriz jacobiana. Seguiremos construyendo conceptos y herramientas del análisis de los campos vectoriales muy importantes e interesantes. A continuación, enunciaremos una nueva versión de la regla de la cadena, que nos permitirá calcular las diferenciales de composiciones de campos vectoriales entre espacios de dimensión arbitraria. Esta regla tiene numerosas aplicaciones y es sorprendentemente fácil de enunciar en términos de producto de matrices.

Primeras ideas hacia la regla de la cadena

La situación típica de regla de la cadena es considerar dos funciones diferenciables que se puedan componer. A partir de ahí, buscamos ver si la composición también es diferenciable y, en ese caso, intentamos dar la derivada de la composición en términos de las derivadas de las funciones. Veamos qué pasa en campos vectoriales.

Pensemos en f:SfRmRn, g:SgRlRm y en su composición h=fg definida sobre alguna vecindad VSg de a¯ y tal que g(V)Sf. Pensemos que g es diferenciable en a¯ con derivada Ga¯ y que f es diferenciable en b¯:=g(a¯) con derivada Fb¯.

Exploremos la diferenciabilidad de la composición h en el punto a¯. Para ello, tomemos un y¯Rl tal que a¯+y¯V y consideremos la siguiente expresión:

h(a¯+y¯)h(a¯)=f(g(a¯+y¯))f(g(a¯)).

Tomando v¯=g(a¯+y¯)g(a¯), tenemos b¯+v¯=g(a¯)+v¯=g(a¯+y¯). De esta forma,

f(g(a¯+y¯))f(g(a¯))=f(b¯+v¯)f(b¯).

Por la diferenciabilidad de g en a¯, tenemos que podemos escribir

v¯=Ga¯(y¯)+||y¯||Eg(a¯;y¯), con limy¯0¯Eg(a¯;y¯)=0.

Usando la diferenciabilidad de f en b¯, y la linealidad de su derivada Fb¯, tenemos entonces que:

f(b¯+v¯)f(b¯)=Fb¯(v¯)+||v¯||Ef(b¯;v¯)=Fb¯(Ga¯(y¯)+||y¯||Eg(a¯;y¯))+||v¯||Ef(b¯;v¯)=(FbGa¯)(y¯)+||y¯||(Fb¯Eg(a¯;y¯))+||v¯||Ef(b¯;v¯),

con limy¯0¯Ef(b¯;v¯)=0.

Concatenando nuestras igualdades, podemos reescribir esto como

h(a¯+y¯)h(a¯)=(Fb¯Ga¯)(y¯)+||y¯||Eh(a¯;y¯), en donde hemos definido

Eh(a¯;y¯)=(Fb¯Eg)(a¯;y¯)+||v¯||||y¯||Ef(b¯;v¯). Si logramos demostrar que limy¯0¯Eh(a¯;y¯)=0, entonces tendremos la diferenciabilidad buscada, así como la derivada que queremos. Dejemos esto en pausa para enunciar y demostrar un lema auxiliar.

Un lema para acotar la norma de la derivada en un punto

Probemos el siguiente resultado.

Lema. Sea ϕ:SRlRm un campo vectorial diferenciable en un punto c¯S y Tc¯ su derivada. Entonces, para todo v¯Rl, se tiene:

||Tc¯(v¯)||k=1m||ϕk(c¯)||||v¯||.

Donde ϕ(v¯)=(ϕ1(v¯),,ϕm(v¯))

Demostración. Procedemos con desigualdad del triángulo como sigue:

||Tc¯(v¯)||=||k=1m(ϕk(c¯)v¯)ek||k=1m||(ϕk(c¯)v¯)ek||=k=1m|ϕk(c¯)v¯|

y luego usamos la desigualdad de Cauchy-Schwarz en cada sumando para continuar como sigue

k=1m||ϕk(c¯)||||v¯||,

que es lo que buscábamos.

◻

Conclusión del análisis para regla de la cadena

Retomando el análisis para Eh(a¯;y¯), dividamos el límite en los dos sumandos.

Primer sumando:

Como Fb¯ es lineal, entonces es continua. También, sabemos que limy¯0¯Eg(a¯;y¯)=0. Así,

limy¯0¯(Fb¯Eg)(a¯;y¯)=Fb¯(limy¯0¯Eg(a¯;y¯))=Fb¯(0¯)=0.

Segundo sumando:

Retomando la definición de v¯, aplicando desigualdad del triángulo y el lema que demostramos,

||v¯||=||Ga¯(y¯)+||y¯||Eg(a¯;y¯)||||Ga¯(y¯)||+||y¯||||Eg(a¯;y¯)||(k=1m||gk(a¯)||||y¯||)+||y¯||||Eg(a¯;y¯)||.

Dividiendo ambos lados entre ||y¯||, obtenemos entonces que

||v¯||||y¯||k=1m||gk(a¯)||+||Eg(a¯;y¯)||.

De aquí se ve que conforme y¯0¯, la expresión ||v¯||||y¯|| está acotada superiormente por la constante A:=k=1m||gk(a¯)||. Además, si y¯0¯, entonces v¯0¯. Así,

0limy¯0¯||v¯||||y¯||Ef(b¯,v¯)Alimy¯0¯Ef(b¯,v¯)=0 pues limy¯0¯v¯=0¯ implica limy¯0¯Ef(b¯,v¯).

Hemos concluido que h(a¯+y¯)h(a¯)=(Fb¯Ga¯)(y¯)+||y¯||Eh(a¯;y¯),

con limy¯0¯Eh(a¯;y¯)=0. Esto precisamente es la definición de h=fg es diferenciable en a¯, y su derivada en a¯ es la transformación lineal dada por la composición de transformaciones lineales Fb¯Ga¯.

Recapitulación de la regla de la cadena

Recapitulamos toda la discusión anterior en el siguiente teorema.

Teorema (Regla de la cadena). Sean f:SfRmRn, g:SgRlRm campos vectoriales. Supongamos que la composición fg está definida en todo un abierto SSg. Supongamos que g es diferenciable en un punto a¯S con derivada Ga¯ y f es diferenciable en b¯:=g(a¯) con derivada Fb¯. Entonces, h es diferenciable en a¯ con derivada Fb¯Ga¯.

Dado que la representación matricial de la composición de dos transformaciones lineales es igual al producto de estas, podemos reescribir esto en términos de las matrices jacobianas como el siguiente producto matricial: Dh(a¯)=Df(b¯)Dg(a¯).

Usos de la regla de la cadena

Hagamos algunos ejemplos de uso de regla de la cadena. En el primer ejemplo que veremos a continuación, la función f es un campo escalar.

Ejemplo 1. Tomemos g:SRnRm campo vectorial, y f:URmR campo escalar. Consideremos h=fg y supongamos que se satisfacen las hipótesis del teorema de la regla de la cadena. Tenemos: Df(b¯)=(fx1(b¯)fxm(b¯)) y Dg(a¯)=(g1x1(a¯)g1xn(a¯)gmx1(a¯)gmxn(a¯)).

Por la regla de la cadena tenemos Dh(a¯)=Df(b¯)Dg(a¯) esto implica (hx1(a¯)hxn(a¯))=(fx1(b¯)fxm(b¯))(g1x1(a¯)g1xn(a¯)gmx1(a¯)gmxn(a¯)).

Así (hx1(a¯)hxn(a¯))=(i=1mfxi(b¯)gix1(a¯)i=1mfxi(b¯)gixn(a¯)).

En otras palabras, tenemos las siguientes ecuaciones para calcular cada derivada parcial de h: hxj(a¯)=i=1mfxi(b¯)gixj(a¯).

Ejemplo 2. Sean a¯=(s,t) y b¯=(x,y) puntos en R2. Pensemos que las entradas de b¯ están dadas en función de las entradas de a¯ mediante las ecuaciones x=g1(s,t) y y=g2(s,t). Pensemos que tenemos un campo escalar f:R2R, y definimos h:R2R mediante h(s,t)=f(g1(s,t),g2(s,t)).

Por el ejemplo anterior hs=fxxs+fyys y ht=fxxt+fyyt. Como tarea moral queda que reflexiones qué significa x cuando aparece en el «numerador» y qué significa cuando aparece en el «denominador».

Ejemplo 3. Para un campo escalar f(x,y) consideremos un cambio de coordenadas x=rcosθ, y=rsenθ es decir tomemos la función ϕ(r,θ)=f(rcosθ,rsenθ).

Por el ejemplo anterior tenemos ϕr=fxxr+fyyr y ϕθ=fxxθ+fyyθ donde, haciendo las derivadas parciales tenemos: xr=cosθ,yr=senθ y xθ=rsenθ,yθ=rcosθ. Finalmente obtenemos: ϕr=fxcosθ+fysenθ y ϕθ=fxrsenθ+fyrcosθ que son las derivadas parciales del cambio de coordenadas en el dominio de f.

Mas adelante…

En la siguiente entrada comenzaremos a desarrollar la teoría para los importantes teoremas de la función inversa e implícita si tienes bien estudiada esta sección disfrutaras mucho de las siguientes.

Tarea moral

  1. Considera el campo escalar F(x,y,z)=x2+ysen(z). Imagina que x,y,z están dados por valores u y v mediante las condiciones x=u+v, y=vu, z=u. Calcula Fu, Fv.
  2. Sea g(x,y,z)=(xy,x), y f(x,y)=(2x,xy2,y). Encuentra la matriz jacobiana del campo vectorial gf. Encuentra también la matriz jacobiana del campo vectorial fg.
  3. En la demostración del lema que dimos, hay un paso que no justificamos: el primero. Convéncete de que es cierto repasando el contenido de la entrada anterior Diferenciabilidad.
  4. Imagina que sabemos que la función f:RnRn es invertible y derivable en a¯ con derivada Ta¯. Imagina que también sabemos que su inversa f1 es derivable en b¯=f(a¯) con derivada Sb¯. De acuerdo a la regla de la cadena, ¿Qué podemos decir de Ta¯Sb¯? En otras palabras, ¿Cómo son las matrices jacobianas entre sí, en términos de álgebra lineal?
  5. Reflexiona en cómo todas las reglas de la cadena que hemos estudiado hasta ahora son un corolario de la regla de la cadena de esta entrada.

Entradas relacionadas

Cálculo Diferencial e Integral III: Polinomio característico

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.

A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:

Polinomio característico

Pensemos en el problema de hallar los eigenvalores de una transformación lineal T:RnRn. Si λR es uno de estos eigenvalores, queremos poder encontrar vectores v¯0¯ tales que T(v¯)=λv¯. Esto sucede si y sólo si λv¯T(v¯)=0¯, lo cual sucede si y sólo si (λIdT)(v¯)=0¯, en donde Id:RnRn es la transformación identidad de Rn en Rn. Tenemos de esta manera que v¯ es un eigenvector si y sólo si v¯ker(λIdT).

Si existe v¯0¯ tal que v¯ker(λIdT); entonces ker(λIdT){0¯} por lo cual la transformación λIdT no es invertible, pues no es inyectiva. Así, en ninguna base Matβ(λIdT) es invertible, y por tanto su determinante es 0. Estos pasos son reversibles. Concluimos entonces que λR es un eigenvalor de T si y sólo si en alguna base β se cumple que det(Matβ(λIdT))=0. Esto motiva la siguiente definición.

Definición. Sea T:RnRn una transformación lineal. Llamamos a det(Matβ(λIdT)) al polinomio característico de T en la base β.

Por la discusión anterior, los escalares que cumplen det(Matβ(λIdT))=0 son los eigenvalores T. Para obtener los correspondientes eigenvectores, basta con resolver Matβ(T)X=λX, lo cual es un sistema de ecuaciones en el vector de variables X. Las soluciones X nos darán las representaciones matriciales de vectores propios v¯Rn en la base β.

Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.

Ejemplo: Consideremos T:R3R3 dada por T(x,y,z)=(2x+z,y+x,z). Calculemos su representación matricial con respecto a la base canónica β. Para ello, realizamos las siguientes evaluaciones:
T(1,0,0)=(2,1,0)T(0,1,0)=(0,1,0)T(0,0,1)=(1,0,1),

de donde: Matβ=(201110001).

Calculando el polinomio característico obtenemos: det(λ2011λ1000λ+1)=(λ2)(λ1)(λ+1).

Las raíces de (λ2)(λ1)(λ+1) son λ1=2, λ2=1 y λ3=1. Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor λ=2. Para que (x,y,z) represente a un eigenvector en la base canónica, debe pasar que:

(201110001)(xyz)=2(xyz),

lo cual sucede si y sólo si:

(201110001)(xyz)2(xyz)=(000);

[(201110001)2(100010001)](xyz)=(000);

(001110003)(xyz)=(000).

De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:

(110001000)(xyz)=(000).

En esta forma es sencillo leer las soluciones. Tenemos que z es variable pivote con z=0, que y es variable libre, y que x es variable pivote dada por x=y. Concluimos entonces que todos los posibles eigenvectores para el eigenvalor 2 son de la forma (y,y,0), es decir E2={(y,y,0):yR}.

Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores 1 y 1.

Matrices similares

En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.

Sea T:RnRn una transformación lineal y sean β1={e¯1,,e¯n}, β2={u¯1,,u¯n} dos bases (ordenadas) de Rn. Supongamos que:

A=Matβ1(T)=[aij]B=Matβ2(T)=[bij].

Por cómo se construyen las matrices A y B, tenemos que:

T(e¯j)=i=1naije¯ipara j=1,,nT(u¯k)=j=1nbjku¯jpara k=1,,n.

Como β1 es base, podemos poner a cada un de los u¯k de β2 en términos de la base β1 mediante combinaciones lineales, digamos:

(4)u¯k=j=1ncjke¯j

en donde los cjk son escalares para j=1,,n y k=1,,n. La matriz C de n×n, con entradas cjk representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que CB=AC. Para ello, tomaremos una k en [n] y expresaremos T(u¯k) de dos formas distintas.

Por un lado, usando (4) y por como es cada T(e¯k) en la base β1 tenemos que:

T(u¯k)=j=1ncjkT(e¯j)=j=1ncjki=1naije¯i=j=1ni=1n(cjkaije¯i)=i=1nj=1n(cjkaije¯i)=i=1n(j=1naijcjk)e¯i.

Por otro lado, usando (4) y por como es cada T(u¯k) en la base β2:

T(u¯k)=j=1nbjku¯j=j=1nbjki=1ncjie¯j=j=1ni=1n(bjkcije¯i)=i=1nj=1n(bjkcije¯i)=i=1n(j=1ncijbjk)e¯i.

Comparemos ambas expresiones para T(u¯k). La primera es una combinación lineal de los e¯i y la segunda también. Como T(u¯k) tiene una única expresión como combinación lineal de los e¯i, entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada i se cumple:

j=1naijcjk=j=1ncijbjk.

Pero esto precisamente nos dice que la entrada (i,k) de la matriz AC es igual a la entrada (i,k) de la matriz CB. Con esto concluimos que AC=CB, como queríamos.

En resumen, obtuvimos que para dos matrices A y B que representan a la misma transformación lineal, existe una matriz invertible C tal que: B=C1AC. Además C es la matriz con entradas dadas por (4).

Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.

Definición. Dos matrices A y B se llamarán similares (o semejantes), cuando existe otra matriz C invertible tal que B=C1AC.

Sintetizamos nuestro resultado de la siguiente manera.

Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.

El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.

Proposición. Sean A y B matrices similares. Entonces A y B representan a una misma transformación lineal T, quizás bajo distintas bases.

Demostración: Supongamos que las matrices A y B son similares con B=C1AC, donde las matrices A, B, C están dadas por entradas A=[aij] B=[bij], C=[cjk]. Tomemos una base ordenada β={e¯1,,e¯n} de Rn. Consideremos la transformación lineal TL(Rn,Rn) dada por T(e¯j)=i=1naije¯i.

De esta manera T tiene forma matricial A en la base β.

Construyamos ahora una nueva base ordenada de Rn dada por vectores u¯k para k=1,,n construidos como sigue:

u¯k=j=1ncjke¯j.

Como C es invertible, en efecto tenemos que β:={u¯1,,u¯n} también es base de Rn. Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de T en la base β será B.

Así, hemos exhibido una transformación T que en una base tiene representación A y en otra tiene representación B.

◻

Juntando ambos resultados en uno solo, llegamos a lo siguiente.

Teorema. Dos matrices A y B en Mn(R) son similares si y sólo si representan a una misma transformación lineal T:RnRn, quizás bajo distintas bases.

El polinomio característico no depende de la base

Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.

Teorema. Sea T:RnRn una transformación lineal en un espacio sobre R de dimensión finita. Sean β y β bases de Rn. Entonces se obtiene lo mismo calculando el polinomio característico de T en la base β, que en la base β.

Demostración. Tomemos A=Matβ(T) y B=Matβ(T). Como A y B representan a la misma transformación lineal T, entonces son similares y por lo tanto existe C invertible con B=C1AC.

Para encontrar el polinomio característico de T en la base β, necesitamos Matβ(λIdT), que justo es λIA. Así mismo, en la base β tenemos λIB. Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:

det(λIB)=det(λC1CC1AC)=det(C1(λIA)C)=det(C1)det(λIA)det(C)=det(C1)det(C)det(λIA)=det(I)det(λIA)=det(λIA).

Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con det, lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.

◻

Este teorema nos permite hablar del polinomio característico de una transformación lineal.

Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.

Teorema. Sea T:RnRn una transformación lineal. Supongamos que el polinomio característico de T tiene raíces distintas λ1,,λn. Entonces se cumple lo siguiente:

  1. Si tomamos un eigenvector u¯i para cada eigenvalor λi, entonces u¯1,,u¯n forman una base β para Rn.
  2. Con dicha base β, se cumple que Matβ(T) es una matriz diagonal con entradas λ1,,λn en su diagonal.
  3. Si β es otra base de Rn y A=Matβ(T), entonces Matβ(T)=C1AC para una matriz invertible C con entradas dadas por (4).

La demostración de este resultado queda como tarea moral.

Más adelante…

En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación T: 1) la transformamos en una matriz A, 2) encontramos el polinomio característico mediante det(λIA), 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones (λIA)X=0 dan los vectores coordenada de los eigenvectores.

Como platicamos en la entrada, una condición suficiente para que una transformación de Rn a sí mismo sea diagonalizable es que tenga n eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.

Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de Rn a Rm son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.

Tarea moral

  1. Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
  2. Considera la transformación lineal T(x,y,z)=(2x+z,y+x,z) de R3 en R3. Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base {(1,1,1),(1,2,3),(0,1,1)} de R3. Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
  3. Demuestra que si A y B son dos representaciones matriciales de una misma transformación lineal T, entonces det(A)=det(B).
  4. Sea T:R3R3 dada por T(x,y,z)=(x+y+z,x,y). Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base β en la cual Matβ(T) es diagonal.
  5. Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.

Entradas relacionadas

Álgebra Lineal I: Aplicaciones del teorema espectral, bases ortogonales y más propiedades de transformaciones lineales

Por Blanca Radillo

Introducción

Hoy es la última clase del curso. Ha sido un semestre difícil para todas y todos. El quedarnos en casa, obligados a buscar alternativas digitales que sean de fácil acceso para la mayoría de las personas, aprender a realizar toda nuestra rutina diaria en un mismo espacio; sin dudarlo, un semestre lleno de retos que de una u otra manera, haciendo prueba y error, hemos aprendido a sobrellevar.

El día de hoy terminaremos con el tema de teoría espectral. Veremos algunos problemas donde usaremos las técnicas de búsqueda de eigenvalores y eigenvectores, así como aplicaciones de uno de los teoremas más importante: el Teorema Espectral.

Matrices simétricas, matrices diagonalizables

En entradas anteriores hemos discutido sobre qué condiciones me garantizan que una matriz A es diagonalizable. No volveremos a repetir cuál es la definición de matriz diagonalizable ya que en múltiples ocasiones lo hicimos.

Sabemos que una matriz simétrica en Mn(R) siempre es diagonalizable, gracias al teorema espectral, pero el siguiente problema nos ilustra que si cambiamos de campo F, no tenemos la garantía de que las matrices simétricas en Mn(F) también lo sean.

Problema 1. Demuestra que la matriz simétrica con coeficientes complejos

A=(1ii1)

no es diagonalizable.

Solución. Por la primera proposición de la clase «Eigenvalores y eigenvectores de transformaciones y matrices», si A fuese diagonalizable, es decir, que existe una matriz invertible P y una diagonal D tal que A=P1DP, entonces A y D tienen los mismos eigenvalores. Entonces, encontremos los eigenvalores de A: buscamos λC tal que det(λIA)=0,

det(λIA)=|λ1iiλ+1|=(λ1)(λ+1)i2=λ21+1=λ2=0.

Por lo tanto, el eigenvalor con multiplicidad 2 de A (y también el eigenvalor de D) es λ=0. Si D es de la forma

D=(a00b),

es fácil ver (y calcular) que sus eigenvalores son a y b, pero por lo anterior, podemos concluir que a=b=0, y por lo tanto D es la matriz cero. Si fuese así, A=P1DP=0, contradiciendo la definición de A.

◻

Problema 2. Sea A una matriz simétrica con entradas reales y supongamos que Ak=I para algún entero positivo k. Prueba que A2=I.

Solución. Dado que A es simétrica y con entradas reales, todos sus eigenvalores son reales. Más aún son k-raíces de la unidad, entonces deben ser ±1. Esto implica que todos los eigenvalores de A2 son iguales a 1. Dado que A2 también es simétrica, es diagonalizable y, dado que sus eigenvalores son iguales a 1, por lo tanto A2=I.

◻

Más propiedades de transformaciones lineales y bases ortogonales

En otras clases como Cálculo, Análisis, hablamos de funciones continuas, discontinuas, acotadas, divergentes; mientras que en este curso nos hemos enfocado únicamente en la propiedad de linealidad de las transformaciones. Si bien no es interés de este curso, podemos adelantar que, bajo ciertas condiciones del espacio V, podemos tener una equivalencia entre continuidad y acotamiento de una transformación.

Decimos que la norma de una transformación está definida como

T=supxV0T(x)x.

Por ende, decimos que una transformación es acotada si su norma es acotada, T<.

Problema 1. Sea V un espacio euclideano y sea T una transformación lineal simétrica en V. Sean λ1,,λn los eigenvalores de T. Prueba que

supxV0T(x)x=max1in|λi|.

Solución. Renumerando a los eigenvalores, podemos decir que maxi|λi|=|λn|. Sea e1,,en una base ortonormal de V tal que T(ei)=λiei para todo i. Si xV0, podemos escribirlo como x=x1e1++xnen para algunos reales xi. Entonces, por linealidad de T,

T(x)=i=1nλixiei.

Dado que |λi||λn| para toda i, tenemos que

T(x)x=i=1nλi2xi2i=1nxi2|λn|,

por lo tanto

max1in|λi|=|λn|=T(en)ensupxV0T(x)x|λn|=max1in|λi|.

Obteniendo lo que queremos.

◻

Para finalizar, no olvidemos que una matriz es diagonalizable si y sólo si el espacio tiene una base de eigenvectores, y que está íntimamente relacionado con el teorema espectral.

Problema 2. Encuentra una base ortogonal consistente con los eigenvectores de la matriz

A=17(263632326).

Solución. Para encontrar los eigenvectores, primero encontrar los eigenvalores y, después, para cada eigenvalor, encontrar el/los eigenvectores correspondientes.

Calculemos:

0=det(λIA)=|λ+2/76/73/76/7λ3/72/73/72/7λ6/7|=λ3λ2λ+1=(λ1)(λ21),

entonces los eigenvalores de A son 1,1, (λ=1 tiene multiplicidad 2).

Ahora, hay que encontrar los vectores v=(x,y,z) tal que Av=λv, para todo eigenvalor λ.

Si λ=1,

(λIA)v=17(56361023213)v=0,

reduciendo, obtenemos que v=(3α,2α,α) para todo αR.

Si λ=1, resolviendo de la misma manera (λIA)v=(IA)v=0, tenemos que v=(β,γ,3β+2γ) para todo β,γ. Entonces el conjunto de eigenvectores es

B={v1=(3,2,1),v2=(1,0,3),v3=(0,1,2)}.

Es fácil ver que el conjunto B es linealmente independiente, más aún dim(R3)=3=|B|, por lo tanto, B es la base consistente con los eigenvectores de A.

Agradecemos su esfuerzo por llegar hasta el final a pesar de todas las adversidades. Esperamos pronto volver a ser sus profesores/ayudantes. Mucha suerte en la última parcial, es el último esfuerzo. Pero también les deseamos mucho éxito en su proyecto de vida. ¡Gracias!

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»