Archivo de la etiqueta: Teorema de Gauss

Cálculo Diferencial e Integral III: Formas cuadráticas

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior hablamos de formas bilineales. A partir de esta noción podemos introducir otra más: la de formas cuadráticas. Las formas cuadráticas son cruciales, pues es a partir de ellas que podemos hacer geometría en espacios vectoriales.

Formas bilineales simétricas

Hay unas formas bilineales que son especiales pues al intercambiar los vectores argumento no cambian de valor.

Definición. Una forma bilineal bB(Rn) es simétrica si b(u¯,v¯)=b(v¯,u¯) para todos los u¯,v¯Rn.

Cuando una forma bilineal es simétrica, la matriz que la representa también. En efecto, si A es una representación matricial de la forma bilineal b en la base β, podemos escribir: b(u¯,v¯)=[u¯]tA[v¯]=([u¯]tA[v¯])t=[v¯]tAt[u¯].

En la igualdad de en medio usamos que [u¯]tA[v¯]R para obtener que este producto matricial es igual a su transpuesta (¿por qué?). Así pues, si b es simétrica: [v¯]tAt[u¯]=b(u¯,v¯)=b(v¯,u¯)=[v¯]tA[u¯],

para todo u¯,v¯Rn. En particular, al evaluar b(e¯i,e¯j) para e¯i,e¯j una pareja de elementos de la base β obtenemos que A y At coinciden en cualquier entrada (i,j). Por lo tanto A=At, entonces A es simétrica.

Formas cuadráticas y su forma polar

Una forma cuadrática se obtiene de evaluar una forma bilineal usando el mismo vector para ambas entradas. Formalmente, tenemos lo siguiente.

Definición. Una función q:RnR es una forma cuadrática si existe una forma bilineal b:Rn×RnR tal que q(v¯)=b(v¯,v¯) para todo v¯ en Rn. A q le llamamos la forma cuadrática asociada a b.

Es posible que una misma forma cuadrática pueda ser creada por dos formas bilineales distintas.

Ejemplo. Tomemos la forma bilineal b1((x1,x2),(y1,y2))=0 para todos u¯,v¯R2 y la forma bilineal b2((x1,x2),(y1,y2))=x1y2x2y1. Si q1 es la forma cuadrática asociada a b1 y q2 es la forma cuadrática asociada a b2, se tiene que q1((x1,x2))=0 para todo (x1,x2) en R2, y también se tiene que q2((x1,x2))=0 para todo (x1,x2) en R2 (verifícalo). Así, aunque b1b2, se tiene que q1=q2.

Si agregamos la hipótesis adicional de que la forma bilineal que se usa sea simétrica, entonces sí tenemos unicidad. De hecho, podemos saber exactamente de qué forma bilineal simétrica b viene una forma cuadrática dada q. Este es el contenido del siguiente teorema, que se llama el teorema de la identidad de polarización.

Teorema. Si q es una forma cuadrática en Rn, entonces existe una única forma bilineal b simétrica tal que q(v¯)=b(v¯,v¯) para todo v¯Rn. Más aún, (1)b(u¯,v¯)=12(q(u¯+v¯)q(u¯)q(v¯))..

Demostración. Haremos sólo parte de la demostración: la de la unicidad. El resto puede consultarse, por ejemplo, en la entrada Formas cuadráticas, propiedades, polarización y teorema de Gauss. Supongamos que q es forma cuadrática y que viene de la forma bilineal simétrica B. Desarrollando el lado derecho de la ecuación tenemos

12(q(u¯+v¯)q(u¯)q(v¯))=12(B(u¯+v¯,u¯+v¯)B(u¯,u¯)B(v¯,v¯))=12(B(u¯+v¯,u¯)+B(u¯+v¯,v¯)B(u¯,u¯)B(v¯,v¯))=12(B(u¯,u¯)+B(v¯,u¯)+B(u¯,v¯)+B(v¯,v¯)B(u¯,u¯)B(v¯,v¯))=12(2B(u¯,v¯))=B(u¯,v¯).

Esto muestra que la expresión del teorema es la única que podría servir para obtener la forma bilineal simétrica de la que viene q. El resto de la demostración consiste en ver que, en efecto, la expresión propuesta es bilineal y es simétrica.

◻

Por el teorema de la identidad de polarización, podemos siempre suponer que una forma cuadrática viene de una forma bilineal simétrica b, a la que le llamaremos su forma polar.

Forma matricial de una forma cuadrática

Definición. Sea q una forma cuadrática de Rn y β una base de Rn. La forma matricial de q en la base β será la forma matricial de su forma polar en la base β.

Por lo visto anteriormente, si b es simétrica, se representa por una matriz simétrica A=aij. Así, las formas matriciales de formas cuadráticas siempre son simétricas. Para evaluar q, podemos hacer lo siguiente:

q(v¯)=b(v¯,v¯)=[v¯]tA[v¯]=(x1xn)(a11a1nan1ann)(x1xn)

Desarrollando el producto obtenemos q(v¯)=a11x12+a22x22++annxn2+2i<jaijxixj.

Esta última ecuación en las variables xi se denomina el polinomio cuadrático correspondiente a la matriz simétrica A.

Nota que si la matriz A es diagonal, entonces q tendrá el siguiente polinomio cuadrático: (2)q(v¯)=[v¯]tA[v¯]=a11x12+a22x22++annxn2.

Este es un polinomio muy sencillo: no tendrá términos con «productos cruzados».

Teorema de Gauss para formas cuadráticas

Enseguida presentamos un teorema muy importante de formas cuadráticas. Su importancia radica en que siempre deseamos simplificar los objetos que tenemos.

Teorema. Sea b una forma bilineal simétrica en V, un espacio vectorial de dimensión finita n sobre R. Entonces V tiene una base {v¯1,,v¯n} en la que b se representa por una matriz diagonal, es decir, b(v¯i,v¯j)=0 para ij.

Demostración. Procederemos por inducción sobre n=dimV. Si dimV=1, se cumple claramente (¿Por qué?). Por tanto, podemos suponer dimV>1. Si b=0, también la afirmación es cierta inmediatamente, pues b se representa por una matriz de puros ceros. Si q(v¯)=b(v¯,v¯)=0 para todo v¯V, al escribir b en su forma polar se obtiene que b=0 . Por esta razón se puede suponer que existe un vector v¯1V tal que b(v¯1,v¯1)0. Sean U el subespacio generado por v¯1 y W el conjunto de aquellos vectores v¯V para los que b(v¯1,v¯)=0. Afirmamos que V=UW.

  1. UW={0¯}. Supongamos u¯UW. Como u¯U, u¯=kv¯1 para algún escalar kR. Como u¯W, 0=b(v¯1,u¯)=b(v¯1,kv¯1)=kb(v¯1,v¯1). Pero b(v¯1,v¯1)0; luego k=0 y por consiguiente u¯=0¯. Así UW={0¯}.
  2. Veamos que V=U+W. Sea v¯V. Consideremos w¯ definido como: w¯=v¯b(v¯1,v¯)b(v¯1,v¯1)v¯1. Entonces b(v¯1,w¯)=b(v¯1,v¯)b(v¯1,v¯)b(v¯1,v¯1)b(v¯1,v¯1)=0. Así w¯W. Por tanto v¯ es la suma de un elemento de U y uno de W. Entonces se cumple V=U+W.
    Ahora b restringida a W es una forma bilineal simétrica en W. Pero dimW=n1, luego existe una base {v¯2,,v¯n} de W tal que b(v¯i,v¯j)=0 para ij y 2i,jn. Por la propia definición de W, b(v¯1,v¯j)=0 para j=2,n. Por tanto, la base {v¯1,,v¯n} de V tiene la propiedad requerida de que b(v¯i,v¯j)=0 para ij.

◻

Tenemos pues que para toda forma bilineal simétrica tenemos una representación matricial diagonal. Dicho en otras palabras, para cualquier matriz simétrica A en Mn(R), se tiene que es congruente a alguna matriz diagonal. También de aquí se tiene que para toda forma cuadrática tenemos una representación matricial diagonal.

Formas cuadráticas positivas y positivas definidas

Otra noción importante para formas cuadráticas es la siguiente.

Definición. Diremos que una forma cuadrática q:RnR es positiva si se cumple que q(x¯)0 para todo x¯Rn. Diremos que es positiva definida si se cumple que q(x¯)>0 para todo x¯Rn{0¯}.

Si b es la forma bilineal simétrica que define a q y A es una matriz que represente a b en alguna base β, se puede ver que q es positiva si y sólo si XtAX0 para todo XRn. Así mismo, es positiva definida si y sólo si XtAX>0 para todo X0 en Rn. Esto motiva la siguiente definición para matrices.

Definición. Sea ARn una matriz simétrica. Diremos que es positiva si se cumple que XtAX0 para todo XRn. Diremos que es, es positiva definida si y sólo si XtAX>0 para todo X0 en Rn.

Una propiedad importante que queda como tarea moral es que la propiedad de ser positiva (o positiva definida) es invariante bajo congruencia de matrices.

Hay otras maneras de saber si una matriz es positiva, o positiva definida. De hecho, en la entrada de Matrices positivas y congruencia de matrices de nuestro curso de Álgebra Lineal II puedes encontrar la siguiente caracterización:

Teorema. Sea A una matriz simétrica en Mn(R). Las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. A es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. A puede ser escrita de la forma BtB para alguna matriz BMn(R).

Hay otro resultado más que relaciona a las matrices positivas definidas con sus eigenvalores.

Teorema. Si A es una matriz simétrica en Mn(R) y es positiva definida, entonces todos sus eigenvalores son positivos.

Matriz Hessiana

Veamos cómo se aplican algunas de las ideas vistas en cálculo. Retomemos la discusión de la entrada Polinomio de Taylor para campos escalares. Hacia el final de la entrada enunciamos el teorema de Taylor en el caso especial de grado 2. Al tomar un campo escalar f y un punto a¯, el polinomio de Taylor de grado 2 estaba dado como sigue:

T2,a¯(a¯+v¯)=f(a¯)+(v¯)f(a¯)1!+(v¯)2f(a¯)2!.

Donde

(v¯)2f(a¯)2!=i=1nj=1nvivj2fxjxi(a¯).

Observa que este sumando se puede pensar como una forma cuadrática:

q(v¯)=(v1vn)(2fx12(a)2fx1xn(a¯)2fxnx1(a¯)2fxn2(a¯))(v1vn)

La matriz de esta forma cuadrática tiene una importancia especial en el cálculo de varias variables, y por ello tiene su propia definición.

Definición. Sea f un campo escalar definido sobre algún subconjunto abierto de Rn. Si f tiene derivadas parciales de segundo orden en el punto a¯, a la siguiente matriz la llamamos la matriz hessiana de f en a¯:

Hf(a¯)=(2fx12(a¯)2fx1xn(a¯)2fxnx1(a¯)2fxn2(a¯)).

Cuando hablemos de optimización, esta matriz tomará un significado especial. Por ahora, enfoquémonos en entender cómo obtenerla.

Ejemplo. Encontraremos la matriz Hessiana del campo escalar f(x,y)=sin(xy) en el punto (1,π4). Para ello, calculamos las siguientes derivadas parciales de orden 1 y 2:

fx=ycos(xy),2fx2=y2sin(xy),2fyx=cos(xy)xysin(xy)

fy=xcos(xy),2fy2=x2sin(xy),2fxy=cos(xy)xysin(xy).

Por lo tanto

H(x,y)=(y2sin(xy)cos(xy)xysin(xy)cos(xy)xysin(xy)x2sin(xy)).

Evaluando en el punto (1,π4),

H(1,π4)=(π2162222(1π4)22(1π4)22).

Mas adelante…

Con esto terminamos nuestro repaso de álgebra lineal, y con ello tenemos las herramientas necesarias para poder retomar nuestro estudio de las funciones en varias variables. En la siguiente entrada comenzaremos con el concepto de diferenciabilidad. A lo largo de las siguientes entradas, iremos viendo por qué las herramientas de álgebra lineal que desarrollamos son importantes.

Así mismo, cuando lleves un curso de Cálculo Diferencial e Integral IV también retomaras una parte importante de la teoría que hemos repasado.

Tarea moral

  1. Responder en la primer definición porque [u¯]tA[v¯]R.
  2. Demostrar que el espacio W del último teorema es un subespacio vectorial de V.
  3. Explicar en la demostración del último teorema por qué éste se cumple cuando b=0 o dimV=1.
  4. Explicar porque dimW=n1.
  5. Verifica que si una matriz A es positiva definida, entonces cualquier matriz B congruente a A también es positiva definida.
  6. Demuestra el último teorema de esta entrada, es decir, que las matrices simétricas positivas definidas tienen eigenvalores positivos.

Entradas relacionadas

Álgebra Lineal II: Problemas de formas bilineales, cuadráticas y teorema de Gauss

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores nos dedicamos a recordar las definiciones y algunas propiedades de formas bilineales y cuadráticas en Rn con el fin de enunciar y demostrar el teorema de Gauss. La prueba da un método para representar cualquier forma cuadrática de este modo, pero es mucho más claro cómo se hace este método mediante ejemplos. En esta entrada veremos un par de problemas para seguir repasando formas bilineales y cuadráticas y luego veremos al teorema de Gauss en acción.

Ver que una función es una forma bilineal

Problema. Tomemos V=Rn y vectores x,y en V de coordenadas x=(x1,...,xn) y y=(y1,...,yn). Tomemos reales a1,,an. Definamos a b:V×VR como sigue:
b(x,y)=a1x1y1+...+anxnyn.

Probemos que así definida, b es una forma bilineal.

Solución. Para probar que b es bilineal, probaremos que la función b(x,) es lineal para cada xRn fijo.

Sean p,qRn y λR. Tenemos que:
b(x,λp+q)=i=1naixi(λpi+qi).

Como todos los miembros de esta operación son números reales, utilicemos las propiedades distributiva y conmutativa. Obtenemos:

b(x,λp+q)=i=1naixiλpi+i=1naixiqi=λi=1naixipi+i=1naixiqi=λb(x,p)+b(x,q).

La demostración de que la función b(,y) también es lineal para cada yRn fijo es análoga.

◻

En particular, si tenemos que a1,,an=1, obtenemos que b es el producto interno canónico de Rn, es decir el producto punto.

Ver que una función no es una forma cuadrática

Problema. Sea q:R2R dada como sigue

q(x,y)=x2+y28x.

¿Es q una forma cuadrática?

Solución. La respuesta es que no. Con el fin de encontrar una contradicción, supongamos que q sí es una forma cuadrática. Entonces su forma polar b debe cumplir:

b((x,y),(x,y))=x2+y28x.

Aplicando lo anterior al par (x,y) obtendríamos:

b((x,y),(x,y))=x2+y2+8x.

Por otro lado, sacando escalares en ambas entradas:

b((x,y),(x,y))=(1)(1)b((x,y),(x,y))=b((x,y),(x,y)).

Juntando las igualdades, concluimos que

x2+y28x=x2+y2+8x

por lo que

16x=0.

Pero esto no es cierto en general pues falla, por ejemplo, para la pareja (1,0). Este error nació de suponer que q era una forma cuadrática. Por lo tanto q no es forma cuadrática.

El teorema de Gauss en acción

Para simplificar el lenguaje, si logramos escribir a una forma cuadrática q como nos dice el teorema de Gauss, es decir, de la forma q(x)=i=1rαi(li(x))2, entonces diremos que q es combinación cuadrática de las li con coeficientes αi.

Problema. Toma la forma cuadrática q de R3 definida como sigue:

q(x,y,z)=4xy+yz+xz

Escribe a q como combinación cuadrática de formas lineales linealmente independientes.

Solución. Revisando la demostración dada en la entrada anterior, tenemos tres casos:

  • Que la forma cuadrática sea la forma cuadrática cero.
  • Que tenga «términos puros».
  • Que no tenga «términos puros», es decir, que tenga sólo «términos cruzados».

Como en este caso la forma q no es la forma cero, ni aparecen términos x2, y2 o z2, estamos en el tercer caso. La estrategia era tomar dos de las variables y separar los términos que sí las tengan de los que no. Luego, hay que usar las identidades:

(3)AXY+BX+CY=A(X+CA)(Y+BA)BCA,

(4)DE=14(D+E)214(DE)2.

Tomemos por ejemplo x y y. En la forma cuadrática todos los términos tienen x ó y, así que podemos usar la identidad (1) para escribir (nota que reordenamos algunos términos para hacer más cómodas las cuentas con las identidades):

4xy+zx+zy=4(x+z4)(y+z4)z24

Luego, continuamos mediante la identidad (2):

=(x+y+z2)2(xy)214z2.

Esta expresión ya tiene la forma buscada. Tenemos que q es combinación cuadrática de las formas lineales x+y+z2, xy y z. Verifica que en efecto estas formas lineales son linealmente independientes.

Cambiando el orden de los pasos

Problema. ¿Qué pasaría si en el ejemplo anterior en vez de hacer el paso inductivo con x y y hacemos el paso inductivo con y y z?

Solución. Las cuentas cambian y obtenemos una nueva forma de escribir a q. En efecto, aplicando las identidades (1) y (2) pero ahora a y y z obtendríamos:

yz+4xy+xz=(y+x)(z+4x)4x2=14(y+z+5x)214(yz3x)24x2.

Esta es otra forma válida de expresar a q como combinación cuadrática de formas lineales linealmente independientes. Lo que nos dice es que la expresión para q no necesariamente es única.

Sin embargo, un poco más adelante veremos que aunque haya muchas formas de expresar a q, en todas ellas permanece constante cuántos sumandos positivos y cuántos negativos hay.

Cuidado con la independencia lineal

Problema. Toma la forma cuadrática q de R3 definida como sigue:

q(x,y,z)=(xy)2+(yz)2+(zx)2

Escribe a q como combinación cuadrática de formas lineales linealmente independientes.

Solución. Sería fácil asumir que q ya está de la forma deseada, sin embargo, una revisión rápida nos deja ver qué xy, yz y zx no son linealmente independientes en (R3).

Primero desarrollemos todo

q(x,y,z)=2x2+2y2+2z22xy2xz2yz

Ahora sí hay «términos puros» pues en particular el coeficiente de x2 no es cero.

En este caso hay que pensar a q como polinomio de segundo grado en x para completar un cuadrado:

2x2+2y2+2z22xy2xz2yz=2(xy+z2)2(y+z)22+2y2+2z22yz

La demostración asegura que inductivamente los términos sin x (en este caso (y+z)22+2y2+2z22yz)se pueden escribir como una combinación cuadrática de formas lineales linealmente independientes. Es decir, a ese término ahora podemos aplicar nuevamente el procedimiento hasta llegar a un caso pequeño.

Sin embargo, para nuestra suerte, una pequeña manipulación muestra que
(y+z)22+2y2+2z22yz=32(yz)2.

También, afortunadamente, yz es linealmente independiente con xy+z2. De este modo, una posible combinación cuadrática es la siguiente:

q(x,y,z)=2(xy+z2)2+32(yz)2

El algoritmo

Con esto visto, podemos describir un algoritmo para encontrar una combinación cuadrática en 4 pasos.

  1. Desarrollar todos los términos q si es necesario.
  2. Revisar qué forma tiene q con respecto a los 3 casos que se vieron en la demostración.
  3. Reproducir el caso elegido de la demostración, dependiendo de la forma de q.
  4. Dentro de este paso, puede ser necesario repetir desde el paso 1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Matrices positivas y congruencia de matrices

Por Diego Ligani Rodríguez Trejo

Introducción

Ya hablamos de las matrices asociadas a formas bilineales (y sesquilineales), y de formas cuadráticas (y cuadráticas hermitianas). Así mismo, tomamos un pequeño paréntesis para recordar qué es un producto interior y un espacio euclideano. Además, vimos las nociones análogas para el caso complejo.

Lo que haremos ahora es conectar ambas ideas. Extenderemos nuestras nociones de positivo y positivo definido al mundo de las matrices. Además, veremos que estas nociones son invariantes bajo una relación de equivalencia que surge muy naturalmente de los cambios de matriz para formas bilineales (y sesquilineales).

Congruencia de matrices

En las entradas de matrices de formas bilineales y matrices de formas sesquilineales vimos cómo obtener matrices asociadas a una misma forma bilineal (o sesquilineal) usando distintas bases. Dos matrices A y A representaban a la misma forma bilineal en distintas bases si y sólo si existía una matriz de cambio de base P tal que A= tPAP, en el caso real, o bien tal que A=PAP, en el caso complejo.

Definición. Sean A y B matrices simétricas en Mn(R). Diremos que A es congruente a B si existe una matriz invertible P en Mn(R) tal que A= tPBP.

Definición. Sean A y B matrices hermitianas en Mn(C). Diremos que A es congruente a B si existe una matriz invertible P en Mn(C) tal que A=PBP.

Las definiciones anteriores están restringidas a las matrices simétricas (o hermitianas, respectivamente). Se podrían dar definiciones un poco más generales. Sin embargo, a partir de ahora nos enfocaremos únicamente a resultados que podamos enunciar para matrices simétricas (o hermitianas, respectivamente).

Proposición. La relación «ser congruentes» es una relación de equivalencia, tanto en el caso real, como en el caso complejo.

Demostración. Daremos la demostración en el caso real. El caso complejo queda como ejercicio. Empecemos con la reflexividad. Esto es claro ya que la matriz identidad In es invertible y se tiene la igualdad

A= tInAIn.

Para la simetría, supongamos que tenemos matrices A y B en Mn(R) tales que A es congruente a B con la matriz invertible P de Mn(R), es decir, tales que

A= tPBP.

Como P es invertible, su transpuesta también. De hecho, (tP)1= t(P1). Así, podemos multiplicar por la inversa de tP a la izquierda y la por la inversa de P a la derecha para obtener

t(P1)AP1=B.

Esto muestra que B es congruente a A.

Finalmente, veamos la transitividad. Supongamos que A es congruente a B mediante la matriz invertible P y que B es congruente a C mediante la matriz invertible Q. Tendríamos entonces las igualdades

A= tPBP,B= tQCQ,

de donde A= tP tQCQP= t(QP)C(QP). Esto muestra que A es congruente a C mediante la matriz QP, que como es producto de invertibles también es invertible.

◻

Clasificación de matrices simétricas por congruencia

¿Será posible para cualquier matriz simétrica encontrar una matriz congruente muy sencilla? La respuesta es que sí. El siguiente teorema puede pensarse como una versión matricial del teorema de Gauss.

Teorema. Cualquier matriz simétrica en Mn(R) es congruente a una matriz diagonal.

Demostración. Sea A una matriz simétrica en Mn(R) y sea q la forma cuadrática en Rn asociada a A en la base canónica, es decir, aquella tal que q(X)= tXAX, para cualquier vector XRn.

Lo que tenemos que hacer es encontrar una base de Rn en la cual la matriz asociada a q sea diagonal. Haremos esto mediante el teorema de Gauss. Por ese resultado, existen reales α1,,αr y formas lineales linealmente independientes l1,,lr tales que q(x)=i=1rαili(x)2.

Completemos l1,,lr a una base l1,,ln de (Rn). Tomemos la base u1,,un de Rn dual a l1,,ln. Esta es la base que nos ayudará. Recordemos que la definición de base dual hace que tengamos

li(uj)={1 si i=j,0 si ij,

y que por lo tanto las funciones li «lean» las coordenadas de un vector en la base de las ui. Tomemos un vector cualquiera xRn y escribámoslo en la base de las ui como x=i=1nxiui. Definiendo αr+1==αn=0, tenemos que:

q(x)=i=1nαili(x)2=i=1nαixi2.

Esto nos dice que la matriz asociada a q con respecto a la base u1,,un es la matriz diagonal D que tiene en la diagonal a los coeficientes αi. Esto muestra lo que queríamos.

◻

El teorema también tiene una versión compleja.

Teorema. Cualquier matriz hermitiana en Mn(C) es congruente a una matriz diagonal.

La demostración es similar. Usa el teorema de Gauss complejo. Por esta razón, queda como ejercicio.

Estos resultados parecen una curiosidad algebraica. Sin embargo, pronto veremos que tienen consecuencias importantes como la clasificación de todos los productos interiores (y los productos interiores hermitianos).

Matrices positivas y positivas definidas

En entradas anteriores definimos qué quiere decir que una forma bilineal (o sesquilineal) sea positiva o positiva definida. Podemos dar una definición análoga para matrices. Nos enfocaremos sólo en matrices simétricas (en el caso real) y en matrices hermitianas (en el caso complejo).

Definición. Una matriz simétrica A en Mn(R) es positiva si para cualquier XRn se tiene que tXAX0. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con X=0.

Definición. Una matriz hermitiana A en Mn(C) es positiva si para cualquier XCn se tiene que XAX0. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con X=0.

Es sencillo ver que entonces una matriz A real (o compleja) que sea positiva definida da un producto interior (o bien un producto interior hermitiano) en Rn (o bien en Cn) dado por X,Y= tXAY, (o bien por X,Y=XAY). Y viceversa, un producto interior (o producto interior hermitiano) tiene representaciones matriciales que son positivas definidas. Esto no depende de la base elegida.

Proposición. Si A,BMn(R) son matrices congruentes y A es una matriz positiva, entonces B también lo es.

Demostración. Supongamos que la congruencia se da mediante la matriz invertible P de la siguiente manera: B= tPAP.

Tomemos un vector XRn. Tenemos que:

tXBX= tX tPAPX= t(PX)A(PX)0.

En la última igualdad estamos usando que A es positiva. Esto muestra lo que queremos.

◻

Dicho en otras palabras, en el mundo real las congruencias preservan las positividades de matrices. También puede demostrarse que las congruencias preservan las positividades definitivas. Y así mismo, se tienen resultados análogos para el caso complejo. En la sección de ejercicios viene uno de estos resultados.

Clasificación de matrices positivas

Es sencillo ver si una matriz real diagonal D es positiva. Todas las entradas en su diagonal deben de ser mayores o iguales a cero. En efecto, si su i-ésima entrada en la diagonal fuera un número dii<0, entonces para el i-ésimo vector canónico ei de Rn tendríamos teiDei=dii<0, lo cual sería una contradicción.

Combinando esto con todo lo hecho en esta entrada, obtenemos un teorema de clasificación de matrices positivas.

Teorema. Sea A una matriz simétrica en Mn(R). Las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. A es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. A puede ser escrita de la forma tBB para alguna matriz BMn(R).

Demostración. 1) implica 2). Sabemos que A es congruente a una matriz diagonal. Como A es positiva, dicha matriz diagonal también lo es. Por el comentario antes del enunciado del teorema, dicha matriz diagonal debe tener únicamente entradas mayores o iguales que 0.

2) implica 3). Supongamos que A= tPDP, en donde P es invertible y D tiene únicamente entradas no negativas d1,,dn en la diagonal. Definamos a S como la matriz diagonal de entradas d1,,dn. Tenemos que D=S2=SS= tSS. De este modo, definiendo B=SP obtenemos A= tPDP=( tP tS)(SP)= t(SP)SP= tBB, como queríamos.

3) implica 1). Supongamos que A= tBB para alguna matriz B. Para cualquier XRn tendríamos que  tXAX= t(BX)BX=BX0. Aquí la norma es con respecto al producto interior canónico de Rn. Esto es lo que queríamos.

◻

También existe un teorema análogo que clasifica las matrices positivas definidas.

Teorema. Sea A una matriz simétrica en Mn(R). Las siguientes afirmaciones son equivalentes:

  1. A es positiva definida.
  2. A es congruente a una matriz diagonal con puras entradas diagonales positivas.
  3. A puede ser escrita de la forma tBB para alguna matriz BMn(R) invertible.

Y, así mismo, existen análogos para matrices hermitianas con entradas en los complejos.

Más adelante…

En esta entrada definimos la relación de congruencia de matrices. Vimos qué son las matrices positivas y las positivas definidas. Además, vimos que la congruencia preserva estas nociones.

Podemos ser mucho más finos con nuestro análisis. Si tenemos una matriz simétrica, por los resultados de esta entrada es congruente a una matriz diagonal. Podemos fijarnos en cuántas entradas positivas, cuántas negativas y cuántas cero hay en esta diagonal. En la siguiente entrada veremos que las congruencias también preservan estas cantidades.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Demuestra que cualquier matriz hermitiana en Mn(C) es congruente a una matriz diagonal.
  2. Demuestra que si A es una matriz en Mn(C) hermitiana y positiva definida, y B es una matriz en Mn(C) hermitiana y congruente a A, entonces B también es positiva definida.
  3. Sea n1 y A=[aij]Mn(R) definida por aij=min(i,j), prueba que A es simétrica y definida positiva.
  4. Sea A=[aij]Mn(R) tal que aij=1 si ij y aii>1 si 1in. Prueba que A es simétrica y definida positiva.
  5. Demuestra que una matriz hermitiana AMn(C) es positiva si y sólo si puede ser escrita de la forma A=BB para alguna matriz BMn(C), y que es positiva definida si y sólo si tiene una expresión así con B invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Teorema de Sylvester

Por Diego Ligani Rodríguez Trejo

Introducción

En entradas anteriores estudiamos las formas bilineales y las cuadráticas. También vimos las matrices que las representan. Introdujimos una noción de congruencia de matrices relacionada con todo esto. Y vimos que la congruencia de matrices preserva una noción de positividad para matrices. Ahora daremos un paso más y veremos que de hecho la congruencia de matrices preserva más que sólo eso.

Para ello, introduciremos la noción de la signatura de una matriz. A grandes rasgos, esta noción nos dice «qué tan positiva» es una matriz simétrica. Para definir esta noción, lo haremos primero para las matrices diagonales. Luego lo definiremos para todas las matrices simétricas a través del teorema que demostramos la entrada anterior. Toda la discusión la haremos en el caso real. El caso complejo tiene sus versiones análogas, que quedarán descritas en los ejercicios.

Signatura de una matriz diagonal

Comenzamos con la siguiente definición.

Definición. Sea A una matriz diagonal en Mn(R). Sea P la cantidad de entradas positivas en la diagonal y N la cantidad de entradas negativas en la diagonal. A (P,N) le llamamos la signatura de A.

En cierto sentido, la signatura generaliza tanto la noción de rango, como la noción de positividad y de positividad definida. Esto queda plasmado en las siguientes observaciones.

Observación. Una matriz diagonal ya está en forma escalonada reducida. Y el rango de una matriz en forma escalonada reducida coincide con la cantidad de renglones no cero. Así, si la signatura de una matriz diagonal es (P,N), entonces su rango es P+N.

Observación. Por lo que vimos en la entrada anterior, una matriz diagonal en Mn(R) es positiva si y sólo si ninguna de sus entradas diagonales es negativa. Esto pasa si y sólo si su signatura es de la forma (k,0) para algún 0kn.

Observación. Por un resultado análogo al de la entrada anterior, una matriz diagonal es Mn(R) es positiva definida si y sólo si todas sus entradas diagonales son positivas. Esto pasa si y sólo si su signatura es (n,0).

La signatura es invariante bajo congruencias

El resultado clave de esta entrada es el siguiente lema.

Lema. Sean A y B matrices diagonales en Mn(R) congruentes entre sí. Entonces la signatura de A y la de B son iguales.

Demostración. Llamemos (P,N) a la signatura de A y (Q,M) a la signatura de B.

Como A y B son congruentes, entonces representan a una misma forma cuadrática q:RnR, pero quizás en diferentes bases. Sea α la base en la cual q tiene matriz A y β la la base en la cual q tiene matriz B. Sea b la forma polar de p.

Como la signatura de A es (P,N), entonces q es positivo (resp. negativo, cero) para P (resp. N, nPN) elementos de la base α. Tenemos algo análogo para B. Así, podemos llamar a las bases

α={a1+,,aP+,a1,,aN,a10,anPN0},β={b1+,,bQ+,b1,,bM,b10,bnQM0},

en donde q aplicado a alguno de estos elementos tiene el signo del superíndice.

Demostraremos que P=Q por contradicción. Supongamos que no. Sin perder generalidad, P>Q. Consideremos V el subespacio de Rn generado por los vectores a1+,,aP+ y W el subespacio de Rn generado por los vectores b1,,bM,b10,bnQM0. Estos espacios tienen dimensión P y nQ respectivamente. Como P>Q, tenemos que P+(nQ)>Q+(nQ)=n. Así, los espacios V y W tienen intersección no trivial, y por lo menos hay un vector v distinto de 0 en VW. ¿Cuánto vale q(v)?

Por un lado, v está en V así que es combinación lineal de elementos ai+: v=i=1Priai+. De este modo:

q(v)=i=1Pri2q(ai+)+2i=1Pj=1Pb(ai+,aj+).

El primer sumando es positivo pues q es positivo en todo ai+. El segundo sumando es cero pues cada término es 0 por ser una entrada (i,j) con ij de la matriz diagonal A. Así, q(v)>0.

Similarmente, v está en W así que es combinación lineal de elementos bi y elementos bi0, de donde se puede mostrar que q(v)0.

Hemos encontrado una contradicción que surgió de suponer PQ, así que P=Q. De manera análoga se demuestra que N=M. Así, la signatura de A y de B debe ser la misma.

◻

Signatura para matrices simétricas

En la entrada anterior vimos que cualquier matriz simétrica en Mn(R) es congruente a alguna matriz diagonal. Es posible que sea congruente a más de una matriz diagonal.

Definición. Sea A una matriz simétrica en Mn(R). Sea D una matriz diagonal congruente a A. Definimos la signatura de A como la signatura de D.

El lema de la sección anterior nos permite asegurarnos de que la siguiente definición está bien hecha. Si A fuera congruente a dos matrices diagonales D y E, entonces D y E serían congruentes entre sí. De este modo, la signatura de A no cambia si la tomamos con respecto a D o con respecto a E.

Pensemos que dos matrices A y B son congruentes entre sí. Sean D y E matrices diagonales congruentes a A y B respectivamente. Por transitividad, D y E son congruentes, así que tienen la misma signatura. Así, A y B tienen la misma signatura.

Una última observación es la siguiente. Si A y B son simétricas y congruentes entre sí, entonces están relacionadas mediante un producto con matrices invertibles. Como el producto por matrices invertibles no afecta el rango, concluimos que A y B tienen el mismo rango. Juntando esto con observaciones anteriores, una matriz simétrica A de signatura (P,N) tiene rango P+N.

Resumimos todo esto en el siguiente resultado.

Proposición. Sean A y B matrices simétricas.

  • Si la signatura de A es (P,N), entonces su rango es P+N.
  • Si A y B son congruentes, entonces tienen la misma signatura. En particular:
    • Tienen el mismo rango.
    • Si una es positiva, la otra también lo es.
    • Si una es positiva definida, la otra también lo es.

El teorema de Sylvester

Enunciemos las versiones análogas a lo anterior en términos de formas cuadráticas. Comencemos con el teorema de Gauss. Tomemos una forma cuadrática q de Rn y escribámosla como q=i=1raili2 con a1,,ar reales y l1,,lr formas lineales linealmente independientes.

Podemos quitar todos los términos con ai=0 sin afectar la igualdad. Además, si ai es positivo podemos factorizarlo en li2 para definir mi=(aili)2, y si ai es negativo podemos factorizar ai en li2 para obtener mi=(aili)2. En otras palabras, de cualquier expresión de Gauss podemos llegar a una de la forma q=i=1rϵimi2,

en donde los ϵi son 1 o 1. Si tenemos P valores de ϵi iguales a 1 y N valores de ϵi iguales a 1 diremos que la signatura de q es (P,N) y que el rango de q es P+N.

¿Por qué esto está bien definido? Porque ya vimos que cada forma de Gauss de q da una base en la cual la matriz que representa a q es diagonal. Las entradas de la diagonal son los coeficientes de la forma de Gauss. Dos matrices que salen así son congruentes, así que por el lema de la sección anterior tienen la misma signatura. Esto garantiza que en ambas expresiones de Gauss de las de arriba hay la misma cantidad de 1s y 1s.

El gran resumen de todo esto es el siguiente teorema.

Teorema (ley de inercia de Sylvester). Sea q una forma cuadrática de Rn. Entonces existen ϵ1,,ϵr iguales a 1 o a 1 y formas lineales l1,,lr linealmente independientes tales que q=i=1rϵili2.

Cualesquiera dos expresiones de este estilo tienen la misma cantidad de coeficientes positivos, y la misma cantidad de coeficientes negativos.

Dato curioso: ¿Por qué ley de inercia?

En esta entrada nos hemos referido al teorema de Sylvester de dos maneras intercambiables: teorema de Sylvester y ley de inercia de Sylvester. La intuición diría que quizás existe alguna relación con la física. Quizás es porque algún uso especial de este teorema lo hace importante para el cálculo de la inercia. Esto no es así.

El nombre, curiosamente, viene de esta frase de Sylvester:

Este número constante de signos positivos que se asocian a una función cuadrática bajo cualquier transformación […] puede ser llamado, convenientemente, su inercia, hasta que una mejor palabra sea encontrada.

J. J. Sylvester, On the Theory of the Syzygetic Relations… (1853)

Aparentemente no se encontró una mejor palabra y ahora es el térimo que se usa. Interpretando un poco lo que dice Sylvester, la inercia se refiere a la resistencia de un cuerpo de cambiar de estado. Así, tal vez Sylvester pensó en la «resistencia a cambiar» de la signatura de una forma cuadrática bajo cambios de base.

Más adelante…

Hay mucha más teoría que se puede enunciar y demostrar para formas cuadráticas en general. Por ahora detendremos nuestra exploración hasta aquí, y ya sólo nos enfocaremos en las formas bilineales simétricas y positivas, es decir, en los productos interiores. Queremos enunciar y demostrar varios resultados para espacios con producto interior y para espacios euclideanos.

Dos conceptos que estudiaremos a continuidad son el de dualidad y el de ortogonalidad. Esto nos abrirá las puertas a entender correctamente algunos tipos de transformaciones lineales muy importantes, como las transformaciones simétricas, las normales y las ortogonales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, ayudan para repasar los conceptos vistos en esta entrada.

En los siguientes ejercicios, usa el algoritmo de Gauss para escribir cada forma como combinación cuadrática de formas lineales linealmente independientes. Además encuentra su rango y signatura.

  1. Encuentra el rango y la signatura de la forma cuadráticaq:R4R dada por
    q(x,y,z,t)=xy+yz+zt+tx.
  2. Completa algunos detalles faltantes en las demostraciones anteriores. Por ejemplo:
    1. ¿Por qué las formas mi de la discusión del teorema de Sylvester son linealmente independientes?
    2. ¿Por qué son análogas las demostraciones faltantes en el lema que demostramos?
  3. Demuestra que cualquier matriz simétrica es congruente a una matriz diagonal cuya diagonal es de la forma 1,,1,1,1,0,,0.
  4. Enuncia y demuestra un resultado análogo al lema principal de esta entrada, pero para matrices con entradas complejas. Recuerda que en este caso debes usar matrices hermitianas y las congruencias son a través de usar una matriz invertible y su traspuesta conjutada.
  5. Enuncia y demuestra una ley de inercia de Sylvester para formas cuadráticas hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Teorema de Gauss

Por Diego Ligani Rodríguez Trejo

Introducción

En la entrada anterior vimos un recordatorio de las formas bilineales, cuadráticas y sus polares. En esta entrada continuaremos recordando algunas propiedades vistas previamente enfocándonos en el teorema de Gauss y su demostración. Esto nos dará una pequeña pista de la relación entre las formas cuadráticas y matrices.

Además, con el teorema de Gauss obtendremos un algoritmo para poder escribir cualquier forma cuadrática en una forma estandarizada. Esto nos llevará más adelante a plantear la ley de inercia de Sylvester.

Preparaciones para el teorema de Gauss

Antes de empezar con el teorema, veamos una propiedad de las formas cuadráticas en Rn. Tomemos e1,,en la base canónica de Rn. Tomemos q una forma cuadrática de Rn y b su forma polar.

Cualquier vector x=(x1,,xn) de Rn se escribe como (x1,,xn)=i=1nxiei. Por lo que hicimos en la entrada anterior tenemos entonces:

q(x)=b(x,x)=i=1nj=1nxixjb(ei,ej).

Para simplificar la notación definamos aij:=b(ei,ej). Podemos «ver» todos los sumandos en la siguiente expresión:

q(x)=x12a11+x1x2a12++x1xna1n+x2x1a21+x22a22++x2xna2n+xnx1an1+xnx2an2++xn2ann

Aquí hay algunos términos «puros» de la forma aiixi2. Se encuentran en la «diagonal». Tenemos también algunos términos «mixtos» de la forma aijxixj con ij. Por la simetría de b, en los términos mixtos tenemos aij=aji. Al separar en términos puros y mixtos obtenemos entonces la siguiente expresión:

(5)q(x)=i=1naiixi2+21i<jnaijxixj.

Usaremos esto más abajo.

Teorema de Gauss de formas cuadráticas

Teorema. Sea q una forma cuadrática en V=Rn. Existen reales α1,,αr y formas lineales l1,lr de V linealmente independientes tales que, para todo xV se tiene
q(x)=i=1rαi(li(x))2.

Recordemos que la independencia lineal de las formas l1,,lr sucede en el espacio dual V.

Demostración. Procedamos por inducción sobre n. De la igualdad (1), cuando n=1 la forma cuadrática es de la forma q(x)=a11x12. Al definir α1=a11 y l1(x)=x1 obtenemos la forma deseada.

Supongamos que el teorema se cumple para n1. De la igualdad (1) sabemos que q se puede escribir como sigue:

q(x)=i=1naiixi2+21i<jnaijxixj.

Tenemos tres posibilidades:

  • Que todos los aii y todos los aij sean cero. Este caso es inmediato pues entonces q es la forma cuadrática cero y podemos tomar l1(x)=x1 y α1=0.
  • Que algún aii sea distinto de cero.
  • Que todos los aii sean cero, pero algún aij sea distinto de cero.

Hagamos cada uno de los últimos dos casos por separado. Comencemos por el caso en el que algún aii es distinto de cero. Sin pérdida de generalidad (¿por qué?) podemos suponer que es ann.

Apartando los términos que tienen xn de los que no obtenemos:

i=1naiixi2=annxn2+i=1n1aiixi2.

y

21i<jnaijxixj=2(i=1n1ainxi)xn+21i<jn1aijxixj

Con esto

q(x)=annxn2+2(i=1n1ainxi)xn+i=1n1aiixi2+21i<jn1aijxixj.

Si bien esta expresión se ve complicada, en realidad podemos pensar que en términos de la variable xn es «simplemente una cuadrática». Basados en los primeros dos términos podemos completar un binomio al cuadrado como sigue:

q(x)=ann(xn+i=1n1ainannxi)2ann(i=1n1ainannxi)2+i=1n1aiixi2+21i<jn1aijxixj.

Notemos que la expresión

ann(i=1n1ainannxi)2+i=1n1aiixi2+21i<jn1aijxixj

ya no tiene a la variable xn y que de hecho es una forma cuadrática en las variables x1,,xn1 (¿por qué?). De este modo, podemos aplicarle hipótesis inductiva para obtener que existen escalares α1,,αr y formas lineales l1,,lr linalmente independientes de Rn1 tales que

q(x1,,xn1)=i=1rαi(li(x))2.

Si bien estas li son formas lineales de Rn1, también podemos pensarlas como formas lineales de Rn. Formalmente, tomamos li:RnR dada por li(x1,,xn)=li(x1,,xn1). Para finalizar, definimos

lr+1(x1,,xn)=xn+i=1n1ainannxi,αr+1=ann.

De aquí, obtenemos la expresión deseada para q:

q(x)=i=1r+1αi(li(x))2

Falta argumentar por qué las li son linealmente independientes. Si una combinación lineal de ellas da cero, como lr+1 es la única que involucra a xn, entonces su coeficiente debe ser cero. Así, obtendríamos una combinación lineal de l1,,lr igualada a cero. Pero esta es una combinación lineal de l1,,lr. Por hipótesis inductiva, estas son linealmente independientes así que todos los coeficientes deben ser cero.

Lo anterior termina el caso para cuando hay algún «término puro». Falta el caso en el que todos los «términos puros» tienen coeficiente cero, pero hay por lo menos un «término mixto». Por la igualdad (1) tenemos que la forma cuadrática se ve así:

q(x)=21i<jnaijxixj.

Sin pérdida de generalidad podemos suponer que el término mixto que no es cero es el an1,n (¿por qué?). La idea es ahora separar a los términos que tienen xn1 ó xn de los que no, y utilizar la siguientes identidades algebraicas que se valen para cualesquiera A,B,C,D,E (haz las cuentas):

(6)Axn1xn+Bxn1+Cxn=A(xn1+CA)(xn+BA)BCA,

(7)DE=14(D+E)214(DE)2.

Al realizar la separación nos queda:

q(x)=2an1,nxn1xn+2i=1n2ainxixn+2i=1n2ai,n1xixn1+21i<jn2xixjaij.

Así, podemos usar la identidad (2) con los siguientes valores

A=2an1.n,B=2i=1n2ai,n1xi,C=2i=1n2ai,nxi

para obtener que q es:

A(xn1+CA)(xn+BA)BCA+21i<jn2xixjaij

Al primer sumando podemos reescribirlo usando la identidad (3) como

A4(xn1+xn+B+CA)2A4(xn1xnBCA)2

A la expresión conformada por los últimos dos sumandos le podemos aplicar hipótesis inductiva (¿por qué?) para escribirla de la forma q(x1,,xn2)=i=1rαi(li(x1,,xn2))2 con l1,,lr formas lineales linealmente independientes de Rn2. Como en el caso anterior, podemos «convertir» estas formas lineales a formas lineales l1,,lr en Rn. Al agregar las siguientes dos formas lineales

lr+1(x)=xn1+xn+B+CAlr+2(x)=xn1xnBCA

y tomar αr+1=A4, αr+2=A4, obtenemos la expresión deseada:
q(x)=i=1r+2αi(li(x))2.

La demostración de que en efecto l1,,lr+2 son linealmente independientes queda como ejercicio.

Así por principio de inducción tenemos que el teorema de Gauss se cumple para cualquier forma cuadrática q en Rn para todo n1 entero.

◻

Más adelante…

Debido a la longitud de esta demostración, los ejemplos serán reservados para la siguiente entrada.

Las formas cuadráticas, aunque interesantes, muestran estar limitadas por cómo las definimos, ya que se definen sólo en espacios vectoriales reales. En las siguientes entradas expandiremos un poco esta definición para también abarcar al menos espacios vectoriales complejos y luego nos enfocaremos en un tipo especial de éstas.

Además, al principio de la entrada se dieron pistas a que existe una relación entre formas bilineales y matrices, esto será explorado posteriormente.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea q una forma cuadrática en Rn y x=(x1,,xn). Muestra que q(x)=i,j=1naijxixj con aij=b(ei,ej).
  2. Sea A la matriz con entradas aij dadas en el problema anterior. ¿Qué podrías afirmar acerca de A sin importar la q elegida?
  3. Sea A=[aij] una matriz simétrica en Mn(R) y definamos
    q:RnR dada por q(x)=i,j=1naijxixj ¿Es q así definida una forma cuadrática? ¿Es necesario que A sea simétrica?
  4. Demuestra que las formas lineales definidas en el segundo caso de la demostración del teorema de Gauss en efecto son linealmente independientes.
  5. Sean α1,,αr números reales y l1,,lr formas lineales, linealmente independientes en Rn y xRn. Definamos q como sigue:
    q(x)=inαili(x)
    ¿Es q así definida una forma cuadrática en Rn?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»