Archivo de la etiqueta: matriz ortogonal

Geometría Analítica I: Tipos de matrices

Por Paola Berenice García Ramírez

Introducción

Hemos conocido en esta unidad las transformaciones lineales y que a partir de ellas podemos asociarles una matriz única. En la sección anterior comenzamos con las primeras operaciones entre matrices: el producto de matrices y su estrecha relación con la composición de matrices. En esta unidad veremos las matrices más representativas y sus funciones lineales a las cuales están asociadas.

Matriz identidad

No es una familia de matrices, pero es el primer tipo de matriz que debemos mencionar. La matriz identidad está asociada a la función identidad y su tamaño es de n×n, es decir el número de filas es el mismo que el de columnas. Se denota por I pero como se tiene una matriz identidad para cada dimensión, se puede escribir como In.

La matriz identidad se caracteriza porque todos sus elementos son ceros (0) excepto aquellos elementos que se encuentran en la diagonal principal, que son unos (1).

Ejemplo. Para la función identidad f:R2R2, su matriz identidad asociada es

I2=I2×2=(1001),

y para la función identidad f:RnRn, su matriz identidad asociada es

In=In×n=(100010001).

De hecho el producto de cualquier matriz por a matriz identidad no tiene ningún efecto, ya que siempre se cumple que AI=A e IA=A.

Homotecias

Las homotecias son funciones de cambios de escala, porque conservan los ángulos pero no las distancias entre cualquier par de puntos. Sin embargo, todas las distancias se incrementan o disminuyen en una misma razón kR, con k0, para una función f:RnRn definida por f(x)=kx, la cual es lineal.

La matriz asociada a estas funciones es kI, es decir la matriz que sólo tiene elementos k en la diagonal principal y ceros (0) fuera de dicha diagonal. Cuando k>1 aumentan las distancias (dilataciones), cuando k<1 disminuyen (contraen) y en caso de que k=1, las distancias se conservan.

Ejemplo. Para el caso de una función lineal f:R2R2, la matriz de homotecia de 2×2 asociada es de la forma

In=In×n=(k00k),

Ejemplo. Dada la función lineal definida por

f(xy)=(x4y4),

cuya matriz asociada es

(140014),

ya que

f(xy)=(140014)(xy)=(x4y4).

Vemos que la función corresponde a una homotecia que reduce las distancias entre cualquier par de puntos en una razón de 14.

Rotaciones

Recordemos que en las rotaciones, todo el plano gira un ángulo α alrededor de un punto fijo (el origen del sistema coordenado) pero permanecen invariantes el tamaño y forma de las figuras.

Las columnas de la matriz asociada a las rotaciones en R2 con centro en el origen mediante un ángulo α son:

f(e1)=(cosαsenα),yf(e2)=(senαcosα).

En consecuencia las rotaciones mandan al vector canónico e1 en un vector unitario u y al vector canónico e2 en su vector ortogonal u.

Por tanto, para una función lineal f:R2R2, su matriz de rotación asociada correspondiente es

Rα=(cosαsenαsenαcosα).

Ejemplo. Si α=45° y queremos calcular la rotación de 45°del vector x entonces la matriz en este caso será:

R45°(x)=(cos45°sen45°sen45°cos45°)x=(22222222)x.

Un hecho importante es que una vez que hubo una rotación de ángulo α y volvemos a aplicar una rotación pero de ángulo α, regresaremos a la matriz identidad. Es decir que con la ayuda de las igualdades

cos(α)=cosαysen(α)=senα,

se cumple que RαRα=I. Este resultado lo dejaremos como ejercicio en la sección Tarea moral.

Ahora bien, si rotamos un ángulo β y posteriormente un ángulo α, rotamos entonces en total un ángulo α+β, entonces se cumple que RαRβ=Rα+β, pues

RαRβ=(cosαsenαsenαcosα)(cosβsenβsenβcosβ)=(cosαcosβsenαsenβcosαsenβsenαcosβsenαcosβ+cosαsenβsenαsenβ+cosαcosβ)=(cos(α+β)sen(α+β)sen(α+β)cos(α+β))=Rα+β,

obteniendo las fórmulas trigonométricas para el coseno y el seno de la suma de ángulos como consecuencia de la composición de funciones y la multiplicación de matrices.

Reflexiones

Para ver el significado geométrico que una reflexión ejerce sobre un vector, consideremos las funciones lineales:

  1. Sea f:R2R2, tal que f(xy)=(xy) se llama reflexión con respecto al eje y.
  2. Sea f:R2R2, tal que f(xy)=(xy) se llama reflexión con respecto al eje x.
  3. Sea f:R2R2, tal que f(xy)=(yx) se llama reflexión con respecto a la recta y=x.

La representación matricial de cada caso es

Ry=(1001),Rx=(1001),Ry=x=(0110),

respectivamente. De forma más general, las reflexiones deben parametrizarse por la mitad del ángulo de la imagen de e1, quien es el ángulo de la recta respecto a la cual se hace la reflexión. Con ello, la reflexión en la recta con ángulo θ manda a e1 en el vector unitario de ángulo 2θ, y su matriz asociada es:

Eθ=(cos2θsen2θ sen2θcos2θ)

Reflexión respecto a un eje

Dejaremos como ejercicio moral ver que se cumplen EθEθ=I y que la composición de reflexiones es EαEβ=R2(αβ).

Matrices ortogonales

Una matriz ortogonal debe cumplir ser cuadrada y su función lineal asociada debe ser ortogonal (es decir, que preserva el producto interior). Entonces, para que se cumplan dichas condiciones, recurrimos a la siguiente definición:

Definición. Una matriz A de n×n es ortogonal (la matriz de una transformación ortogonal) si y sólo si AAT=I.

Ejemplo. Para la matriz de reflexión con respecto a la recta x=y

A=(0110),

el producto de A con su transpuesta AT es

AAT=(0110)(0110)=(1001)=I

Ejemplo. Para la matriz de rotación

B=(cosαsenαsenαcosα),

el producto de B con su transpuesta BT es

BBT=(cosαsenαsenαcosα)(cosαsenαsenαcosα)=(1001)=I.

De hecho las matrices ortogonales de 2×2 son: las rotaciones y las reflexiones.

Tarea moral

  1. ¿Las siguientes matrices son matrices identidad?

A=(1103),B=(100100),C=(100010001),

2. Demostrar que las homotecias tienen la propiedad de conmutar con cualquier otra matriz, es decir, A(kI)=(kI)A, donde k es una constante real, I es la matriz identidad y A una matriz de n×n.

3. Demostrar que la rotación de un ángulo θ nos regresa a la unidad, es decir, probar que se cumple RθRθ=I

4. En la sección de reflexiones de esta entrada definimos a la matriz Eθ. Demostrar que se cumple EθEθ=I y que la composición de reflexiones es EαEβ=R2(αβ).

Más adelante

En la siguiente entrada vamos a conocer al grupo de matrices invertibles de n×n, el grupo general lineal de orden n; a las cuales pertenecen las matrices ortogonales. Además veremos la forma más fácil de saber si una matriz de 2×2 es invertible, mediante el determinante y su relación con los sistemas de dos ecuaciones lineales con dos incógnitas.

Enlaces relacionados

  • Página principal del curso:
  • Entrada anterior del curso:
  • Siguiente entrada del curso:

Álgebra Lineal II: El teorema espectral real

Por Ayax Calderón

Introducción

Por lo que estudiamos en la primera parte de este curso, ya sabemos cuándo una matriz arbitraria es diagonalizable. Lo que haremos ahora es enunciar y demostrar el teorema espectral en el caso real. Una de las cosas que nos dice es que las matrices simétricas reales son diagonalizables. Pero nos dice todavía más. También nos garantiza que la manera en la que se diagonalizan es a través de una matriz ortogonal. Esto combina mucho de la teoría que hemos cubierto. Además, gracias al teorema espectral podremos, posteriormente, demostrar el famoso teorema de descomposición polar que nos dice cómo son todas las matrices.

El lema de eigenvalores de matrices simétricas

Comencemos enunciando algunas propiedades que tienen las matrices y transformaciones simétricas. El primero habla de cómo son los eigenvalores de las matrices simétricas.

Lema. Sea AMn(R) una matriz simétrica. Entonces todas las raíces del polinomio característico de A son números reales.

Demostración. Tomemos AMn(R) y sea λ. Su polinomio característico está en R[x], así que por el teorema fundamental del álgebra todas sus raíces están en C. Sea t una raíz del polinomio característico de A.

Pensemos a A como un elemento de Mn(C). Como det(tInA)=0, entonces t es eigenvalor y por lo tanto hay un eigenvector XCn no nulo tal que AX=tX. Como el vector tiene entradas complejas, lo podemos escribir como X=Y+iZ para dos vectores Y,ZRn. Así mismo, podemos escribir a t como t=a+ib con a y b números reales.

Con esta notación, de la igualdad AX=tX se sigue que

AY+iAZ=AX=(a+ib)(Y+iZ)=aYbZ+i(aZ+bY).

Igualando las partes imaginarias y las partes reales obtenemos que

(1)AY=aYbZ,AZ=aZ+bY.

Usemos ahora que A es simétrica. Tenemos que
(2)AY,Z=Y,AZ.

Sustituyendo la primera igualdad de (1) en el lado izquierdo de (2), y la segunda igualdad de (1) en el lado derecho de (2), obtenemos que:

aYbZ,Z=Y,aZ+bY,

y usando la linealidad del producto interior, se obtiene que

aY,ZbZ,Z=aY,Z+bY,Y.

Se sigue que
b(||Y||2+||Z||2)=0 y como Y o Z es distinto de cero (de lo contrario tendríamos que X=0), entonces concluimos que b=0 y con ello que t es un número real.

◻

El lema de estabilidad de transformaciones simétricas

El segundo lema que veremos nos dice qué sucede cuando una transformación lineal es simétrica y tomamos un subespacio estable bajo ella. Recuerda que un subespacio W de un espacio vectorial V es estable bajo una transformación lineal T:VV si T(W)W.

Lema. Sea V un espacio euclidiano y T:VV una transformación lineal simétrica sobre V. Sea W un subespacio de V estable bajo T. Entonces

  1. W también es estable bajo T.
  2. Las restricciones de T a W y W son transformaciones lineales simétricas sobre estos espacios.

Demostración.

1. Tomemos xW. Nos gustaría ver que T(x)W. Para ello, tomemos yW. Como W es estable bajo T, tenemos T(y)W. Como xW, tenemos que x,T(y)=0. Usando esto y la simetría de T, obtenemos entonces
T(x),y=x,T(y)=0,
que es lo que queríamos probar.

2. Sea T|W la restricción de T aW. Para x,yW tenemos que
T|W(x),y=T(x),y=x,T(y)=x,T|W(y), por lo tanto T|W es simétrica sobre W. Análogamente se ve que el resultado se cumple para W.

◻

El teorema espectral real

Con los dos lemas anteriores podemos ahora sí enfocarnos en demostrar el teorema principal de esta entrada.

Teorema (el teorema espectral real). Sea V un espacio euclidiano y T:VV una transformación lineal simétrica. Entonces existe una base ortonormal de V conformada por eigenvectores de T.

Demostración. Procederemos por inducción fuerte sobre n=dimV. Si n=1, entonces el polinomio característico de T es de grado 1 y tiene coeficientes reales, por lo que tiene una raíz real t. Si v es un eigenvector de T con eigenvalor t, entonces v||v|| también es eigenvector de T y forma una base ortonormal de V. Esto termina el caso n=1.

Ahora supongamos que el resultado se satisface hasta dimensión n1 y tomemos V de dimensión n. Sea B={e1,e2,en} una base ortonormal de V. Sea A la matriz asociada a T con respecto a B. Como T es simétrica, entonces A también lo es. Su polinomio característico no es constante, de modo que por el teorema fundamental del álgebra tiene por lo menos una raíz t, y por el primer lema de la sección anterior, se tiene que t es real y por lo tanto es un eigenvalor.

Sea W=ker(tidT) el t-eigenespacio de T. Si W=V, entonces T=tid y así B es una base ortonormal de V compuesta por eigenvectores de T. De otro modo, WV y por lo tanto k:=dimW<n. Tenemos que V=WW y sabemos que los eigenespacios son estables bajo la transformación correspondiente. Así, por el segundo lema de la sección anterior W también es estable bajo T y la restricción de T a W es simétrica.

Podemos entonces aplicar la hipótesis inductiva a T|W para encontrar una base ortonormal C={f1,f2,fnk} de W compuesta por eigenvectores de T. Escogiendo una base ortonormal D={f1,f2,,fk} de W (que automaticamente está formada por eigenvectores de T). La base CD de V es entonces la base de eigenvectores que buscábamos.

◻

El teorema espectral también puede enunciarse en términos de matrices. Hacemos esto a continuación.

Observación. Si AMn(R) es una matriz simétrica, entonces la transformación lineal T:XAX sobre Rn es simétrica. Aplicando el teorema anterior, podemos encontrar una base ortonormal de V con respecto a la cual la matriz asociada a T es diagonal. Como la base canónica de V es ortonormal, y como la matriz de cambio de pase entre dos bases ortonormlaes es ortogonal, obtenemos el siguiente resultado fundamental.

Teorema (el teorema espectral para matrices reales). Sea AMn(R) una matriz simétrica. Entonces A es diagonalizable y, más específicamente, existen una matriz ortogonal PMn(R) y una matriz diagonal DMn(R) tales que A=P1DP.

Así, A es simultáneamente, mediante una misma matriz P, tanto similar como congruente a una matriz diagonal.

Aplicación a caracterizar las matrices simétricas positivas

Ya hemos dado algunas caracterizaciones para las matrices simétricas positivas. Veamos algunas caracterizaciones adicionales.

Teorema. Sea AMn(R) una matriz simétrica. Entonces las siguientes afirmaciones son equivalentes:

  1. A es positiva.
  2. Todos los eigenvalores de A son no negativos.
  3. A=B2 para alguna matriz simétrica BMn(R).
  4. A=tCC para alguna matriz CMn(R).

Demostración. 1) implica 2). Supongamos que A es positiva y que t es un eigenvalor de A con eigenvector v. Como Av=tv, obtenemos que

t||v||2=tv,v=v,tv=v,Av=tvAv0,
por lo tanto t0.

2) implica 3). Sean t1,,tn todas las raíces del polinomio característico de A, escritos con su multiplicidad correspondiente. Por el primer lema de la sección anterior, todos ellos son reales, y estamos suponiendo que son no negativos. Por el teorema espectral podemos encontrar una matriz P y una diagonal D tal que A=P1DP, y por lo que vimos de teoría de diagonalización, D precisamente tiene como entradas en su diagonal a t1,t2,,tn. Sea D la matriz diagonal con entradas ci=ti y sea B=P1DP. Como P es ortogonal, B es simétrica

Y además, por construcción, B2=P1D2P=P1DP=A, como queríamos.

3) implica 4). Basta con tomar la matriz B de (3) y tomar C=B. Como B es simétrica, A=B2=tBB.

4) implica 1). Esto ya lo habíamos demostrado en un resultado anterior de caracterización de matrices simétricas.

◻

Más adelante…

Hemos enunciado y demostrado el teorema espectral. Lo que nos dice es muy interesante: una matriz simétrica básicamente consiste en cambiar de base a una base muy sencilla e1,,en (ortonormal) a traves de la matriz P. Luego, en esa base pasa algo muy simple: en la dirección de ei, simplemente alargamos de acuerdo al eigenvalor λi.

Como consecuencia, veremos en la siguiente entrada que esto nos permite entender no sólo a las matrices simétricas, sino a todas, todas las matrices. Al teorema que veremos a continuación se le conoce como el teorema de descomposición polar.

Tarea moral

  1. La matriz (sinθcosθcosθsinθ) es real y simétrica, de modo que es diagonalizable. ¿Cuál es su diagonalización?
  2. Da un ejemplo de una matriz simétrica con coeficientes complejos que no sea diagonalizable.
  3. Sea T una transformación lineal sobre un espacio euclidiano V, y supón que V tiene una base ortonormal conformada por eigenvectores de T. Demuestra que T es simétrica (por lo que el recíproco del teorema espectral se satisface).
  4. Considera la matriz A=(122212221).
    Explica por qué A es diagonalizable en Mn(R) y encuentra una matriz P tal que P1AP es diagonal.
  5. Adapta el teorema de caracterización de matrices positivas visto en esta entrada a una versión para matrices positivas definidas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Problemas de transpuesta de matriz y matrices de bloque

Por Ayax Calderón

Introducción

En esta entrada ejercitaremos los conceptos de matriz transpuesta y matriz de bloque mediante ejercicios resueltos. Además, para los últimos tres problemas definiremos un concepto que aunque no se estudia a fondo en este curso, aparece en muchas áreas de las matemáticas y de la física: el de producto tensorial.

Problemas resueltos

Problema 1. Sea AMn(R) una matriz con una única entrada distinta de cero en cada renglón y columna, dicha entrada es igual a 1 ó 1. Demuestra que A es una matriz ortogonal.

Solución. Sea A=[aij]. Queremos ver que A1= tA. Sean i,j{1,2,,n}. Entonces la entrada (i,j)-ésima de A tA es

(A tA)ij=k=1naikajk.

Supongamos que aikajk es distinto de cero para algún k{1,2,n}, por tanto aik y ajk son distintos de cero.
Si sucediera que ij, entonces A tiene al menos dos entradas distintas de cero en la columna k, pero esto es imposible. Así, si ij, entonces aikajk=0 para todo k{1,2,n} y por consiguiente la (i,j)ésima entrada de A tA es 0.

Por otro lado, si i=j, entonces
(A tA)ij=k=1naik2.

Como por hipótesis se tiene que todas las entradas del i-ésimo renglón de A son todas 0 salvo una que es 1 ó 1, entonces k=1naik2=1 y así (A tA)ij=1 cuando i=j. Concluimos que A tA=In.
Mediante un argumento análogo se ve que tAA=In.

◻

Problema 2. a) Sea AMn(R) una matriz tal que tAA=On. Demuestra que A=On.
b) ¿El inciso a) seguirá siendo cierto si reemplazamos R por C?

Solución. a) Sea A=[Aij]. Por la regla del producto de matrices se tiene que la (i,i)-ésima entrada de tAA es

(tAA)ii=k=1n(tA)ikAki=k=1nAki2.

Como tAA=On, concluimos que para toda i{1,2,,n} se tiene que

k=1nAki2=0.

Como cada Aki es un número real, al elevarlo al cuadrado obtenemos números no negativos. De lo anterior se sigue que Aki=0 para toda k{1,2,n}. Como la i fue tomada de manera arbitraria, concluimos que A=On.
b) El resultado no necesariamente es cierto si cambiamos el campo de los reales por el campo de los complejos. Busquemos una matriz simétrica AM2(C) tal que tAA=O2, pero como A es simétrica, lo anterior solamente es A2=O2 y además se puede escribir como

A=(abbd)

para algunos números complejos a,b y d. Ahora

A2=(abbd)(abbd)=(a2+b2b(a+d)b(a+d)b2+d2).

Así que buscamos números complejos a,b,d con al menos uno de ellos distinto de cero y tales que

a2+b2=0,b(a+d)=0,b2+d2=0.

Basta con asegurar que a+d=0 y a2+b2=0, para lo cual tomamos a=i,b=1,d=i .

◻

Producto tensorial

A continuación definiremos el producto tensorial. Es importante mencionar que esto es meramente para ejemplificar la teoría que se ha visto hasta ahora, por lo que no se profundizará en este tema.

Si A=[aij]Mm1,n1(F) y BMm2,n2(F) son matrices, entonces definimos el producto de Kronecker o producto tensorial de A y B como la matriz de bloque ABMm1m2,n1n2(F) definida por

AB=(a11Ba12Ba1,n1Ba21Ba22Ba2,n1Bam1,1Bam1,2Bam1,n1B).

Problema 1. Calcula el producto tensorial de las matrices

A=(010100001),B=(2111).

Solución. Usamos directamente la definición de producto tensorial

AB=(0(2111)1(2111)0(2111)1(2111)0(2111)0(2111)0(2111)0(2111)1(2111))

=(002100001100210000110000000021000011)

Problema 2. ¿El producto tensorial es conmutativo?

Solución. En general, el producto tensorial, no es conmutativo. Sean A y B como en el problema anterior. Entonces

BA=(2(010100001)1(010100001)1(010100001)1(010100001))

=(020010200100002001010010100100001001).

Comparando con lo obtenido en el problema anterior, ser verifica que el producto tensorial no es conmutativo.

Problema 3. Verifica que ImIn=Imn.

Solución. Por definición sabemos que ImInMmn(F). Ahora veamos que

(1In0In0In0In1In0In0In0In1In)=Imn.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»