Archivo de la etiqueta: descomposición

Álgebra Lineal II: Existencia de la forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores demostramos que para cualquier matriz nilpotente existe (y es única) una matriz similar muy sencilla, hecha por lo que llamamos bloques de Jordan de eigenvalor cero. Lo que haremos ahora es mostrar una versión análoga de este resultado para una familia mucho más grande de matrices. De hecho, en cierto sentido tendremos un resultado análogo para todas las matrices.

Pensando en ello, lo que haremos en esta entrada es lo siguiente. Primero, generalizaremos nuestra noción de bloques de Jordan para contemplar cualquier eigenvalor. Estudiaremos un poco de los bloques de Jordan. Luego, enunciaremos el teorema que esperamos probar. Finalmente, daremos el primer paso hacia su demostración. En la siguiente entrada terminaremos la demostración y hablaremos de aspectos prácticos para encontrar formas canónicas de Jordan.

Enunciado del teorema de la forma canónica de Jordan

A continuación definimos a los bloques de Jordan para cualquier eigenvalor y tamaño.

Definición. Sea F un campo. El bloque de Jordan de eigenvalor λ y tamaño k es la matriz Jλ,k en Mk(F) cuyas entradas son todas λ, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, Jλ,k=[aij] con aij={1si j=i+1λsi i=j0en otro caso.

También podemos expresarlo de la siguiente manera:

Jλ,k=(λ10000λ10000λ00000λ10000λ), en donde estamos pensando que la matriz es de k×k.

Una última manera en la que nos convendrá pensar a Jλ,k es en términos de los bloques de Jordan de eigenvalor cero: Jλ,k=λIk+J0,k.

Definición. Una matriz de bloques de Jordan en Mn(F) es una matriz diagonal por bloques en la que cada bloque en la diagonal es un bloque de Jordan.

Lo que nos gustaría demostrar es el siguiente resultado. En él, piensa en como algún orden total fijo de F (para R es el orden usual, pero otros campos no necesariamente tienen un orden natural asociado).

Teorema. Sea V un espacio vectorial de dimensión finita n sobre el campo F y T:VV una transformación lineal tal que χT(X) se divide sobre F. Entonces, existen únicos valores λ1λn en F y únicos enteros k1,,kd tales que k1+k2++kd=n,k1k2kd, para los cuales existe una base de V en la cual T tiene como forma matricial a la siguiente matriz de bloques de Jordan:

(Jλ1,k1000Jλ2,k2000Jλd,kd).

Por supuesto, este teorema también tiene una versión matricial, la cuál tendrás que pensar cómo escribir.

Un teorema de descomposición de kernels

Ya tenemos uno de los ingredientes que necesitamos para dar la demostración de la existencia de la forma canónica de Jordan: su existencia para las transformaciones nilpotentes. Otro de los ingredientes que usaremos es el teorema de Cayley-Hamilton. El tercer ingrediente es un resultado de descoposición de kernels de transformaciones evaluadas en polinomios.

Proposición. Sea V un espacio vectorial sobre F. Sea T:VV una transformación lineal. Y sean P1(X),,Pr(X) polinomios en F[x] cuyo máximo común divisor de cualesquiera dos de ellos es el polinomio 1. Entonces, ker((P1P2Pr)(T))=i=1rker(Pi(T)).

Demostración. Para cada i{1,2,,r} consideraremos a Qi(X) como el polinomio que se obtiene de multiplicar a todos los polinomios dados, excepto Pi(X). Y por comodidad, escribiremos P(X)=(P1Pr)(X). Notemos que entonces P(X)=(QiPi)(X) para cualquier i{1,2,,r}.

Primero probaremos un resultado polinomial auxiliar. Veremos que Q1(X),,Qr(X) tienen como máximo común divisor al polinomio 1. En caso de no ser así, un polinomio D(X) no constante dividiría a todos ellos. Sin pérdida de generalidad, D es irreducible (tomando, por ejemplo D(X) de grado mínimo con esta propiedad). Como D(X) es irreducible y divide a Qr(X), entonces debe dividir a alguno de los factores de Qr(X), que sin pérdida de generalidad (por ejemplo, reetiquetando), es P1(X). Pero D(X) también divide a Q1(X), así que debe dividir a alguno de sus factores P2(X),,Pr(X), sin pérdida de generalidad a P2(X). Pero entonces D(X) divide a P1(X) y P2(X), lo cual contradice las hipótesis. Así, Q1(X),,Qr(X) tienen como máximo común divisor al polinomio 1. Por el lema de Bézout para polinomios (ver tarea moral), existen entonces polinomios R1(X),,Rr(X) tales que

(1)(R1Q1+R2Q2++RrQr)(X)=1.

Estamos listos para pasar a los argumentos de álgebra lineal. Veamos primero que cualquier elemento en la suma de la derecha está en el kernel de P(T). Tomemos v=v1++vr con viker(Pi(T)). Al aplicar P obtenemos

P(v)=P(v1)++P(vr)=Q1(P1(v1))++Qr(Pr(vr))=0++0=0.

Esto muestra que vker(P(T)), de donde se obtiene la primera contención que nos interesa.

Veamos ahora la segunda contención, que ker(P(T))=i=1rker(Pi(T)). Tomemos vker(P(T)). Al aplicar (1) en T y evaluar en v obtenemos que

v=Id(v)=(1)(T)(v)=(R1Q1+R2Q2++RrQr)(T)(v)=(R1Q1)(T)(v)++(RrQr)(T)(v).

Pero esto justo expresa a v como elemento de ker(Pi(T)) pues para cada i tenemos

Pi(T)((RiQi)(T)(v))=(PiRiQi)(T)(v)=(RiQiPi)(T)(v)=Ri(T)P(T)(v)=Ri(0)=0,

de modo que expresamos a v como suma de vectores en ker(P1(T)),,ker(Pr(T)).

Ya demostramos la igualdad de conjuntos, pero recordemos que en la igualdad de suma directa hay otra cosa que hay que probar: que el cero tiene una forma única de expresarse como suma de elementos de cada subespacio (aquella en donde cada elemento es cero). Supongamos entonces que 0=v1++vr con viker(Pi(T)) para cada i. Si aplicamos Qi en esta igualdad, como tiene todos los factores Pj con ji obtenemos 0=Qi(0)=Qi(vi).

Por otro lado, al aplicar nuevamente (1) en T y evaluar en vi

vi=Id(vi)=(1)(T)(vi)=(R1Q1+R2Q2++RrQr)(T)(vi)=(R1Q1)(T)(v1)++(RrQr)(T)(vi)=(RiQi)(T)(vi)=0.

De esta forma, en efecto tenemos que los espacios están en posición de suma directa, que era lo último que nos faltaba verificar.

◻

Existencia de la forma canónica de Jordan

Estamos listos para demostrar la existencia de la forma canónica de Jordan. Supongamos que V es un espacio vectorial de dimensión finita n sobre F y que T:VV es una transformación lineal cuyo polinomio característico se divide en F[x]. Sabemos entonces que es de la siguiente forma:

χT(X)=(Xλ1)m1(Xλ2)m2(Xλr)mr,

donde λ1,,λr son eigenvalores distintos de T y m1,,mr son las multiplicidades algebraicas respectivas de estos eigenvalores como raíces de χT(X).

Por el teorema de Cayley-Hamilton, sabemos que χT(T)=0, de modo que ker(χT(T))=V. Por la proposición de descomposición de la sección anterior aplicada a los polinomios Pi(X)=(Xλi)mi (verifica que son primos relativos dos a dos) para i{1,,r} tenemos entonces que V=i=1rker((Tλiid)mi).

Pero, ¿cómo es la transformación Tλiid restringida a cada ker((Tλiid)mi)? ¡Es nilpotente! Precisamente por construcción, (Tλiid)mi se anula totalmente en este kernel. Así, por la existencia de la forma canónica de Jordan para matrices nilpotentes, hay una base βi para cada ker((Tλiid)mi) tal que Tλiid restringida a ese kernel tiene como forma matricial una matriz Ji de bloques de Jordan de eigenvalor cero. Pero entonces T (restringida a dicho kernel) tiene como forma matricial a Ji+λiImi, que es una matriz de bloques de Jordan de eigenvalor λ.

Con esto terminamos: como V es la suma directa de todos esos kernel, la unión de bases β1,,βr es una base para la cual T tiene como forma matricial a una matriz de bloques de Jordan.

◻

Más adelante…

Hemos demostrado la existencia de la forma canónica de Jordan, pero aún nos falta demostrar su unicidad. Además de esto, también necesitaremos un mejor procedimiento para encontrarla. Haremos eso en la siguiente entrada.

Tarea moral

  1. Enuncia el teorema de la forma canónica de Jordan versión matrices.
  2. Investiga más sobre el lema de Bézout para polinomios y cómo se demuestra. Después de esto, expresa al polinomio 1 como combinación lineal de los polinomios x21,x3+1,x2+5x+4.
  3. Verifica que los polinomios Pi(X)=(Xλi)ki de la demostración de la existencia de la forma canónica de Jordan cumplen las hipótesis de la proposición de descomposición de kernels.
  4. Sea F un campo y r,s elementos en F. Sea n un entero. Demuestra que los bloques de Jordan Jr,n y Js,n en Mn(F) conmutan.
  5. Siguiendo las ideas de la demostración de existencia, encuentra la forma canónica de Jordan de la matriz (1111011100220002).

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Ortogonalidad en espacios euclideanos

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente, cuando hablamos del espacio dual de un espacio vectorial, definimos qué quería decir que una forma lineal y un vector fueran ortogonales. Esa noción de ortogonalidad nos ayudó a definir qué era un hiperplano de un espacio vectorial y a demuestra que cualquier subespacio de dimensión k de un espacio de dimensión n podía ponerse como intersección de nk hiperplanos.

Hay otra noción de ortogonalidad en álgebra lineal que también ya discutimos en el primer curso: la ortogonalidad de parejas de vectores con respecto a un producto interior. En el primer curso vimos esta noción muy brevemente. Lo que haremos ahora es profundizar en esta noción de ortogonalidad. De hecho, gracias a las herramientas que hemos desarrollado podemos conectar ambas nociones de ortogonalidad.

Esta teoría la veremos de manera explícita en el caso real en la entrada. El caso en C queda esbozado en los ejercicios.

Definición de ortogonalidad

Comenzamos con las siguientes definiciones.

Definición. Sea V un espacio vectorial sobre R y b una forma bilineal de V. Diremos que dos vectores x,y en V son ortogonales (con respecto a b) si b(x,y)=0.

Definición. Sea V un espacio vectorial sobre R y b una forma bilineal de V. Sea S un subconjunto de vectores de V. El conjunto ortogonal de S (con respecto a b) consiste de todos aquellos vectores en V que sean ortogonales a todos los vectores de S. En símbolos:

S:={vV:sS,b(s,v)=0}.

Es un buen ejercicio verificar que S siempre es un subespacio de V. Finalmente, definimos la ortogonalidad de conjuntos.

Definición. Sea V un espacio vectorial sobre R y b una forma bilineal de V. Diremos que dos subconjuntos S y T son ortogonales (con respecto a b) si ST.

En otras palabras, estamos pidiendo que todo vector de S sea ortogonal a todo vector de T.

Observación. Si tenemos un espacio vectorial con producto interior , de norma , entonces tenemos la fórmula x+y2=x2+2x,y+y2.

De esta forma, x y y son ortogonales si y sólo si x+y2=x2+y2. Podemos pensar esto como una generalización del teorema de Pitágoras.

Descomposición en un subespacio y su ortogonal

Comenzamos esta sección con un resultado auxiliar.

Teorema. Sea V un espacio euclideano y W un subespacio de V. Entonces V=WW.

Demostración. Sea , el producto interior de V. Para demostrar la igualdad que queremos, debemos mostrar que W y W están en posición de suma directa y que V=W+W.

Para ver que W y W están en posición de suma directa, basta ver que el único elemento en la intersección es el 0. Si x está en dicha intersección, entonces x,x=0, pues por estar en W debe ser ortogonal a todos los de W, en particular a sí mismo. Pero como tenemos un producto interior, esto implica que x=0.

Tomemos ahora un vector vV cualquiera. Definamos la forma lineal f:WR tal que f(u)=u,v. Por el teorema de representación de Riesz aplicado al espacio vectorial W y a su forma lineal f, tenemos que existe un (único) vector x en W tal que f(u)=u,x para cualquier u en W.

Definamos y=vx y veamos que está en W. En efecto, para cualquier u en W tenemos:

u,y=u,vx=u,vu,x=f(u)f(u)=0.

De esta manera, podemos escribir v=x+y con xW y yW.

◻

En particular, el teorema anterior nos dice que la unión disjunta de una base de W y una base de W es una base de V. Por ello, tenemos el siguiente corolario.

Corolario. Sea V un espacio euclideano y W un subespacio de V. Entonces dimW+dimW=dimV.

Tenemos un corolario más.

Corolario. Sea V un espacio euclideano y W un subespacio de V. Entonces (W)=W.

Demostración. Tanto W como (W) son subespacios de V. Tenemos que W(W) pues cualquier elemento de W es ortogonal a cualquier elemento de W. Además, por el corolario anterior tenemos:

dimW+dimW=dimVdimW+dim(W)=dimV.

De aquí se sigue que dimW=dim(W). Así, la igualdad que queremos de subespacios se sigue si un subespacio está contenido en otro de la misma dimensión, entonces deben de ser iguales.

◻

Proyecciones ortogonales

Debido al teorema anterior, podemos dar la siguiente definición.

Definición. Sea V un espacio euclideano y W un subespacio de V. La proyección ortogonal hacia W es la transformación lineal pW:VW tal que a cada v en V lo manda al único vector pW(v) tal que xpW(v) está en W.

Dicho en otras palabras, para encontrar a la proyección de v en W debemos escribirlo de la forma v=x+y con xW y yW y entonces pW(v)=x.

Distancia a subespacios

Cuando definimos la distancia entre conjuntos que tienen más de un punto, una posible forma de hacerlo es considerando los puntos más cercanos en ambos conjuntos, o en caso de no existir, el ínfimo de las distancias entre ellos. Esto da buenas propiedades para la distancia. En particular, cuando queremos definir la distancia de un punto x a un conjunto S hacemos lo siguiente.

Definición. Sea V un espacio vectorial real con producto interior , de norma . Sea S un subconjunto de V y v un vector de V. Definimos la distancia de v a S como la menor posible distancia de v hacia algún punto de S. En símbolos:

d(v,S):=infsSd(v,s).

En general, puede ser complicado encontrar el punto que minimiza la distancia de un punto a un conjunto. Sin embargo, esto es más sencillo de hacer si el conjunto es un subespacio de un espacio con producto interior: se hace a través de la proyección al subespacio. Esto queda reflejado en el siguiente resultado.

Proposición. Sea V un espacio euclideano con producto interior , de norma . Sea W un subespacio de V y sea v un vector en V. Entonces d(v,W)=vpW(v).

Más aún, pW(v) es el único punto en W para el cual se alcanza la distancia mínima.

Demostración. Por el teorema de descomposición en un subespacio y su ortogonal, sabemos que podemos escribir v=x+y con x en W y con y en W.

Tomemos cualquier elemento w en W. Tenemos que xw está en W y que y está en W. Así, usando el teorema de Pitágoras tenemos que:

vw2=y+(xw)2=y2+xw2y2=vx2.

Esto muestra que vwvx. Como xW, esto muestra que la distancia de v a W en efecto se alcanza con x=pW(v), pues cualquier otra distancia es mayor o igual.

La igualdad en la cadena anterior de alcanza si y sólo si xw2=0, lo cual sucede si y sólo si x=w, como queríamos.

◻

Más adelante…

En la siguiente entrada recordaremos varias de las ventajas que tiene contar con una base de un espacio vectorial en la que cualesquiera dos vectores sean ortogonales entre sí. Y en la entrada después de esa, recordaremos algunas hipótesis bajo las cuales podemos garantizar encontrar una de esas bases.

Tarea moral

  1. Resuelve los siguientes ejercicios:
    1. Sea R3 con el producto interno canónico y W={(0,0,a3):a3R}. Encuentra a W y define la proyección ortogonal pW hacia W.
    2. Encuentra el vector en Span((1,2,1),(1,3,4)) que sea el más cercano (respecto a la norma euclidiana) al vector (1,1,1).
  2. Sea V un espacio euclidiano y T:VV una transformación lineal tal que T2=T. Prueba que T es una proyección ortogonal si y solo si para cualesquiera x y y en V se tiene que T(x),y=x,T(y).
  3. Resuelve los siguientes ejercicios:
    1. Demuestra que una proyección ortogonal reduce la norma, es decir, que si T es una proyección ortogonal, entonces T(v)v.
    2. Prueba que una proyección ortogonal únicamente puede tener como eigenvalores a 0 ó a 1.
  4. Demuestra que la composición de dos proyecciones ortogonales no necesariamente es una proyección ortogonal.
  5. En el teorema de descomposición, ¿es necesaria la hipótesis de tener un producto interior? ¿Qué sucede si sólo tenemos una forma bilineal, simétrica y positiva?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Rango de transformaciones lineales y matrices

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de transformaciones lineales, cómo actúan en conjuntos especiales de vectores y de cómo se pueden representar con matrices. Hablamos también de cómo cambiar de una base a otra y cómo usar esto para entender transformaciones en varias bases. Estamos listos para introducir un concepto fundamental de álgebra lineal, el de rango de una transformación lineal y de una matriz.

Antes de entrar en las definiciones formales, vale la pena hablar un poco de rango de manera intuitiva. Supongamos que V es un espacio vectorial de dimensión n y que W es un espacio vectorial sobre el mismo campo que V. Una transformación lineal T:VW puede «guardar mucha independencia lineal» o «muy poquita». Si T es inyectiva, ya vimos antes que T manda linealmente independientes a linealmente independientes. Si T es la transformación 0, entonces se «pierde toda la independencia».

El rango mide algo intermedio entre estos dos extremos. Mientras mayor sea el rango, más independencia lineal se preserva y viceversa. Si mantienes esta intuición en mente, varias de las proposiciones te resultarán más naturales.

Otro buen ejemplo para tener en mente es tomar una transformación lineal T:R3R3. Si es la transformación identidad, la base canónica se preserva. Si es la proyección al plano xy, entonces «perdemos» al vector (0,0,1), pues se va al (0,0,0). Si es la proyección al eje x, «perdemos» al (0,1,0) y al (0,0,1) pues ambos se van a (0,0,0). Y si es la transformación 0, perdemos a todos. El rango precisamente va a medir esto, y para estos ejemplos tendremos rango 3, 2, 1 y 0 respectivamente.

Rango para transformaciones lineales

Como en otras ocasiones, cuando hablemos de transformaciones lineales entre espacios vectoriales, serán sobre un mismo campo F.

Definición. Sean V y W espacios de dimensión finita. El rango de una transformación lineal T:VW es la dimensión de la imagen de T, es decir, rank(T)=dimImT.

Si B es una base de V, entonces genera a V. La transformación T es suprayectiva de V a ImT, de modo que T(B) es generador de ImT. De esta forma, para encontrar el rango de una transformación lineal T:VW basta:

  • Tomar una base B de V.
  • Aplicar T a cada elemento de B.
  • Determinar un conjunto linealmente independiente máximo en T(B).

Para hacer este último paso, podemos poner a los vectores coordenada de T(B) con respecto a una base de W como los vectores fila de una matriz A y usar reducción gaussiana. Las operaciones elementales no cambian el espacio generado por las filas, así que el rango de T es el número de vectores fila no cero en la forma escalonada reducida Ared de A.

Ejemplo. Encuentra el rango de la transformación lineal T:R3M2(R) que manda (x,y,z) a (x+yz2x2y2zx+zy).

Solución. Tomemos e1,e2,e3 la base canónica de R3. Tenemos que T(e1)=(1201), T(e2)=(1021) y T(e3)=(1021).

Tomando la base canónica E11,E12,E21,E22 de M2(R), podemos entonces poner a las coordenadas de T(e1),T(e2),T(e2) como vectores fila de una matriz (120110211021). Sumando la segunda fila a la tercera, y después restando la primera a la segunda,obtenemos la matriz (120102220000). De aquí, sin necesidad de terminar la reducción gaussiana, podemos ver que habrá exactamente dos filas no cero. De este modo, el rango de la transformación es 2.

Propiedades del rango

Demostremos ahora algunas propiedades teóricas importantes acerca del rango de una transfromación lineal.

Proposición. Sean U, V y W espacios de dimensión finita. Sean S:UV, T:VW, T:VW transformaciones lineales. Entonces:

  1. rank(T)dimV
  2. rank(T)dimW
  3. rank(TS)rank(T)
  4. rank(TS)rank(S)
  5. rank(T+T)rank(T)+rank(T)

Demostración. (1) Pensemos a T como una transformación T:VIm(T). Haciendo esto, T resulta ser suprayectiva, y por un resultado anterior tenemos que dimVdimImT=rank(T).

(2) Sabemos que Im(T) es un subespacio de W, así que rank(T)=dimImTdimW.

(3) La imagen de T contiene a la imagen de TS, pues cada vector de la forma T(S(v)) es de la forma T(w) (para w=S(v)). Así, rank(T)=dimImTdimImTS=rank(TS).

(4) La función TS coincide con la restricción TImS de T a ImS. Por el inciso (1), rank(TImS)dimImS=rank(S), así que rank(TS)rank(S).

(5) Tenemos que Im(T+T)ImT+ImT. Además, por un corolario de la fórmula de Grassman, sabemos que
dim(ImT+ImT)dimImT+dimImT=rank(T)+rank(T).

Así,
rank(T+T)rank(ImT+ImT)rank(T)+rank(T).

◻

Proposición. Sean R:UV, T:VW y S:WZ transformaciones lineales con R suprayectiva y S inyectiva. Entonces rank(STR)=rank(T).

Dicho de otra forma «composición por la izquierda con transformaciones inyectivas no cambia el rango» y «composición por la derecha con transformaciones suprayectivas no cambia el rango». Un corolario es «composición con transformaciones invertibles no cambia el rango».

Demostración. De la proposición anterior, tenemos que rank(ST)rank(T). La restricción SImT de S a la imagen de T es una transformación lineal de ImT a Im(ST) que es inyectiva, de modo que dimImTdimIm(ST), que es justo rank(T)rank(ST), de modo que tenemos la igualdad rank(ST)=rank(T).

Como R es suprayectiva, ImR=V, de modo que Im(STR)=Im(ST). Así, rank(STR)=rank(ST)=rank(T).

◻

Teorema de rango-nulidad

Una transformación lineal T:VW determina automáticamente dos subespacios de manera natural: el kernel kerT y la imagen ImT. Resulta que las dimensiones de kerT, de ImT y de V están fuertemente relacionadas entre sí.

Teorema. Sean V y W espacios de dimensión finita. Sea T:VW una transformación lineal. Entonces dimkerT+rank(T)=dimV.

Demostración. Supongamos que dimV=n y dimkerT=k. Queremos mostrar que rank(T)=nk. Para ello, tomemos una base B de kerT y tomemos B={v1,,vnk} tal que BB sea base de V. Basta mostrar que T(B)={T(v1),,T(vnk)}ImT es base de ImT. Sea U el generado por B, de modo que V=UkerT.

Veamos que T(B) es generador de ImT. Tomemos T(v) en ImT. Podemos escribir v=z+u con zkerT y uU. Así, T(v)=T(z)+T(u)=T(u), y este último está en el generado por T(B).

Ahora veamos que T(B) es linealmente independiente. Si α1T(v1)++αnkT(vnk)=0, entonces T(α1v1++αnkvnk)=0, de modo que α1v1++αnkvnk está en U y en kerT, pero la intersección de estos espacios es {0}. Como esta combinación lineal es 0 y B es linealmente independiente, α1==αn=0.

De esta forma, T(B) es linealmente independiente y genera a ImT, de modo que rank(T)=|B|=nk.

◻

Ejemplo. Consideremos de nuevo la transformación lineal T:R3M2(R) que manda (x,y,z) a (x+yz2x2y2zx+zy). Muestra que T no es inyectiva.

Solución. Ya determinamos previamente que esta transformación tiene rango 2. Por el teorema de rango-nulidad, su kernel tiene dimensión 1. Así, hay un vector v(0,0,0) en el kernel, para el cual T(v)=0=T(0), de modo que T no es inyectiva.

◻

Problema. Demuestra que para cualquier entero n existe una terna (a,b,c)(0,0,0) con a+b+c=0 y tal que 01at2n+btn+cdt=0.

Solución. Podríamos hacer la integral y plantear dos ecuaciones lineales. Sin embargo, daremos argumentos dimensionales para evitar la integral. Consideremos las transformaciones lineales T:R3R y S:R3R dadas por
T(x,y,z)=01xt2n+ytn+zdtS(x,y,z)=x+y+z.
Notemos que T(0,0,1)=011dt=1=S(0,0,1), de modo que ni T ni S son la transformación 0. Como su rango puede ser a lo más dimR=1, entonces su rango es 1. Por el teorema de rango-nulidad, dimkerS=dimkerT=2. Como ambos son subespacios de R3, es imposible que kerSkerT={0}, de modo que existe (a,b,c) no cero tal que T(a,b,c)=S(a,b,c)=0. Esto es justo lo que buscábamos.

◻

Rango para matrices

Definición. El rango de una matriz A en Mm,n(F) es el rango de la transformación lineal asociada de Fn a Fm dada por XAX. Lo denotamos por rank(A).

A partir de esta definición y de las propiedades de rango para transformaciones lineales obtenemos directamente las siguientes propiedades para rango de matrices.

Proposición. Sean m, n y p enteros. Sea B una matriz en Mn,p(F) y A, A matrices en Mm,n(F). Sea P una matriz en Mn,p(F) cuya transformación lineal asociada es suprayectiva y Q una matriz en Mr,m(F) cuya transformación lineal asociada es inyectiva. Entonces:

  1. rank(A)min(m,n)
  2. rank(AB)min(rank(A),rank(B))
  3. rank(A+A)rank(A)+rank(A)
  4. rank(QAP)=rank(A)

Como discutimos anteriormente, el rango de una transformación se puede obtener aplicando la transformación a una base y viendo cuál es el máximo subconjunto de imágenes de elementos de la base que sea linealmente independiente. Si tomamos una matriz A en Mm,n(F), podemos aplicar esta idea con los vectores e1,,en de la base canónica de Fn. Como hemos visto con anterioridad, para cada i=1,,n tenemos que el vector Aei es exactamente la i-ésima columna de A. Esto nos permite determinar el rango de una matriz en términos de sus vectores columna.

Proposición. El rango de una matriz en Mm,n(F) es igual a la dimensión del subespacio de Fm generado por sus vectores columna.

Problema. Determina el rango de la matriz (310500829001042).

Solución. Como es una matriz con 3 filas, el rango es a lo más 3. Notemos que entre las columnas están los vectores (3,0,0), (0,2,0) y (0,0,2), que son linealmente independientes. De esta forma, el rango de la matriz es 3.

A veces queremos ver que el rango de un producto de matrices es grande. Una herramienta que puede servir en estos casos es la desigualdad de Sylvester.

Problema (Desigualdad de Sylvester). Muestra que para todas las matrices A, B en Mn(F) se tiene que rank(AB)rank(A)+rank(B)n.

Solución. Tomemos T1:FnFn y T2:FnFn tales que T1(X)=AX y T2(X)=BX. Lo que tenemos que probar es que rank(T1T2)rank(T1)+rank(T2)n.

Consideremos S1 como la restricción de T1 a ImT2. Tenemos que kerS1kerT1, así que dimkerS1dimkerT1. Por el teorema de rango-nulidad en S1, tenemos que
rank(T2)=dimImT2=dimkerS1+rank(S1)=dimkerS1+rank(T1T2)dimkerT1+rank(T1T2), así que rank(T2)dimkerT1+rank(T1T2).

Por el teorema de rango-nulidad en T1 tenemos que dimkerT1+rank(T1)=n.

Sumando la desigualdad anterior con esta igualdad obtenemos el resultado.

◻

El teorema PJQ (opcional)

El siguiente resultado no se encuentra en el temario usual de Álgebra Lineal I. Si bien no formará parte de la evaluación del curso, recomendamos fuertemente conocerlo y acostumbrarse a usarlo pues tiene amplias aplicaciones a través del álgebra lineal.

Teorema (Teorema PJQ). Sea A una matriz en Mm,n(F) y r un entero en {0,,min(m,n)}. El rango de A es igual a r si y sólo si existen matrices invertibles PMm(F) y QMn(F) tales que A=PJrQ, en donde Jr es la matriz en Mm,n cuyas primeras r entradas de su diagonal principal son 1 y todas las demás entradas son cero, es decir, en términos de matrices de bloque, Jr=(Ir000).

No damos la demostración aquí. Se puede encontrar en el libro de Titu Andreescu, Teorema 5.68. Veamos algunas aplicaciones de este teorema.

Problema 1. Muestra que una matriz tiene el mismo rango que su transpuesta.

Solución. Llamemos r al rango de A. Escribimos A=PJrQ usando el teorema PJQ, con P y Q matrices invertibles. Tenemos que tA=tQtJrtP, con tQ y tP matrices invertibles. Además, tJr es de nuevo de la forma de Jr. Así, por el teorema PJQ, tenemos que tA es de rango r.

Combinando el problema anterior con el resultado del rango de una matriz en términos de sus vectores columna obtenemos lo siguiente.

Proposición. El rango de una matriz en Mm,n(F) es igual a la dimensión del subespacio de Fn generado por sus vectores renglón.

Terminamos esta entrada con una aplicación más del teorema PJQ.

Problema 2. Muestra que una matriz A de rango r se puede escribir como suma de r matrices de rango 1. Muestra que es imposible hacerlo con menos matrices.

Solución. Expresamos A=PJrQ usando el teorema PJQ. Si definimos Ai=PEiiQ para i=1,,r, donde Eii es la matriz cuya entrada (i,i) es uno y las demás cero, claramente tenemos que Jr=E11+E22++Err, por lo que A=PJrQ=A1+A2++Ar. Además, como Eii es de rango 1, por el teorema PJQ cada matriz Ai es de rango 1.

Veamos que es imposible con menos. Si B1,,Bs son matrices de rango 1, como el rango es subaditivo tenemos que rank(B1++Bs)s. Así, si sumamos menos de r matrices, no podemos obtener a A.

◻

Más adelante…

Esta entrada es solamente una breve introducción al concepto de rango y a algunas propiedades que pueden ser de utilidad al momento de calcular el rango de una matriz o una transformación lineal. Más adelante, veremos que el rango de una matriz está también relacionado con las soluciones de su sistema lineal homogéneo asociado.

El teorema de rango-nulidad es fundamental para el álgebra lineal. Muchas veces necesitamos calcular el rango de la imagen de una transformación lineal, pero es mucho más fácil calcular la dimensión de su kernel. O viceversa. En estas situaciones es muy importante recordar la forma en la que dicho teorema las relaciona.

Con este tema termina la segunda unidad del curso. Ahora estudiaremos aspectos un poco más geométricos de espacios vectoriales. En la siguiente unidad, hablaremos de dualidad, ortogonalidad, formas bilineales y productos interiores.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Termina de hacer la reducción gaussiana del primer ejemplo.
  • Sea T una transformación de un espacio vectorial V de dimensión finita a si mismo. Usa el teorema de rango-nulidad para mostrar que si T es inyectiva o suprayectiva, entonces es biyectiva.
  • Determina el rango de la matriz (000837812031449).
  • Demuestra que aplicar operaciones elementales a una matriz no cambia su rango.
  • Demuestra que matrices similares tienen el mismo rango.
  • Demuestra por inducción que para matrices A1,,An del mismo tamaño tenemos que rank(A1++An)i=1nrank(Ai).
  • Escribe la demostración de la última proposición de la sección del teorema PJQ
  • Revisa la demostración del teorema de descomposición PJQ en el libro de Titu Andreescu.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»