Archivo de la etiqueta: isomorfismo

Álgebra Moderna I: Propiedades de los Homomorfismos

Por Cecilia del Carmen Villatoro Ramos

Introducción

En la entrada anterior vimos una introducción a los homomorfismos y algunas propiedades. Ahora sabemos que un homomorfismo es una función φ:GG¯ entre dos grupos (G,) y (G¯,¯), que respeta las operaciones, es decir, que para todas a,bG, φ(ab)=φ(a)¯φ(b). A partir de ahora simplificaremos la notación y escribiremos simplemente la condición anterior como: para todas a,bG, φ(ab)=φ(a)φ(b) (a menos que haya ambigüedad respecto a qué operación se está usando en cada caso).

En esta entrada, continuaremos dando algunas propiedades de los homomorfismos, en particular veremos cómo se comportan con las potencias de elementos del grupo y, en seguida, cómo se comparan el orden de un elemento y el orden de su imagen bajo un homomorfismo.

Homomorfismos y la potencia

Dado que el homomorfismo respeta el producto, se va a comportar bien con las potencias.

Proposición. Sean G,G¯ grupos, φ:GG¯ un homomorfismo. Entonces,

  1. φ(eG)=eG¯.
  2. φ(a1)=(φ(a))1 para toda aG.
  3. φ(an)=(φ(a))n para toda aG y para toda nZ.

Demostración.

Sean G,G¯ grupos y φ:GG¯ un homomorfismo.

P.D. φ(eG)=φeG¯.

Por un lado tenemos que φ(eg)eG¯=φ(eG) porque eG¯ es el neutro de G¯. Por otro lado tenemos que φ(eG)=φ(eGeG) porque eG es el neutro de G, y φ(eGeG)=φ(eG)φ(eG) porque φ es un homomorfismo.

Entonces tenemos

φ(eg)eG¯=φ(eG)=φ(eG)φ(eG).

Cancelamos φ(eG), y obtenemos
eG¯=φ(eG).

Sea aG.
P.D. φ(a1)=(φ(a))1.

Por un lado tenemos que φ(a)(φ(a))1=eG¯.

Por el inciso anterior, tenemos que eG¯=φ(eG)=φ(aa1) y como φ es un homomorfismo, tenemos que φ(aa1)=φ(a)φ(a1).

Entonces tenemos que φ(a)(φ(a))1=φ(a)φ(a1), donde podemos cancelar φ(a):

φ(a)(φ(a))1=φ(a)φ(a1)(φ(a))1=φ(a1).

Sea aG.
P.D. φ(an)=(φ(a))n para toda aG y nZ.
Demostraremos primero el resultado para nN por inducción sobre n.

Sea n=0.

Entonces, por el inciso 1,
φ(a0)=φ(eG)=eG¯=(φ(a))0.

Sea n0.
Para nuestra hipótesis de inducción, supongamos que φ(an)=(φ(a))n.

Por la definición de potencia,
φ(an+1)=φ(ana).

Luego, como φ es un homomorfismo,
φ(ana)=φ(an)φ(a)=(φ(a))nφ(a)Por H.I.=(φ(a))n+1Por la definición de potencia

Por lo tanto φ(an)=(φ(a))n para toda nN.

Finalmente, si nZ+.
φ(an)=φ((an)1)=φ((an))1Por el inciso 2=((φ(a))n)1Por lo probado anteriormente=(φ(a))n

Por lo tanto φ(am)=(φ(a))m, para toda mZ.

◼

Homomorfismos y el orden

Corolario. Sean G,G¯ grupos, sea φ:GG¯ un homomorfismo.
Si aG es de orden finito, φ(a) también lo es y o(φ(a))|o(a). Es decir, el orden de φ(a) divide al orden de a.
Más aún, si φ es un isomorfismo, entonces o(φ(a))=o(a).

Demostración.
Sean G,G¯ grupos, φ:GG¯ un homomorfismo y sea aG de orden finito.

Ahora, usamos las propiedades de φ para obtener las siguientes igualdades.

φ(a)o(a)=φ(ao(a))=φ(eG)=eG¯.

Esto nos dice que φ(a) es de orden finito. Esto no significa que o(a) es el orden de φ(a), pero sí se sigue, por las propiedades del orden de un elemento, que o(φ(a))|o(a).

Ahora, si φ es un isomorfismo, φ1 también, así que por lo antes probado o(φ1(b))|o(b) para todo bG¯; en particular, para b=φ(a) se tiene que o(φ1(φ(a)))|o(φ(a)). Entonces,
o(a)=o(φ1(φ(a)))|o(φ(a))

Por lo tanto o(φ(a))=o(a).

◼

Ejemplo.

Por último, veamos un ejemplo para ilustrar las propiedades que acabamos de ver.

Sea G un grupo, aG de orden finito.

Dado gG sabemos que
γg:GGconγg(x)=gxg1xG

es un isomorfismo.

Así, γg(a) es de orden finito y o(γg(a))=o(a). Entonces, gag1 es de orden finito y o(gag1)=o(a).

Así, elementos conjugados tienen el mismo orden.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Sean G y G¯ grupos y XG tal que G=X. Sea φ:XG¯ una función. ¿Qué se requiere para poder extender φ a un homomorfismo ψ:GG¯? En ese caso ¿de cuántas formas se pueden extender?
  2. Describe, si es que existen, todos los homomorfismos:
    • de Z en Z
    • de Z12 en Z5
    • de Z en Z8
    • de Z12 en Z14
  3. Determina si los siguientes grupos son isomorfos
    • Q y D2(4)
    • (SO(2,R),) y (S1,)
    • (Z[x],+) y (Q+,)

Más adelante…

Los resutados mostrados en esta entrada no son más que consecuencias lógicas a lo que establecimos en la entrada anterior. Es importante recalcarlos, pero es claro que si un homomorfismo se comporta bien con el producto, se va a comportar bien con la potencia y por ende, con el orden de un elemento.

En la siguiente entrada, definiremos nuevos conceptos relacionados con los homomorfismos, como el núcleo de un homomorfismo y la proyección canónica.

Entradas relacionadas

Álgebra Moderna I: Homomorfismo, Monomorfismo, Epimorfismo, Isomorfismo y Automorfismo

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

Lo sé, el título parece un trabalenguas. Pero ten paciencia, en realidad no es tan complicado.

A lo largo de este curso hemos estado trabajando con grupos, ahora vamos a pensar en funciones que respetan de alguna manera la estructura de los grupos.

Tomemos por ejemplo el grupo de Klein, V={(0,0),(1,0),(0,1),(1,1)}, es un grupo que tiene un neutro (0,0) y los otros tres elementos comparten que: tienen orden 2, si se suman consigo mismos obtenemos el neutro y si sumamos dos, obtenemos el tercero:

(1,0)+(1,0)=(0,0)(0,1)+(0,1)=(0,0)(1,1)+(1,1)=(0,0).

(1,0)+(0,1)=(1,1)(0,1)+(1,1)=(1,0)(1,1)+(1,0)=(0,1).

Por otro lado, podemos tomar el conjunto P={(1),(12)(34),(13)(24),(14)(23)}. P es un grupo que tiene un neutro (1) y los otros tres elementos comparten que: tienen orden 2, si se componen consigo mismos obtenemos el neutro y si componemos dos, obtenemos el tercero:

(12)(34)(12)(34)=(1)(13)(24)(13)(24)=(1)(14)(23)(14)(23)=(1).

(12)(34)(13)(24)=(14)(23)(13)(24)(14)(23)=(12)(34)(14)(23)(12)(34)=(13)(24).

¿Suena familiar? Bueno, esto es porque a pesar de que son grupos distintos, con elementos y operaciones muy diferentes, estructuralmente son iguales.

Para formalizar esta idea, nos gustaría observar que existe una correspondencia entre los dos grupos. Esta correspondencia es biyectiva y además tiene que respetar la estructura de las operaciones. Entonces sería algo así:

(0,0)(1)(1,0)(12)(34)(0,1)(13)(24)(1,1)(14)(23).

En este caso decimos que V y P son isomorfos. Lo definiremos formalmente más adelante, por ahora es importante que observes que esta correspondencia mantiene la estructura de las operaciones de los grupos. Así, este es el objetivo de la entrada, definir y trabajar con funciones (no necesariamente biyectivas) que mantengan las operaciones de dos grupos. Estas funciones son llamadas homomorfismos.

¿Qué son todos estos homomorfismos?

Primero, comencemos definiendo lo más general. Una función que mantenga las operaciones entre grupos.

Definición. Sean (G,),(G¯,¯) grupos. Decimos que la función φ:GG¯φ:(G,)(G¯,¯)) es un homomorfismo de grupos si
φ(ab)=φ(a)¯φ(b)a,bG.

Se puede decir que φ «abre» a la operación.

Definiciones varias.

Ahora, le agregaremos condiciones a φ. Dependiendo de qué condición extra cumpla, el homorfismo tomará otro nombre.

  • Si el homomorfismo φ es inyectivo se llama monomorfismo.
  • Si el homomorfismo φ es suprayectivo se llama epimorfismo.
  • Si el homomorfismo φ es biyectivo se llama isomorfismo.
  • Un isomorfismo de un grupo en sí mismo se llama automorfismo.

Notación. Si φ es un isomorfismo decimos que G es isomorfo a G¯ y lo denotamos como GG¯.

Puede parecer mucho vocabulario nuevo, así que guarda esta entrada para recordar qué es cada uno.

Ejemplos.

Ejemplo 1.Tomemos φ:(Z,+)(Zn,+) con φ(a)=a¯ para toda aZ. Es decir, φ manda a cada entero a su clase módulo n.

Veamos qué sucede con la suma :
φ(a+b)=a+b=a¯+b¯=φ(a)+φ(b) para toda a,bZ.

Además, dado a¯Zn,a¯=φ(a). Entonces φ es suprayectiva.
Por lo tanto φ es un epimorfismo.

Ejemplo 2. Sea nN+.
Tomamos φ:(Sn,)(Sn+1,) donde para cada αSn se define φ(α)Sn+1 tal que
φ(α)(i)={α(i)si i{1,,n}n+1si i=n+1

Es decir, se mantienen las permutaciones de Sn pero se consideran como elementos de Sn+1 pensando que dejan fijo a n+1.

Ahora veamos qué sucede con el producto, sean α,βSn:
φ(α)φ(β)(i)=φ(α)(φ(β)(i))={α(β(i))si i{1,,n}n+1si i=n+1=φ(αβ)(i)

Además, si φ(α)=(1) entonces α(i)=i para todo i{1,,n}. Así α=(1). Por lo que φ es inyectiva.
En conclusión, φ es un monomorfismo.

Ejemplo 3. Sea φ:(R,+)(R+,) con φ(x)=ex para todo xR.
Entonces, para la suma de dos elementos en el dominio x,yR tendríamos,
φ(x+y)=ex+y=exey=φ(x)φ(y).
Sabemos que ψ:R+R con ψ(y)=ln(y) para toda yR+ es la inversa de φ, así φ es biyectiva.
Por lo tanto φ es un isomorfismo.

Ejemplo 4. Veamos un ejemplo más abstracto. Sea G un grupo y gG. Y, dadas x,yG, definimos
γg(xy)=g(xy)g1=(gxg1)(gyg1)=γg(x)γg(y).
Además, para toda xG,
γgγg1(x)=γg(g1xg)=g(g1xg)g1=xγg1γg(x)=γg1(gxg1)=g1(gxg1)g=x.
Donde, g1 existe porque G es un grupo. Así, lo anterior nos indica que γg es un homomorfismo invertible, que además tiene como dominio y codominio a G.

Por lo tanto γg es un automorfismo.

Propiedades de los homomorfismos

Proposición. El inverso de un isomorfismo es un isomorfismo.

Demostración.

Sean (G,),(G¯,¯) grupos, φ:GG¯ es un isomorfismo.
Tomemos c,dG¯.

Como φ es suprayectiva, existen a,bG tales que φ(a)=c y φ(b)=d.

φ1(c¯d)=φ1(φ(a)¯φ(b))=φ1(φ(ab))φ es un homomorfismo=φ1φ(ab)=abComposición de inversas=φ1(c)φ1(d)Pues φ(a)=c,φ(b)=d

Así, φ1 es un homomorfismo y como es biyectivo por ser invertible, entonces φ1 es un isomorfismo.

◼

Proposición. La composición de homomorfismos es un homomorfismo.

Demostración.

Sean (G,),(G¯,¯),(G~,~) grupos. También, sean φ:GG¯ y ψ:G¯G~ homomorfismos.

Dados a,bG,

ψφ(ab)=ψ(φ(ab))=ψ(φ(a)¯φ(b))φ es homomorfismo=ψ(φ(a))~ψ(φ(b))ψ es homomorfismo=ψφ(a)~ψφ(b)

Por lo tanto ψφ es un homomorfismo.

◼

Observaciones.

  • Para todo G grupo, GG. (Es decir, G es isomorfo a sí mismo).
  • Si G,G¯ son grupos y GG¯, entonces G¯G.
  • Si G,G¯,G~ son grupos, GG¯ y G¯G~, entonces GG~.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Sea D2n=a,b el grupo diédrico formado por las simetrías de un n-ágono, con a la rotación de 2πn y b la reflexión con respecto al eje x. Sea φ:D2nD2n tal que φ(aibj)=bj. ¿Es φ un homomorfismo?
  2. Sean X y Y dos conjuntos con la misma cardinalidad. ¿Qué relación hay entre SX y SY?
  3. Sea V={e,(12)(34),(13)(24),(14)(13)}S4. Encuentra HS4, HV pero isomorfo a V. ¿Es H normal en S4?

Más adelante…

Los homomorfismos son una parte importante de las matemáticas, porque respetar las operaciones es una característica sencilla a simple vista, pero lo suficientemente compleja para que las funciones que la cumplan sean muy interesantes. Los homomorfismos nos permiten cambiar de espacios de trabajo sin mucho problema.

Por otro lado, tal vez ya sabes que las matemáticas de este curso (y de la mayoría de los cursos en este blog) están fundamentadas en la Teoría de Conjuntos. Esta teoría nos permite construir a los objetos matemáticos a partir de conjuntos. Como curiosidad, tal vez te interese saber que existe otra teoría llamada Teoría de Categorías, que generaliza lo anterior, y en la que la generalización de un homomorfismo es llamado morfismo.

Aunque estén definidos de manera diferente, los homomorfismos de esta entrada y los morfismos de la Teoría de Categorías son, en intuición, lo mismo. Esto refuerza la idea de que los homomorfismos son en realidad más importantes de lo que parecen.

Pero bueno, regresemos a nuestro curso: en la siguiente entrada continuaremos viendo el comportamiento de los homomorfismos.

Entradas relacionadas

Álgebra Lineal I: Bases duales, recetas y una matriz invertible

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior definimos el espacio dual de un espacio vectorial V. Así mismo, definimos las formas coordenadas, que son formas lineales asociadas a una base B de V. Lo que hace la i-ésima forma coordenada en un vector v es «leer» el i-ésimo coeficiente de v expresado en la base B. Nos gustaría ver que estas formas coordenadas conforman bases del espacio dual.

Más concretamente, el objetivo de esta entrada es mostrar el teorema que enunciamos al final de la entrada anterior, hablar de problemas prácticos de bases duales y de mostrar un resultado interesante que relaciona bases, bases duales y la invertibilidad de una matriz.

Pequeño recordatorio

Como recordatorio, dada una base B={e1,,en} de un espacio vectorial V de dimensión finita n, podemos construir n formas coordenadas e1,,en que quedan totalmente determinadas por lo que le hacen a los elementos de B y esto es, por definición, lo siguiente:

ei(ej)={1 si i=j,0 si ij.

Recordemos también que dado un vector v en V podíamos construir a la forma lineal «evaluar en v», que era la forma evv:VF dada por evv(f)=f(v). Como manda elementos de V a F, entonces pertenece a V. A partir de esta definición, construimos la bidualidad canónica ι:VV que manda v a evv.

Finalmente, recordemos que dada una forma lineal l y un vector v, usamos la notación l,v=l(v), y que esta notación es lineal en cada una de sus entradas. Todo esto lo puedes revisar a detalle en la entrada anterior.

El teorema de bases duales

El resultado que enunciamos previamente y que probaremos ahora es el siguiente.

Teorema. Sea V un espacio vectorial de dimensión finita n y B={e1,,en} una base de V. Entonces el conjunto de formas coordenadas B={e1,,en} es una base de V. En particular, V es de dimensión finita n. Además, la bidualidad canónica ι:VV es un isomorfismo de espacios vectoriales.

Antes de comenzar, convéncete de que cada una de las ei son formas lineales, es decir, transformaciones lineales de V a F.

Demostración. Veremos que B={e1,,en} es un conjunto linealmente independiente y que genera a V. Veamos lo primero. Tomemos una combinación lineal igual a cero, z:=α1e1+α2e2++αnen=0. Para cada i=1,2,,n, podemos evaluar la forma lineal z en ei.

Por un lado, z(ei)=0, pues estamos suponiendo que la combinación lineal de ei’s es (la forma lineal) cero. Por otro lado, analizando término a término y usando que los ei son la base dual, tenemos que si ij entonces ej(ei) es cero, y si i=j, es 1.

Así que el único término que queda es αiei(ei)=αi. Juntando ambas observaciones, αi=z(ei)=0, de modo que todos los coeficientes de la combinación lineal son cero. Asi, B es linealmente independiente.

Ahora veremos que B genera a V. Tomemos una forma lineal arbitraria l, es decir, un elemento en V. Al evaluarla en e1,e2,,en obtenemos escalares l,e1,l,e2,,l,en. Afirmamos que estos son los coeficientes que nos ayudarán a poner a l como combinación lineal de elementos de B. En efecto, para cualquier vector v tenemos que

(i=1nl,eiei)(v)=i=1nl,eiei,v=i=1nl,ei,vei=l,i=1nei,vei=l,v=l(v).

La primer igualdad es por la definición de suma de transformaciones lineales. En la segunda usamos la linealidad de la segunda entrada para meter el escalar ei,v. La siguiente es de nuevo por la linealidad de la segunda entrada. En la penúltima igualdad usamos que justo ei,v es el coeficiente que acompaña a ei cuando escribimos a v con la base B. Esto muestra que B genera a V.

Así, B es base de V. Como B tiene n elementos, entonces V tiene dimensión n.

La última parte del teorema consiste en ver que ι:VV es un isomorfismo de espacios vectoriales. Por lo que acabamos de demostrar, dimV=dimV=dimV. Así que basta con mostrar que ι es inyectiva pues, de ser así, mandaría a una base de V a un conjunto linealmente independiente de V con n elementos, que sabemos que es suficiente para que sea base. Como ι es transformación lineal, basta mostrar que el único vector que se va a la forma lineal 0 de V es el 0 de V.

Supongamos que v es tal que evv=0. Vamos a mostrar que v=0. Si evv=0, en particular para las formas coordenadas ei tenemos que evv(ei)=0. En otras palabras, ei(v)=0 para toda i. Es decir, todas las coordenadas de v en la base B son 0. Así, v=0. Con esto terminamos la prueba.

◻

La demostración anterior muestra cómo encontrar las coordenadas de una forma lineal l en términos de la base B: basta con evaluar l en los elementos de la base B. Recopilamos esto y la igualdad dual como una proposición aparte, pues resulta ser útil en varios contextos.

Proposición. Sea V un espacio vectorial de dimensión finita n, B={e1,,en} una base de V y B={e1,,en} la base dual. Entonces, para todo vector v en V y para toda forma lineal l:VF, tenemos que
v=i=1nei,vei y l=i=1nl,eiei.

La traza de una matriz en Mn(F) es la suma de las entradas en su diagonal principal. Es sencillo verificar que la función tr:Mn(F)F que manda a cada matriz a su traza es una forma lineal, es decir, un elemento de Mn(F).

Ejemplo. Considera el espacio vectorial de matrices M3(R). Sea B={Eij} su base canónica. Expresa a la forma lineal traza en términos de la base dual B.

Solución. Tenemos que tr(Eii)=1 y que si ij, entonces tr(Eij)=0. De esta forma, usando la fórmula de la proposición anterior,
tr=i,jtr(Eij)Eij=E11+E22+E33. Observa que, en efecto, esta igualdad es correcta. Lo que hace Eii por definición es obtener la entrada aii de una matriz A=[aij].

La igualdad que encontramos dice que «para obtener la traza hay que extraer las entradas a11, a22, a33 de A y sumarlas». En efecto, eso es justo lo que hace la traza.

Algunos problemas prácticos de bases duales

Ya que introdujimos el concepto de espacio dual y de base dual, hay algunos problemas prácticos que puede que queramos resolver.

  • Dada una base v1,,vn de Fn, ¿cómo podemos encontrar a la base dual v1,,vn en términos de la base dual e1,,en de la base canónica?
  • Dada una base L={l1,,ln} de V, ¿es posible encontrar una base B de V tal que B=L? De ser así, ¿cómo encontramos esta base?

A continuación mencionamos cómo resolver ambos problemas. Las demostraciones se quedan como tarea moral. En la siguiente entrada veremos problemas ejemplo resueltos.

  • La receta para resolver el primer problema es poner a v1,,vn como vectores columna de una matriz A. Las coordenadas de v1,,vn en términos de la base e1,,en están dados por las filas de la matriz A1.
  • La receta para resolver el segundo problema es tomar una base B={e1,,en} cualquiera de V y considerar la matriz A con entradas A=[li(ej)]. La matriz A1 tiene como columnas a los vectores de coordenadas de la base B que buscamos con respecto a la base B.

¿Por qué la matriz A de la segunda receta es invertible? Esto lo mostramos en la siguiente sección.

Un teorema de bases, bases duales e invertibilidad de matrices

La demostración del siguiente teorema usa varias ideas que hemos estado desarrollando con anterioridad. Usamos que:

  • Si V es de dimensión finita n y B es un conjunto de n vectores de V, entonces basta con que B sea linealmente independiente para ser base. Esto lo puedes repasar en la entrada del lema de intercambio de Steinitz.
  • Una matriz cuadrada A es invertible si y sólo si el sistema de ecuaciones AX=0 sólo tiene la solución trivial X=0. Esto lo puedes repasar en la entrada de equivalencias de matrices invertibles.
  • Una matriz cuadrada A es invertible si y sólo si su transpuesta lo es.
  • El hecho de que la bidualidad canónica ι es un isomorfismo entre V y V.

Teorema. Sea V un espacio vectorial de dimensión finita n sobre el campo F. Sea B={v1,,vn} un conjunto de vectores en V y L={l1,,ln} un conjunto de elementos de V, es decir, de formas lineales en V. Consideremos a la matriz A en Mn(F) dada por A=[li(vj)]. La matriz A es invertible si y sólo si B es una base de V y L es una base de V.

Demostración. Mostraremos primero que si B no es base, entonces A no es invertible. Como B tiene n elementos y no es base, entonces no es linealmente independiente, así que existe una combinación lineal no trivial α1v1++αnvn=0. De esta forma, si definimos v=(α1,,αn), este es un vector no cero, y además, la i-ésima entrada de Av es α1li(v1)++αnli(vn)=li(α1v1++αnvn)=0. De este modo, AX=0 tiene una no solución trivial y por lo tanto no es invertible.

De manera similar, si L no es base, entonces hay una combinación lineal no trivial β1L1++βnLn=0 y entonces el vector w=(β1,,βn) es una solución no trivial a la ecuación tAX=0, por lo que tA no es invertible, y por lo tanto A tampoco lo es.

Ahora veremos que si L y B son bases, entonces A es invertible. Si A no fuera invertible, entonces tendríamos una solución no trivial (α1,,αn) a la ecuación AX=0. Como vimos arriba, esto quiere decir que para cada i tenemos que li(α1v1++αnvn)=0. Como li es base de V, esto implica que l(α1v1++αnvn)=0 para toda forma lineal l, y como la bidualidad canónica es un isomorfismo, tenemos que α1v1++αnvn=0. Esto es imposible, pues es una combinación lineal no trivial de los elementos de B, que por ser base, son linealmente independientes.

◻

Más adelante…

Esta entrada es un poco abstracta, pues habla de bastantes transformaciones aplicadas a transformaciones, y eso puede resultar un poco confuso. Se verán problemas para aterrizar estas ideas. La importancia de entenderlas y manejarlas correctamente es que serán de utilidad más adelante, cuando hablemos de los espacios ortogonales, de transposición de transformaciones lineales y de hiperplanos.

La teoría de dualidad también tiene amplias aplicaciones en otras áreas de las matemáticas. En cierto sentido, la dualidad que vemos aquí es también la que aparece en espacios proyectivos. Está fuertemente relacionada con la dualidad que aparece en teoremas importantes de optimización lineal, que permiten en ocasiones reformular un problema difícil en términos de uno más fácil, pero con el mismo punto óptimo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Usa la definición de linealidad para ver que las formas coordenadas ei en efecto son formas lineales.
  • Muestra que ι:VV, la bidualidad canónica, es una transformación lineal.
  • Justifica por qué la primer receta resuelve el primer problema práctico de bases duales.
  • Justifica por qué la segunda receta resuelve el segundo problema práctico de bases duales.
  • Sean a0,a1,,an reales distintos. Considera el espacio vectorial V=Rn[x] de polinomios con coeficientes reales y grado a lo más n. Muestra que las funciones evai:VR tales que evai(f)=f(ai) son formas lineales linealmente independientes, y que por lo tanto son una base de V. Usa esta base, la base canónica de V y el teorema de la última sección para mostrar que la matriz (1a0a02a0n1a1a12a1n1a2a22a2n1anan2ann) es invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Forma matricial de una transformación lineal

Por Ayax Calderón

Introducción

Durante la primera unidad de este curso vimos que las transformaciones lineales T:FnFm pueden ser descritas por medio de matrices AMm,n(F). Nuestro objetivo ahora es extender este resultado para describir transformaciones lineales T:VW entre espacios vectoriales de dimensión finita V y W. Es decir, para cada una de estas transformaciones, queremos ver cómo se ven en forma matricial.

Sin embargo, a diferencia de lo que sucedía antes, la descripción en esta forma no será única. Para construir una matriz que represente a una transformación lineal, necesitaremos fijar bases para V y W. Distintas bases nos darán distintas matrices.

Para esta entrada todos los espacios vectoriales que usemos son de dimensión finita sobre el campo F. Usaremos los resultados de la entrada pasada, en la que estudiamos qué le hacen las transformaciones lineales a los conjuntos linealmente independientes, a los generadores y a las bases.

Un paréntesis técnico de isomorfismos

Quizás a estas alturas ya te hayas dado cuenta de que, en cierto sentido, los espacios vectoriales con la misma dimensión se parecen mucho entre sí. Por ejemplo, los espacios vectoriales R4, M2(R) y R3[x] pueden pensarse «como el mismo» si identificamos a cada vector (a,b,c,d) con la matriz (abcd), o bien con el polinomio a+bx+cx2+dx3. Esta identificación es biyectiva y «respeta las operaciones».

Con esta motivación, veamos una definición formal.

Definición. Decimos que una transformación lineal T:VW es un isomorfismo de espacios vectoriales si es biyectiva. Lo denotamos como VTW, que se lee «V isomorfo a W mediante T».

Problema. Sea T:VW un isomorfismo de espacios vectoriales. Prueba que su inversa T1:WV es un isomorfismo de espacios vectoriales.

Demostración. La transformación T1 es biyectiva, pues es invertible de inversa T, así que sólo hace falta checar que T1 es lineal. Tomemos w1, w2 en W, y c en el campo. Como T es suprayectiva, podemos tomar v1=T1(w1) y v2=T1(w2). Entonces T(v1)=w1 y T(v2)=w2, así
T1(w1+cw2)=T1(T(v1)+cT(v2))=T1(T(v1+cv2))=v1+cv2

En la segunda igualdad estamos usando que T es lineal. De esta forma, concluimos que T1 es lineal también.

◻

Formalicemos ahora sí nuestra intuición de que «todos los espacios vectoriales de la misma dimensión finta n sobre un mismo campo se comportan igual». En términos matemáticos, decimos que «es posible clasificar los espacios vectoriales de dimensión finita distintos de {0}, salvo isomorfismos». Para mostrar esto, veremos que para cada entero positivo n todos los espacios vectoriales de dimensión n son isomorfos a Fn. El siguiente resultado da el isomorfismo de manera explícita.

Teorema. Sea n un entero positivo y sea V un espacio vectorial de dimensión finita sobre F. Si B=e1,,en es una base de V, entonces la transformación iB:FnV definida por iB(x1,,xn)=x1e1+x2e2++xnen es un isomorfismo de espacios vectoriales.

La verificación de los detalles de este teorema queda como tarea moral. Como sugerencia, recuerda que una base B de V te permite expresar a cada vector de V (de aquí saldrá la suprayectividad) de manera única (de aquí saldrá la inyectividad) como combinación lineal de elementos de B.

Corolario. Si T:VW es un isomorfismo de espacios vectoriales, entonces dimV=dimW.

Bases ordenadas

Sea V un espacio vectorial de dimensión finita n. Una base ordenada de V es simplemente una base para la cual nos importa en qué orden están sus elementos. La escribimos con notación de paréntesis en vez de llaves, es decir, en vez de poner B={v1,,vn}, ponemos B=(v1,,vn) para hacer énfasis en el orden.

Ejemplo 1. El conjunto {(1,2),(3,4)} es una base de R2. De aquí, podemos obtener dos bases ordenadas, B=((1,2),(3,4)) y B=((3,4),(1,2)). Aunque tienen a los mismos elementos, las pensamos como bases ordenadas diferentes pues sus elementos aparecen en diferente orden.

Del mismo modo, las bases B=(1,x,x2,x3) y B=(x3,x2,x,1) son la misma base de R2[x], pero son distintas como bases ordenadas.

Por las discusión en la sección anterior, la elección de una base ordenada en un espacio vectorial V de dimensión n nos permite identificar V con Fn. Es decir, dada una base B, podemos «ponerle coordenadas» a los elementos de V. Dependiendo de la base ordenada escogida, es posible que obtengamos diferentes coordenadas.

Ejemplo 2. Consideremos el espacio vectorial M2(R). Se puede verificar que cada uno de los siguientes conjuntos ordenados son una base:

B=((1000),(0100),(0010),(0001))B=((1000),(0010),(0100),(0001))B»=((1111),(0111),(0011),(0001))

Como cada uno de ellos es una base, entonces podemos escribir a la matriz A=(1234) como combinación lineal de elementos de cada uno de B, B o B».

Si lo hacemos para B, tendríamos (en orden), a los coeficientes 1,2,3,4, así que las coordenadas de A en la base ordenada B serían (1,2,3,4).

Si lo hacemos para B, tendríamos (en orden), a los coeficientes 1,3,2,4, así que las coordenadas de A en la base ordenada B serían (1,3,2,4). Aunque B y B tengan los mismos elementos, las coordenadas difieren pues como bases ordenadas B y B son distintas.

Si lo hacemos para B», tendríamos (en orden), a los coeficientes 1,1,1,1, así que las coordenadas de A en la base ordenada B» serían (1,1,1,1). Aquí obtenemos coordenadas muy distintas pues B y B» ni siquiera tienen a los mismos elementos.

La forma matricial de una transformación lineal

Consideremos ahora espacios vectoriales V y W de dimensiones n y m respectivamente. Supongamos que tenemos una transformación lineal T:VW. Escogemos bases ordenadas BV=(v1,,vn) y BW=(w1,,wm) de V y W respectivamente. Ten cuidado, aquí (v1,,vn) no es un vector de Fn, sino una colección ordenada de vectores de V.

Por el teorema de caracterización de espacios vectoriales de dimensión finita, tenemos los isomorfismos iBV:FnV, iBW:FmW.

¿Cómo podemos usar todas estas transformaciones para construir una transformación FnFm? La idea es usar el inverso de iBW y componer todo.

Así, consideramos ψT como la composición de las transformaciones iBV,T,iBW1, es decir, ψT:FnFm, está dada por ψT=iBW1TiBV.

De esta forma, ψT es una transformación lineal entre Fn y Fm. ¡Este tipo de transformaciones ya las conocemos! Sabemos que ψT se describe de manera única por medio de una matriz AMm,n(F). Esta es, por definición, la matriz asociada a T con respecto a las bases BV y BW o bien la forma matricial de T. Dicha matriz depende fuertemente de las dos bases, así que la denotaremos como MatBW,BV(T) . Por el momento sólo pongamos mucha atención en el orden en el que escribimos las bases en los subíndices. Es importante más adelante veremos que resulta útil escribirlo así.

Cuando T:VV va de un espacio vectorial a sí mismo y usamos sólo una base B, simplificamos la notación a MatB(T).

Evaluar T usando su forma matricial

La construcción anterior parece muy complicada, pero en realidad es muy natural. Lo que está sucediendo es lo siguiente. Ya sabemos que toda transformación lineal entre Fn y Fm está dada por matrices. Podemos extender esto a una descripción de transformaciones lineales entre V y W identificando V con Fn y W con Fm vía la elección de bases en V y W.

Notemos que si definimos A:=MatBW,BV(T), entonces tenemos que

iBW(Ax)=T(iBV(x)) … (1)

Esta igualdad nos va a ayudar a decir quién es T en términos de las entradas de la matriz A. Sea {e1,,en} la base canónica de Fn y {f1,,fm} la base canónica de Fm. SiA=[aij], entonces por definición Aei=a1if1++amifm, así para x=ei se tiene

iBW(Ax)=iBW(a1if1++amifm)=a1iw1++amiwm.

Por otro lado, iBV(ei)=vi, de manera que la relación (1) es equivalente a la relación

T(vi)=a1iw1++amiwm

Aquí empieza a haber mucha notación, pero no hay que perderse. Hasta ahora lo que tenemos es que «podemos saber cuánto vale la transformación T en cada elemento de la base de V en términos de la matriz A». ¡Este es un paso importante, pues en la entrada anterior vimos que basta saber qué le hace una transformación a los elementos de la base para saber qué le hace a cualquier vector! Resumimos lo obtenido hasta ahora.

Proposición. Sea T:VW una transformación lineal y sean BV={v1,vn},BW={w1,,wm} bases en V y W, respectivamente. Escribamos MatBW,BV(T)=[aij]. Entonces para toda 1in se tiene T(vi)=j=1majiwj.

Así, si tenemos la matriz A que representa a T en las bases BV y BW y un vector arbitrario v en V, para saber quién es T(V) basta:

  • Usar la proposición anterior para saber quién es T(vi) para cada vi en la base BV.
  • Expresar a v en términos de la base BV como, digamos, v=c1v1++cnvn.
  • Usar que T es lineal para concluir que T(v)=c1T(v1)++cnT(vn) y usar los valores de T(vi) encontrados en el primer inciso.

Forma matricial de composiciones de transformaciones lineales

Para finalizar esta entrada queremos entender la relación entre la composición ST de transformaciones lineales y las matrices asociadas de T y S. En otras palabras, sean T:VW y S:WU transformaciones lineales fijas y supongamos que m=dimV, n=dimW, p=dimU. También fijemos las bases BU,BV,BW en U,V,W, respectivamente. Para simplificar las cosas escribamos

A=MatBU,BW(S) y B=MatBW,BV(T)

Con respecto a las bases BU,BV,BW se tienen los isomorfismos iBU,iBV,iBW definidos como lo hicimos anteriormente en esta misma entrada del blog, y por definición de A,B se tiene

iBW(Bx)=T(iBV(x)) con xFm,

iBU(Ay)=S(iBW(y)) con yFn.

Aplicando S en la primera relación y después usando la segunda relación, se tiene para xFm

(ST)(iBV(x))=S(iBW(Bx))=iBU(ABx).

Esta última relación y la definición de MatBU,BV(ST) nos muestra que

MatBU,BV(ST)=AB.

En otras palabras, la composición de transformaciones lineales se reduce a multiplicar sus matrices asociadas o de manera más formal

Teorema. Sean T:VW y S:WU transformaciones lineales entre espacios vectoriales de dimensión finita y sean BU,BV,BW bases de U,V,W, respectivamente. Entonces

MatBU,BV(ST)=MatBU,BW(S)MatBW,BV(T).

Cuando tenemos transformaciones lineales de un espacio vectorial V a sí mismo, y usamos la misma base B, el resultado anterior se puede escribir de una manera más sencilla.

Corolario. Sean T1,T2:VV transformaciones lineales en un espacio vectorial de dimensión finita V, y sea B una base de V. Entonces

MatB(T1T2)=MatB(T1)MatB(T2).

Más adelante…

En esta entrada comenzamos con una transformación lineal T:VW y bases ordenadas de de V y W para representar a T como una matriz. Así mismo, vimos cómo tras una elección de base podemos pensar a cualquier vector en términos de sus «coordenadas», usando a los coeficientes que permiten expresarlo (de manera única) como combinación lineal de elementos de la base. Las matrices y coordenadas que así obtenemos nos ayudarán mucho. Sin embargo, será fundamental entender qué es lo que sucede con estas representaciones cuando elegimos bases diferentes, y cómo podemos cambiar de ciertas coordenadas o matrices a otras cuando hacemos un cambio de base. Esto es lo que estudiaremos en las siguientes entradas.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que la relación «son isomorfos» para espacios vectoriales es una relación de equivalencia.
  • Muestra que la transformación iB dada en el teorema de clasificación de espacios vectoriales de dimensión finita en efecto es un isomorfismo.
  • Asegúrate de entender el último corolario.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»