Archivo de la etiqueta: espacio dual

Álgebra Lineal I: Ortogonalidad y transformación transpuesta

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya estudiamos la noción de espacio dual y la de ortogonalidad. También vimos cómo a partir de la ortogonalidad podemos definir subespacios como intersección de hiperplanos. Como veremos a continuación, la ortogonalidad también nos permite definir qué quiere decir que consideremos la «transformación transpuesta» de una transformación lineal.

Antes de comenzar, vale la pena recordar también que cada transformación lineal entre espacios de dimensión finita puede ser expresada mediante una matriz que depende de la elección de bases de los espacios vectoriales. Como tal vez te imaginarás, la transformación transpuesta tendrá como matriz a la matriz transpuesta de la transformación original.

Esta intuición nos dice que hay que tener cuidado. Supongamos que estamos trabajando sobre un campo F. Si tenemos espacios vectoriales V de dimensión n, W de dimensión m y una tranformación lineal T:VW, recordemos que, tras elegir bases, T está representada por una matriz A en Mm,n(F), es decir, con m filas y n columnas.

Pero la matriz transpuesta tA es de n filas y m columnas, así que típicamente no representará a una transformación de V a W, pues las dimensiones no necesariamente coinciden. Podríamos intentar construir una transformación de W a V para que las dimensiones coincidan, pero resulta que esto no es «tan natural», por razones en las que no profundizaremos.

Lo que sí resulta muy natural y fácil de definir es una transformación de W a V, lo cual tendrá sentido pues ya probamos que dimW=dimW y dimV=dimV, así que será representada por una matriz en Mn,m. Es un poco más difícil conceptualmente, pero las consecuencias matemáticas son más bonitas y útiles. Sin decir más, comenzamos con la teoría.

Definición y ejemplo de transformación transpuesta

Para definir «transformación transpuesta», le hacemos como sigue.

Definición. Sean V y W espacios vectoriales sobre un campo F y sea T:VW una transformación lineal. Definimos la transformación transpuesta de T, como la transformación tT:WV tal que a cada forma lineal l en W la manda a la forma lineal tT(l) en V para la cual (tT(l))(v)=l(T(v)).

Otra forma de escribir a la definición es mediante la notación de emparejamiento canónico: tT(l),v=l,T(v).

Veamos un ejemplo para entender mejor la definición.

Ejemplo. Considera a V=M2(R) y W=R2. Considera la transformación lineal T:VW dada por T(abcd)=(a+b,c+d).

La transformación tT va a mandar a una forma lineal l de W a una forma lineal tT(l) de V. Las formas lineales l en W se ven de la siguiente forma l(x,y)=rx+sy. La forma lineal tT(l) en V debe satisfacer que tT(l)=lT. En otras palabras, para cualquier matriz (abcd) se debe tener
(tT(l))(abcd)=l(a+b,c+d)=r(a+b)+s(c+d)=ra+rb+sc+sd.

Si tomamos la base canónica E11, E12, E21, E22 de V y la base canónica e1,e2 de W, observa que la transformación T tiene como matriz asociada a la matriz (11000011) (recuerda que se obtiene poniendo como columnas a los vectores coordenada de las imágenes de la base).

Por otro lado, los vectores de la base dual e1 y e2 «leen las coordenadas», de modo que e1(x,y)=x y e2(x,y)=y. Por lo que vimos arriba, (tT)(e1) es entonces la forma lineal a+b y (tT)(e2) es la forma lineal c+d. En términos de la base dual en V, estos son E11+E12 y E21+E22 respectivamente. De esta forma, la transformación tT tiene matriz asociada (10100101).

Nota que en el ejemplo la transformación transpuesta tiene como matriz a la matriz transpuesta de la transformación original. Esto es algo que queremos que pase siempre, y más abajo lo demostramos.

Propiedades básicas de transformación transpuesta

Observa que la definición no necesita que V y W sean de dimensión finita. A continuación enunciamos y probamos algunos resultados que se valen también en el contexto de dimensión infinita.

Teorema 1. Tomemos V,W,Z espacios vectoriales sobre un campo F y c en F. Sean T1,T2:VW transformaciones lineales. Sea T3:WZ una transformación lineal. Se cumple todo lo siguiente:

  1. tT1 es una transformación lineal.
  2. t(T1+cT2)=tT1+ctT2.
  3. t(T3T1)=tT1tT3.
  4. Si V=W y T1 es invertible, entonces tT1 también lo es y (tT1)1=t(T11).

Para tener un poco más de intuición, observa cómo estas propiedades son análogas a las de transposición para matrices.

Demostración. Las partes 1 y 2 se demuestran usando cuidadosamente las definiciones. Haremos la demostración de 1 y la demostración de 2 queda como tarea moral. Para probar 1, necesitamos probar que tT1:WV es lineal, así que tomemos l1, l2 en W y a un escalar en F. Tenemos que demostrar que tT1(l1+al2)=tT1(l1)+atT1(l2).

Ésta es una igualdad de formas lineales en V, y para mostrar su validez tenemos que mostrar que se vale en cada vV. Por un lado,
tT1(l1+al2)(v)=(l1+al2)(T1(v))=l1(T1(v))+al2(T1(v)).

Por otro lado,
(tT1(l1)+atT1(l2))(v)=tT1(l1)(v)+atT1(l2)(v)=l1(T1(v))+al2(T1(v)).

En ambos casos obtenemos el mismo resultado, así que tT1(l1+al2) y tT1(l1)+atT1(l2) son iguales, mostrando que tT1 es lineal.

Pasemos a la parte 3. La igualdad t(T3T1)=tT1tT3 es una igualdad de transformaciones de Z a V. Para verificar su veracidad, hay que ver que son iguales en cada elemento en su dominio. Tomemos entonces una forma lineal l en Z. Queremos verificar la veracidad de t(T3T1)(l)=(tT1tT3)(l), que es una igualdad de formas lineales en V, de modo que tenemos que verificarla para cada v en V. Por un lado,

t(T3T1)(l)(v)=l((T3T1)(v))=l(T3(T1(v))),

Por otro,
(tT1tT3)(l)(v)=(tT1(tT3(l)))(v)=(tT3(l))(T1(v))=l(T3(T1(v))).

En ambos casos obtenemos el mismo resultado.

Para la parte 4 basta notar que si V=W y T1 es invertible, entonces tiene una inversa S:VV, y por la parte 3 tenemos que tStT1=t(T1S)=tIdV=IdV,

mostrando que tT1 tiene inversa tS. Observa que estamos usando que la transpuesta de la transformación identidad es la identidad. Esto no lo hemos probado, pero lo puedes verificar como tarea moral.

◻

La matriz transpuesta es la matriz de la transformación transpuesta

Cuando estamos trabajando en espacios de dimensión finita, podemos mostrar que la matriz que le toca a la transformación transpuesta es precisamente la transpuesta de la matriz que le toca a la transformación original. Hacemos esto más preciso en el siguiente resultado.

Teorema 2. Sea T:VW una transformación lineal entre espacios de dimensión finita y B y B bases de V y W respectivamente. Si A es la matriz de T con respecto a B y B, entonces tA es la matriz de la transformación tT:WV con respecto a las bases duales B y B.

Demostración. Necesitamos definir algo de notación. Llamemos n=dimV, m=dimW, B={b1,,bn}, B={c1,,cm} y A=[aij]. Recordemos que la matriz A está hecha por las coordenadas de las imágenes de la base B en términos de la base B, es decir, que por definición tenemos que para toda j=1,,n: (1)T(bj)=i=1maijci.

La transformación tT:WV va de un espacio de dimensión m a uno de dimensión n, así que en las bases B y B se puede expresar como una matriz de n filas y m columnas. Afirmamos que ésta es la matriz tA. Para ello, basta mostrar que las coordenadas de las imágenes de la base B en términos de la base B están en las filas de A, es decir, que para todo i=1,,m tenemos que tT(ci)=j=1naijbj.

La anterior es una igualdad de formas lineales en V, de modo que para ser cierta tiene que ser cierta evaluada en todo v en V. Pero por linealidad, basta que sea cierta para todo bj en la base B. Por un lado, usando (1),

tT(ci)(bj)=ci(T(bj))=ci(k=1makjci)=k=1makjci(ck)=aij,

en donde estamos usando que por definición de base dual ci(ci)=1 y cj(ci)=0 si ij. Por otro lado,

(k=1naikbk)(bj)=k=1naikbk(bj)=aij,

en donde estamos usando linealidad y la definición de base dual para B.

Con esto concluimos la igualdad tT(ci)=j=1naijbj, que muestra que podemos leer las coordenadas de las evaluaciones de tT en B en términos de la base B en las filas de A, por lo tanto podemos leerlas en las columnas de tA. Esto muestra que tA es la matriz correspondiente a esta transformación en términos de las bases duales.

◻

Kernel e imagen de la transformación transpuesta

Finalmente, el siguiente resultado nos habla acerca de cómo están relacionadas las transformaciones transpuestas y la ortogonalidad.

Teorema 3. Sea T:VW una transformación lineal entre espacios vectoriales de dimensión finita. Entonces

ker(tT)=(Im(T)),ker(T)=(Im(tT))

y

Im(tT)=(ker(T))Im(T)=(ker(tT)).

Demostración. Demostraremos la igualdad ker(tT)=(Im(T)). Notemos que lker(tT) si y sólo si (tT)(l)=0, lo cual sucede si y sólo si lT=0. Pero esto último sucede si y sólo si para todo v en V se tiene que l(T(v))=0, que en otras palabras quiere decir que l(w)=0 para todo w en Im(T). En resumen, lker(tT) pasa si y sólo si l se anula en todo Im(T) es decir, si y sólo si está en (Im(T)).

El resto de las igualdades se demuestran de manera análoga, o alternativamente, usando la bidualidad canónica. Es un buen ejercicio hacerlo y se deja como tarea moral.

◻

Más adelante…

En esta entrada enunciamos un resultado muy importante: dada una transformación lineal T, su transformación transpuesta tiene como matriz asociada la matriz transpuesta de la matriz asociada de T. Este resultado nos permitirá calcular fácilmente la transpuesta de una transformación, como veremos en la entrada de problemas de este tema.

En la siguiente entrada del blog hablaremos por primera vez de formas bilineales: vamos a ver cómo nuestra discusión de transformaciones lineales facilitará mucho abordar este tema.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que la transpuesta de la transformación lineal T:R2R2 dada por T(x,y)=T(7x+8y,6x+7y) es invertible. Encuentra a su transpuesta y a la inversa de la transpuesta explícitamente.
  • Muestra la parte 2 del Teorema 1.
  • Muestra que la transpuesta de la transformación identidad es la identidad.
  • Demuestra el resto de las igualdades del Teorema 3.
  • Encuentra la transpuesta de la transformación traza que va de Mn(R) a los reales. Recuerda que esta transformación manda a una matriz A=[aij] a la suma de sus entradas en la diagonal principal, es decir Aa11+a22++ann.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de ortogonalidad, ecuaciones e hiperplanos

Por Ayax Calderón

Introducción

En esta entrada ejercitaremos los conceptos introducidos recientemente. Abordamos los temas de espacio ortogonal e hiperplanos. Para ello, resolveremos problemas de ortogonalidad relacionados con encontrar una base para el espacio ortogonal y de escribir subespacios en términos de ecuaciones e intersecciones de hiperplanos.

Problemas resueltos de espacio ortogonal

Problema 1. Sea S={x3+x,x2+x,x3+x2+1}R3[x].
Describe S dando una base de este espacio.

Solución. Una forma lineal l sobre R3[x] es de la forma

l(a0+a1x+a2x2+a3x3)=aa0+ba1+ca2+da3

para algunos a,b,c,dR, pues basta decidir quiénes son a=l(1), b=l(x), c=l(x2) y d=l(x3).

La condición lS es equivalente a

l(x3+x)=l(x2+x)=l(x3+x2+1)=0.

Esto es
l(x3+x)=b+d=0l(x2+x)=b+c=0l(x3+x2+1)=a+cd=0.

La matriz asociada al sistema es

A=(010101101011)

y su forma escalonada reducida es

Ared=(100001010011).

Así, d es variable libre y a=0b=dc=d.

De aquí, el conjunto de soluciones del sistema es
{(0,u,u,u):uR}.

Las correspondientes formas lineales son lu(a0+a1x+a2x2+a3x3)=u(a1+a2+a3).

Este es un subespacio de dimensión 1, así que para determinar una base para S, basta con elegir una de estas formas lineales con u0, por ejemplo, para u=1 tenemos
l1(ao+a1x+a2x2+a3x3)=a1+a2+a3.

Problema 2. Sea V un espacio vectorial sobre un campo F, sea V su espacio dual y tomemos subconjuntos S,S1,S2V tales que S1S2. Prueba lo siguiente.

  1. S2S1.
  2. S(S).

Solución.

  1. Sea lS2. Por definición l(s)=0 para toda sS2.
    Luego, si sS1, entonces sS2 y así l(s)=0. Por consiguiente lS1. Concluimos S2S1.
  2. Sea sS. Para cualquier lS se cumple que l(s)=0 y así s(S)

◻

Observación. El problema anterior también es cierto si suponemos que S,S1,S2V tales que S1S2 y la prueba es idéntica a la anterior.

Observación. Por muy tentador que sea pensar que la igualdad se da en el inciso 2 del problema anterior, esto es totalmente falso: (S) es un subespacio de V (o de V), mientras que no hay razón para que S lo sea, pues este es solamente un subconjunto arbitrario de V (o V). Como vimos en una entrada anterior, la igualdad se da si S es un subespacio de V (o de V) cuando V es un subespacio de dimensión finita.

Problemas resueltos de ecuaciones lineales y de hiperplanos

Veamos ahora problemas de ortogonalidad relacionados con encontrar expresiones para un subespacio en términos de ecuaciones lineales y de hiperplanos.

Problema 1. Sea W el subespacio de R4 generado por los vectores

v1=(1,1,0,1)
v2=(1,2,2,1).

Encuentra ecuaciones lineales en R4 cuyo conjunto solución sea W.

Solución. Necesitamos encontrar una base para W.
Recordemos que W consiste de todas las formas lineales

l(x,y,z,t)=ax+by+cz+dt

tales que l(v1)=l(v2)=0, es decir
a+b+d=0a+2b+2c+d=0.

La matriz asociada al sistema anterior es

A=(11011221)

y por medio de reducción gaussiana llegamos a que su forma reducida escalonada es

Ared=(10210120).

De aquí, c y d son variables libres y a y b son variables pivote determinadas por
a=2cdb=2c.

Por lo tanto,
l(x,y,z,t)=(2cd)x2cy+cz+dt=c(2x2y+z)+d(x+t).

Así, deducimos que una base para W está dada por

l1(x,y,z,t)=2x2y+z y l2(x,y,z,t)=x+t

y por consiguiente W={vR4:l1(v)=l2(v)=0}, de donde l1(v)=0,l2(v)=0 son ecuaciones cuyo conjunto solución es W.

Problema 2. Considera el espacio vectorial V=R3[x]. Escribe el subespacio vectorial generado por p(x)=12x2 y q(x)=x+x2x3 como la intersección de dos hiperplanos linealmente independientes en V.

Solución. Sea B={1,x,x2,x3}={e1,e2,e3,e4} la base canónica de V.

Entonces

p(x)=e12e3q(x)=e2+e3e4.

Escribir W=span(p(x),q(x)) como intersección de dos hiperplanos es equivalente a encontrar dos ecuaciones que definan a W, digamos l1(v)=l2(v)=0 pues entonces W=H1H2, donde H1=ker(l1) y H2=ker(l2).

Así que sólo necesitamos encontrar una base l1,l2 de W.

Recordemos que una forma lineal en R3[x] es de la forma l1(x1e1+x2e2+x3e3+x4e4)=ax1+bx2+cx3+dx4

para algunos a,b,c,dR.

Esta forma lineal l pertenece a W si y sólo si l(p(x))=l(q(x))=0, o bien

a2c=0b+cd=0.

Podemos fijar c y d libremente y despejar a y b como sigue:

a=2cb=c+d.

Por consiguiente

l(x1e1+x2e2+x3e3+x4e4)=2cx1+(c+d)x2+cx3+dx4=c2x1x2+x3)+d(x2+x4).

Así deducimos que una base l1,l2 de W está dada por

l1(x1e1+x2e2+x3e3+x4e4)=2x1x2+x3l2(x1e1+x2e2+x3e3+x4e4)=x2+x4.

y así W=H1H2, donde

H1=ker(l1)={a+bx+cx2+dx3V:2ab+c=0}H2=ker(l2)={a+bx+cx2+dx3V:b+d=0}.


Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Ortogonalidad, hiperplanos y ecuaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de formas lineales, del espacio dual y de ortogonalidad. Con la teoría que hemos desarrollado en esas entradas, podemos cosechar uno de los hechos más importantes para espacios vectoriales de dimensión finita n: todos los subespacios se pueden obtener a partir de intersectar hiperplanos, es decir, subespacios de dimensión n1. El objetivo de esta entrada es dar las definiciones necesarias para enunciar y demostrar este resultado formalmente.

Hiperplanos

Antes de demostrar el resultado mencionado en la introducción, tomaremos un poco de intuición geométrica de R3.

En R3 tenemos sólo un subespacio de dimensión 0, que es {(0,0,0)}, un punto. Para obtener un subespacio de dimensión 1, tenemos que tomar un vector v0 y considerar todos los vectores rv con r en R. Esto corresponde geométricamente a una línea por el origen, con la misma dirección que v. En otras palabras, los subespacios de dimensión 1 son líneas por el origen.

¿Quiénes son los subespacios de dimensión 2? Debemos tomar dos vectores linealmente independientes u y v y considerar todas las combinaciones lineales au+bv de ellos. Es más o menos fácil convencerse de que obtendremos al plano que pasa por u, v y el (0,0,0). Es decir, los subespacios de dimensión 2 de R3 son planos por el origen.

Esto motiva la siguiente definición.

Definición 1. Sea V un espacio vectorial de dimensión finita n. Un hiperplano de V es un subespacio de dimensión n1.

Ejemplo. El subespacio U=R5[x] de V=R6[x] es un hiperplano. Esto es ya que U es de dimesión 6 y V es de dimensión 7. Sin embargo, aunque U también es un subespacio de W=R7[x], no se cumple que U sea hiperplano de W pues W es de dimensión 8 y 681.

Las matrices simétricas de M2(R) forman un subespacio S de dimensión 3 de M2(R), pues son de la forma (abbc). De esta forma, S es un hiperplano de M2(R). Sin embargo, el conjunto de matrices simétricas de Mn(R) no es un hiperplano ni para n=1, ni para n3.

Los hiperplanos nos pueden ayudar a obtener subespacios. De hecho, veremos que en el caso de dimensión finita nos ayudan a obtener a todos los subespacios. Para continuar construyendo la intuición, notemos que en R3 los hiperplanos son simplemente los planos por el origen y que:

  • Podemos obtener a cualquier plano por el origen como intersección de planos por el origen: simplemente lo tomamos a él mismo.
  • Podemos obtener a cualquier línea por el origen como la intersección de dos planos distintos por el origen que la contengan. Por ejemplo, el eje z es la intersección de los planos xz y yz. En otras palabras: todo subespacio de dimensión 1 de R3 se puede obtener como la intersección de dos hiperplanos de R3.
  • A {0} lo podemos expresar como la intersección de los planos xy, yz y xz, osea, al único espacio de dimensión cero lo podemos expresar como intersección de 3 hiperplanos.

Ya obtenida la intuición, lo que veremos a continuación es que el resultado anterior en realidad es un fenómeno que sucede en cualquier espacio vectorial de dimensión finita. Así, nos enfocaremos en entender las definiciones del siguiente teorema, y demostrarlo.

Teorema. Sea V un espacio vectorial de dimensión finita n.

  • Todo subespacio W de V de dimensión m es la intersección de nm hiperplanos de V linealmente independientes.
  • Toda intersección de nm hiperplanos de V linealmente independientes es un subespacio vectorial de dimensión m.

Los hiperplanos son subespacio y la definición de independencia lineal que tenemos es para vectores. Pero el teorema anterior habla de «hiperplanos linealmente independientes». ¿A qué se refiere esto? Como veremos más adelante, a cada hiperplano se le puede asignar de manera natural un elemento del espacio dual de V.

Recordatorio de espacio ortogonal

En la entrada anterior mostramos el siguiente resultado:

Teorema (teorema de dualidad). Sea V un espacio vectorial de dimensión finita sobre F y W un subespacio de V (o de V). Entonces dimW+dimW=dimV.

Además, obtuvimos como corolario lo siguiente:

Corolario. Si V es un espacio vectorial de dimensión finita sobre un campo F y W un subespacio de V (o de V), entonces (W)=W.

Usaremos estos resultados para dar una definición alternativa de hiperplanos, para entender a los subespacios de dimensión n1 y para mostrar el teorema principal de esta entrada.

Subespacios de dimensión n1 y definición alternativa de hiperplanos

Tomemos un espacio vectorial V de dimensión finita n. Un caso especial, pero muy importante, del teorema de dualidad es cuando W es un subespacio de V de dimensión 1, es decir, cuando W está generado por una forma lineal l0. En este caso, W es un subespacio de V y por el teorema de dualidad, es de dimensión n1.

De manera inversa, si W es un subespacio de V de dimensión n1, por el teorema de dualidad tenemos que W es de dimensión 1, así que hay una forma lineal l0 que lo genera. Por el corolario, W=(W), que en otras palabras quiere decir que W={vV:l(v)=0}. En resumen:

Proposición. Un subespacio W de un espacio de dimensión finita d tiene dimensión d1 si y sólo si es el kernel de una forma lineal l0 de V.

Ejemplo 1. Considera la forma lineal ev0 en el espacio vectorial V=Cn[x] de polinomios con coeficientes complejos y grado a lo más n. Los polinomios p tales que ev0(p)=0 son exactamente aquellos cuyo término libre es 0. Este es un subespacio vectorial de V de dimensión n=dimV1, pues una base para él son los polinomios x,x2,,xn.

Problema. Considera el espacio vectorial V=M2,3(R). Considera W el subconjunto de matrices cuya suma de entradas en la primer columna es igual a la suma de entradas de la segunda columna. Muestra que W es un subespacio de dimensión 5 y escríbelo como el kernel de una forma lineal.

Solución. Mostrar que W es un subespacio de V es sencillo y se queda como tarea moral. Se tiene que W no puede ser igual a todo V pues, por ejemplo, la matriz (100000) no está en W, así que dimW5.

Las matrices (110000), (111000), (110001), (100010), (010100) son linealmente independientes y están en W, así que dimW5, y junto con el párrafo anterior concluimos que dimW=5.

Finalmente, tomemos la forma lineal l(abcdef)=a+dbe. Tenemos que una matriz está en el kernel de l si y sólo si a+dbe=0, si y sólo si a+d=b+e, es decir, si y sólo si las entradas de la primer columna tienen la misma suma que las de la segunda. Así, W=kerl.

◻

La proposición anterior nos permite dar una definición alternativa de hiperplano y hablar de hiperplanos linealmente independientes.

Definición 2. Sea V un espacio vectorial. Un hiperplano es el kernel de una forma lineal l0 en V. Una familia de hiperplanos es linealmente independiente si sus formas lineales correspondientes son linealmente independientes en V.

Observa además que la definición anterior también sirve para espacios vectoriales de dimensión infinita, pues nunca hace referencia a la dimensión que debe tener un hiperplano.

Ejemplo 2. El conjunto de funciones continuas f en el intervalo [0,1] tales que 01f(x)dx=0 son un subespacio W de C[0,1]. Este subespacio es un hiperplano pues es el kernel de la forma lineal I tal que I(f)=01f(x)dx.

◻

No mencionaremos más de espacios de dimensión infinita en esta entrada.

Escribiendo subespacios como intersección de hiperplanos

Ya podemos entender el teorema principal de esta entrada y demostrarlo. Lo enunciamos nuevamente por conveniencia.

Teorema 2. Sea V un espacio vectorial de dimensión finita n.

  • Todo subespacio W de V de dimensión m es la intersección de nm hiperplanos de V linealmente independientes.
  • Toda intersección de nm hiperplanos de V linealmente independientes es un subespacio vectorial de dimensión m.

Demostración. Tomemos un espacio vectorial V de dimensión finita n y un subespacio W de dimensión m. Por el teorema de dualidad, la dimensión de dimW es nm. Tomemos una base B={l1,l2,,lnm} de W. Por el corolario al teorema de dualidad, podemos expresar a W como W=(W)={vV:l1(v)==lnm(v)=0}.

Si definimos Li={vV:li(v)=0}, por la proposición de la sección anterior tenemos que cada Li es un hiperplano de V. Además, W=L1Lnm. Como los li son linealmente independientes, con esto logramos expresar a W como intersección de nm hiperplanos linealmente independientes.

Probemos ahora la segunda parte de la proposición. Tomemos el conjunto S={l1,,lnm} de formas linealmente independientes que definen a los hiperplanos. Un vector v está en la intersección de todos estos hiperplanos si y sólo si l1(v)==lnm(v)=0, si y sólo si está en S=span(S). Es decir, la intersección de los hiperplanos es precisamente el subespacio span(S). Como S es linealmente independiente, tenemos que span(S) es de dimensión nm, de modo que por el teorema de dualidad, dimspan(S)=n(nm)=m. Esto muestra lo que queremos.

◻

Algunos problemas prácticos

Si tenemos un espacio V de dimensión finita n, un subespacio W de dimensión finita m y queremos encontrar de manera práctica la expresión de W como intersección de hiperplanos de V, podemos hacer el siguiente procedimiento:

  • Determinamos una base l1,,lnm para W (la cual consiste de formas lineales de V). Esto lo podemos hacer con los pasos que mencionamos en la entrada anterior.
  • Definimos Li={vV:li(v)=0}.
  • Tendremos que W es la intersección de los Li.

Una última observación es que cada Li está definido por una ecuación lineal. Esto nos permite poner a cualquier subespacio como el conjunto solución a un sistema lineal. Esto lo cual podemos ver de forma práctica de la siguiente manera:

  • Tomamos una base e1,,en de V.
  • Tomemos un vector v=a1e1++anen que queremos determinar si está en W. Para ello, debe estar en cada Li.
  • Cada Li está definido mediante la ecuación li(v)=0 de modo que si v está en Li sus coordenadas a1,,an en la base e1,,en deben satisfacer la ecuación lineal li(e1)a1++li(en)an=0.
  • De esta forma, los vectores v en W son aquellos cuyas coordenadas en la base e1,,en satisfacen el sistema de ecuaciones obtenido de las ecuaciones lineales para cada i del punto anterior.

Veremos algunos ejemplos de estos procedimientos en la siguiente entrada.

La receta anterior nos permite concluir la siguiente variante del teorema de esta entrada, escrito en términos de ecuaciones lineales.

Teorema. Sea V un espacio vectorial de dimensión finita n y B una base de V.

  • Un subespacio W de dimensión m se puede definir mediante un sistema de ecuaciones lineales independientes que deben satisfacer las coordenadas de los vectores de W escritos en la base B.
  • Aquellos vectores cuyas coordenadas en la base B satisfacen un sistema de ecuaciones lineales independientes homogéneo, forman un subespacio de V de dimensión nm.

La moraleja de esta entrada es que podemos pensar que los sistemas de ecuaciones, las intersecciones de hiperplanos y los subespacios de un espacio vectorial de dimensión finita son «prácticamente lo mismo».

Más adelante…

A lo largo de esta entrada enunciamos las definiciones necesarias para llegar al teorema que mencionamos al inicio: para un espacio vectorial de dimension finita n, todos los subespacios se pueden obtener a partir de intersectar hiperplanos, es decir, subespacios de dimensión n1.

En la siguiente entrada utilizaremos este resultado para resolver algunos ejercicios y veremos en acción este importante teorema.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Considera el plano P en R3 que pasa por el origen y por los vectores (1,1,1), (0,2,0). Encuentra reales a,b,c tales que P={(x,y,z):ax+by+cz=0}.
  • En todos los ejemplos en los que se menciona que algo es subespacio, verifica que en efecto lo sea. En los que se menciona que un conjunto es base, también verifica esto.
  • Encuentra una base para el espacio de polinomios p en Mn(C) tales que ev(1)(p)=0.
  • Sea W el subconjunto de matrices de V:=Mn(R) tal que la sumas de las entradas de todas las filas son iguales. Muestra que W es un subespacio de V. Determina la dimensión de W y exprésalo como intersección de hiperplanos linealmente independientes.
  • ¿Qué sucede cuando intersectas hiperplanos que no corresponden a formas linealmente independientes? Más concretamente, supongamos que tienes formas lineales l1,,lm de Fn. Toma B={e1,,en} la base canónica de Fn. Considera la matriz A=[li(ej)]. ¿Qué puedes decir de la dimensión de la intersección de los hiperplanos correspondientes a los li en términos del rango de la matriz A?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Ortogonalidad y espacio ortogonal

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de formas lineales y del espacio dual. Vimos que las formas coordenadas correspondientes a una base forman bases del espacio dual. También hicimos ejemplos prácticos de cómo encontrar bases duales y cómo hacer cambios de base en el espacio dual. Usaremos la teoría que hemos desarrollado hasta el momento para estudiar los conceptos de ortogonalidad y espacio ortogonal.

Antes de comenzar, es importante dejar un consejo. Quizás a estas alturas asocias a la ortogonalidad con la perpendicularidad. Esta intuición puede ayudar un poco más adelante, pero por el momento es recomendable que dejes esa intuición de lado. El problema es que la «perpendicularidad» habla de parejas de segmentos, parejas de lineas, o parejas de vectores. Sin embargo, las nociones de ortogonalidad que estudiaremos ahora hablan de cuándo una forma lineal l y un vector v son ortogonales, por lo cual es mejor pensarlo por el momento en la ortogonalidad como un concepto nuevo.

Definiciones de ortogonalidad y espacio ortogonal

En esta sección, V es un espacio vectorial sobre un campo F.

Definición. Tomemos una forma lineal l de V y v un vector en V. Decimos que l y v son ortogonales si l,v=0.

De manera equivalente, l y v son ortogonales si l(v)=0, o si v está en el kernel de l.

Ejemplo 1. Consideremos la forma lineal l de los polinomios en R2[x] que a un polinomio lo manda a su evaluación en 2, es decir, tal que l(p)=p(2). Consideremos al polinomio p(x)=x23x+2. Tenemos que l(p)=p(2)=2232+2=46+2=0, de modo que l,p=0, así que l y p son ortogonales. Por otro lado, si q(x)=x+1, tenemos que l,q=l(q)=3, de modo que l y q no son ortogonales.

Ejemplo 2. Consideremos la forma lineal l(x,y,z)=2x+3yz de R3. Un vector que es ortogonal con l es el vector v=(0,0,0). Un vector un poco más interesante es el vector (1,1,5) pues l(1,1,5)=2+35=0.

El vector (1,1,5) también es ortogonal a la forma lineal m(x,y,z)=x+y2z5, como puedes verificar.

A partir de la noción anterior, nos podemos hacer dos preguntas. Dado un conjunto de vectores, ¿quiénes son todas las formas lineales ortogonales a todos ellos? Dado un conjunto de formas lineales, ¿quiénes son todos los vectores ortogonales a todas ellas? Esta noción queda capturada en la siguiente definición.

Definición. Para S un subconjunto de V, definimos al ortogonal de S como el conjunto de formas lineales de V ortogonales a todos los elementos de S. En símbolos, S:={lV:l,v=0vS}.

Tenemos una definición dual para subconjuntos de V.

Definición. Para S un subconjunto de V, el ortogonal de S es el conjunto de vectores de V ortogonales a todos los elementos de S. En símbolos, S={vV:l,v=0lS}.

Observa que estamos definiendo al ortogonal para subconjuntos de V (y de V), es decir, que S no tiene por qué ser un subespacio vectorial de V. Por otro lado, sea o no S un subespacio, siempre tenemos que S es un subespacio. Por ejemplo, si S es un subconjunto de V y l1, l2 son formas lineales que se anulan en todos los elementos de S, entonces para cualquier escalar c también tenemos que l1+cl2 se anula en todos los elementos de S.

Ejercicio. Tomemos S al subconjunto de matrices diagonales con entradas enteras en M2(R). ¿Quién es S? Ojo: Aquí S no es un subespacio.

Solución. Sabemos que para cualquier forma lineal l de M2(R) existen reales p, q, r, s tales que l(abcd)=pa+qb+rc+sd.

Si l está en S, se tiene que anular en particular en las matrices A=(1000) y B=(0001), pues ambas están en S. En otras palabras, 0=l(A)=p y 0=l(B)=s. Así, la forma lineal tiene que verse como sigue:

l(abcd)=qb+rc.

Y en efecto, todas las formas lineales de esta forma se anulan en cualquier matriz diagonal con entradas enteras, pues en esas matrices b=c=0.

Encontrar el espacio ortogonal de manera práctica

Ya mencionamos que S no necesariamente tiene que ser un subespacio para definir S. Sin embargo, usando la linealidad podemos mostrar que, para cualquiera de las dos definiciones, basta estudiar qué sucede con subespacios vectoriales. La demostración de la siguiente proposición es sencilla, y se deja como tarea moral.

Proposición 1. Para S un subconjunto de V (o de V), tenemos que S=span(S).

Esta proposición es particularmente importante pues en espacios vectoriales de dimensión finita nos permite reducir el problema de encontrar ortogonales para subconjuntos de vectores (o de formas lineales), a simplemente resolver un sistema de ecuaciones. El procedimiento que hacemos es el siguiente (lo enunciamos para vectores, para formas lineales es análogo):

  • Tomamos una base B={b1,,bn} de V.
  • Tomamos un subconjunto S de vectores de V.
  • Usamos la Proposición 1 para argumentar que S=span(S).
  • Consideramos una base C={c1,,cm} de span(S) y notamos que una forma lineal l se anula en todo span(S) si y sólo si se anula en cada elemento de C.
  • Escribimos a cada ci como combinación lineal de elementos de B, digamos ci=ai1b1++ainbn.
  • Cada condición l(ci)=0 se transforma en la ecuación lineal ai1l(b1)++ainl(bn)=l(ci)=0 en las variables l(b1),l(b2),,l(bn) igualada a 0, de forma que las m condiciones dan un sistema de ecuaciones homogéneo.
  • Podemos resolver este sistema con reducción gaussiana para encontrar todas las soluciones, aunque basta con encontrar a las soluciones fundamentales, pues justo forman la base de span(S)=S.

Veamos este método en acción.

Ejemplo de encontrar el espacio ortogonal de manera práctica

Ejercicio. Considera el subconjunto S de R3 cuyos elementos son (2,3,5), (1,0,1), (3,3,6), (3,2,5). Determina S.

Solución. Para encontrar S, basta encontrar span(S).

Lo primero que notamos es que todos los vectores de S satisfacen que la suma de sus entradas es 0, así que todos los vectores en span(S) también, de modo que span(S) no es todo R3, así que es de dimensión a lo más 2. Notamos también que (1,0,1) y (2,3,5) son linealmente independientes, así que span(S) es de dimensión al menos 2, de modo que es de dimensión exactamente 2 y por lo tanto (1,0,1) y (2,3,5) es una base.

Para cualquier forma lineal l en R3 existen reales a, b, c tales que l(x,y,z)=ax+by+cz. Para encontrar aquellas formas lineales que se anulan en span(S), basta encontrar aquellas que se anulan en la base, es decir, en (1,0,1) y (2,3,5). De esta forma, necesitamos resolver el sistema de ecuaciones homogéneo a+c=02a+3b5c=0.

Para resolver este sistema, aplicamos reducción gaussiana:

(101235)(101033)(101011)

La variable libre es c y las pivote son a y b. Obtenemos a=c y b=c, de donde las soluciones se ven de la forma (c,c,c). Concluimos entonces que S son las formas lineales tales que l(x,y,z)=c(x+y+z) para algún real c.

En el ejemplo anterior, la dimensiones de span(S) y de span(S) suman 3, que es la dimensión de R3. Esto no es una casualidad, como veremos en la siguiente sección.

El teorema de dualidad

Las dimensiones de un subespacio de un espacio vectorial de dimensión finita, y de su espacio ortogonal, están relacionadas con la dimensión del espacio. Este es uno de los teoremas más importantes de dualidad.

Teorema. Sea V un espacio vectorial de dimensión finita sobre F y W un subespacio de V (o de V). Entonces dimW+dimW=dimV.

Demostración. Hagamos primero el caso en el que W es un subespacio de V. Supongamos que dimV=n y que dimW=m. Como W es subespacio, tenemos que mn. Tenemos que mostrar que dimW=nm, así que basta exhibir una base de dimW con nm formas lineales.

Para ello, tomemos e1,e2,,em una base de W y tomemos elementos em+1,,en que la completan a una base de V. Afirmamos que la base de W que estamos buscando consiste de las formas coordenadas em+1,,en correspondientes a em+1,,en.

Por un lado, estas formas coordenadas son linealmente independientes, pues son un subconjunto de la base e1,,en de V. Por otro lado, si tenemos a una forma lineal l de V, habíamos mostrado que la podemos expresar de la forma l=i=1nl,eiei, de modo que si l se anula en todo W, en particular se anula en los vectores e1,,em, por lo que l=i=m+1nl,eiei, lo cual exhibe a l como combinación lineal de los elementos em+1,,en. De esta forma, este subconjunto de formas lineales es linealmente independiente y genera a W, que era justo lo que necesitábamos probar.

Ahora hagamos el caso en el que W es un subespacio de V. Podríamos hacer un argumento análogo al anterior, pero daremos una prueba alternativa que usa la bidualidad canónica ι:VV. La igualdad l,v=0 es equivalente a ι(v),l=0. De esta forma, v está en W si y sólo si ι(v)V se anula en todo W. Como ι es isomorfismo y el espacio de los gV que se anulan en W tiene dimensión dimVdimW=dimVdimW (por la primer parte del teorema), concluimos entonces que dimW=dimVdimW, lo cual prueba la otra parte del teorema.

◻

Problema. Sea W el subespacio de matrices simétricas de M3(R) ¿Cuál es la dimensión de W?

Solución. Se puede mostrar que E11, E22, E33, E12+E21, E23+E32, E13+E31 forman una base para W. De esta forma, W tiene dimensión 6. Por el Teorema 1, tenemos que dimW=dimM3(R)6=96=3.

Aplicar dos veces ortogonalidad en subespacios

Una consecuencia importante del teorema anterior es que aplicarle la operación «espacio ortogonal» a un subespacio de un espacio de dimensión finita nos regresa al inicio. Más formalmente:

Corolario. Si V es un espacio vectorial de dimensión finita sobre un campo F y W un subespacio de V (o de V), entonces (W)=W.

Demostración. Haremos la prueba para cuando W es subespacio de V. La otra es análoga y se deja como tarea moral. Lo primero que vamos a mostrar es que W(W). Tomemos w en W. Tenemos que mostrar que l(w)=0 para cualquier l en W. Por definición, un l en W se anula en todo elemento de W, así que se anula particularmente en w, como queremos.

Como W y (W) son espacios vectoriales, tenemos que W es subespacio de (W). Por el teorema de dualidad, tenemos que dimW=dimVdimW. Usando esto y de nuevo el teorema de dualidad, tenemos que dim(W)=dimVdimW=dimW.

De esta forma, W es un subespacio de dim(W) de su misma dimensión, y por lo tanto W=(W).

◻

Hay que tener particular cuidado en usar el corolario anterior. Solamente se puede garantizar su validez cuando W es un subespacio de V, y cuando V es de dimensión finita. En efecto, si S es simplemente un subconjunto de V y no es un subespacio, entonces la igualdad S=(S) es imposible, pues al lado derecho tenemos un subespacio de V y al izquierdo no.

Más adelante…

En esta entrada hablamos de ortogonalidad y de espacios ortogonales como si fueran un concepto nuevo, dejando de lado, al menos por el momento, nuestras ideas previas de asociar ortogonalidad con perpendicularidad. También vimos cómo encontrar un espacio ortogonal de manera práctica y hablamos de un teorema muy importante: el teorema de la dualidad.

Lo que sigue es hablar de cómo la noción de ortogonalidad nos permite estudiar sistemas de ecuaciones e hiperplanos. En la siguiente entrada estudiaremos estos conceptos.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra la proposición enunciada en la entrada.
  • Sea S el subespacio de matrices diagonales en Mn(R). ¿Cuál es la dimensión de S?
  • Considera R3[x], el espacio vectorial de polinomios con coeficientes reales y grado a lo más 3. Considera las formas lineales ev2 y ev3 que evalúan a un polinomio en 2 y en 3 respectivamente. ¿Quién es el espacio ortogonal de {ev2,ev3}?
  • Prueba la segunda parte del teorema de dualidad con un argumento análogo al que usamos para probar la primer parte.
  • Prueba el corolario para cuando W es subespacio de V.
  • Verifica que las matrices propuestas en el último ejercicio en efecto forman una base para el subespacio de matrices simétricas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Bases duales, recetas y una matriz invertible

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior definimos el espacio dual de un espacio vectorial V. Así mismo, definimos las formas coordenadas, que son formas lineales asociadas a una base B de V. Lo que hace la i-ésima forma coordenada en un vector v es «leer» el i-ésimo coeficiente de v expresado en la base B. Nos gustaría ver que estas formas coordenadas conforman bases del espacio dual.

Más concretamente, el objetivo de esta entrada es mostrar el teorema que enunciamos al final de la entrada anterior, hablar de problemas prácticos de bases duales y de mostrar un resultado interesante que relaciona bases, bases duales y la invertibilidad de una matriz.

Pequeño recordatorio

Como recordatorio, dada una base B={e1,,en} de un espacio vectorial V de dimensión finita n, podemos construir n formas coordenadas e1,,en que quedan totalmente determinadas por lo que le hacen a los elementos de B y esto es, por definición, lo siguiente:

ei(ej)={1 si i=j,0 si ij.

Recordemos también que dado un vector v en V podíamos construir a la forma lineal «evaluar en v», que era la forma evv:VF dada por evv(f)=f(v). Como manda elementos de V a F, entonces pertenece a V. A partir de esta definición, construimos la bidualidad canónica ι:VV que manda v a evv.

Finalmente, recordemos que dada una forma lineal l y un vector v, usamos la notación l,v=l(v), y que esta notación es lineal en cada una de sus entradas. Todo esto lo puedes revisar a detalle en la entrada anterior.

El teorema de bases duales

El resultado que enunciamos previamente y que probaremos ahora es el siguiente.

Teorema. Sea V un espacio vectorial de dimensión finita n y B={e1,,en} una base de V. Entonces el conjunto de formas coordenadas B={e1,,en} es una base de V. En particular, V es de dimensión finita n. Además, la bidualidad canónica ι:VV es un isomorfismo de espacios vectoriales.

Antes de comenzar, convéncete de que cada una de las ei son formas lineales, es decir, transformaciones lineales de V a F.

Demostración. Veremos que B={e1,,en} es un conjunto linealmente independiente y que genera a V. Veamos lo primero. Tomemos una combinación lineal igual a cero, z:=α1e1+α2e2++αnen=0. Para cada i=1,2,,n, podemos evaluar la forma lineal z en ei.

Por un lado, z(ei)=0, pues estamos suponiendo que la combinación lineal de ei’s es (la forma lineal) cero. Por otro lado, analizando término a término y usando que los ei son la base dual, tenemos que si ij entonces ej(ei) es cero, y si i=j, es 1.

Así que el único término que queda es αiei(ei)=αi. Juntando ambas observaciones, αi=z(ei)=0, de modo que todos los coeficientes de la combinación lineal son cero. Asi, B es linealmente independiente.

Ahora veremos que B genera a V. Tomemos una forma lineal arbitraria l, es decir, un elemento en V. Al evaluarla en e1,e2,,en obtenemos escalares l,e1,l,e2,,l,en. Afirmamos que estos son los coeficientes que nos ayudarán a poner a l como combinación lineal de elementos de B. En efecto, para cualquier vector v tenemos que

(i=1nl,eiei)(v)=i=1nl,eiei,v=i=1nl,ei,vei=l,i=1nei,vei=l,v=l(v).

La primer igualdad es por la definición de suma de transformaciones lineales. En la segunda usamos la linealidad de la segunda entrada para meter el escalar ei,v. La siguiente es de nuevo por la linealidad de la segunda entrada. En la penúltima igualdad usamos que justo ei,v es el coeficiente que acompaña a ei cuando escribimos a v con la base B. Esto muestra que B genera a V.

Así, B es base de V. Como B tiene n elementos, entonces V tiene dimensión n.

La última parte del teorema consiste en ver que ι:VV es un isomorfismo de espacios vectoriales. Por lo que acabamos de demostrar, dimV=dimV=dimV. Así que basta con mostrar que ι es inyectiva pues, de ser así, mandaría a una base de V a un conjunto linealmente independiente de V con n elementos, que sabemos que es suficiente para que sea base. Como ι es transformación lineal, basta mostrar que el único vector que se va a la forma lineal 0 de V es el 0 de V.

Supongamos que v es tal que evv=0. Vamos a mostrar que v=0. Si evv=0, en particular para las formas coordenadas ei tenemos que evv(ei)=0. En otras palabras, ei(v)=0 para toda i. Es decir, todas las coordenadas de v en la base B son 0. Así, v=0. Con esto terminamos la prueba.

◻

La demostración anterior muestra cómo encontrar las coordenadas de una forma lineal l en términos de la base B: basta con evaluar l en los elementos de la base B. Recopilamos esto y la igualdad dual como una proposición aparte, pues resulta ser útil en varios contextos.

Proposición. Sea V un espacio vectorial de dimensión finita n, B={e1,,en} una base de V y B={e1,,en} la base dual. Entonces, para todo vector v en V y para toda forma lineal l:VF, tenemos que
v=i=1nei,vei y l=i=1nl,eiei.

La traza de una matriz en Mn(F) es la suma de las entradas en su diagonal principal. Es sencillo verificar que la función tr:Mn(F)F que manda a cada matriz a su traza es una forma lineal, es decir, un elemento de Mn(F).

Ejemplo. Considera el espacio vectorial de matrices M3(R). Sea B={Eij} su base canónica. Expresa a la forma lineal traza en términos de la base dual B.

Solución. Tenemos que tr(Eii)=1 y que si ij, entonces tr(Eij)=0. De esta forma, usando la fórmula de la proposición anterior,
tr=i,jtr(Eij)Eij=E11+E22+E33. Observa que, en efecto, esta igualdad es correcta. Lo que hace Eii por definición es obtener la entrada aii de una matriz A=[aij].

La igualdad que encontramos dice que «para obtener la traza hay que extraer las entradas a11, a22, a33 de A y sumarlas». En efecto, eso es justo lo que hace la traza.

Algunos problemas prácticos de bases duales

Ya que introdujimos el concepto de espacio dual y de base dual, hay algunos problemas prácticos que puede que queramos resolver.

  • Dada una base v1,,vn de Fn, ¿cómo podemos encontrar a la base dual v1,,vn en términos de la base dual e1,,en de la base canónica?
  • Dada una base L={l1,,ln} de V, ¿es posible encontrar una base B de V tal que B=L? De ser así, ¿cómo encontramos esta base?

A continuación mencionamos cómo resolver ambos problemas. Las demostraciones se quedan como tarea moral. En la siguiente entrada veremos problemas ejemplo resueltos.

  • La receta para resolver el primer problema es poner a v1,,vn como vectores columna de una matriz A. Las coordenadas de v1,,vn en términos de la base e1,,en están dados por las filas de la matriz A1.
  • La receta para resolver el segundo problema es tomar una base B={e1,,en} cualquiera de V y considerar la matriz A con entradas A=[li(ej)]. La matriz A1 tiene como columnas a los vectores de coordenadas de la base B que buscamos con respecto a la base B.

¿Por qué la matriz A de la segunda receta es invertible? Esto lo mostramos en la siguiente sección.

Un teorema de bases, bases duales e invertibilidad de matrices

La demostración del siguiente teorema usa varias ideas que hemos estado desarrollando con anterioridad. Usamos que:

  • Si V es de dimensión finita n y B es un conjunto de n vectores de V, entonces basta con que B sea linealmente independiente para ser base. Esto lo puedes repasar en la entrada del lema de intercambio de Steinitz.
  • Una matriz cuadrada A es invertible si y sólo si el sistema de ecuaciones AX=0 sólo tiene la solución trivial X=0. Esto lo puedes repasar en la entrada de equivalencias de matrices invertibles.
  • Una matriz cuadrada A es invertible si y sólo si su transpuesta lo es.
  • El hecho de que la bidualidad canónica ι es un isomorfismo entre V y V.

Teorema. Sea V un espacio vectorial de dimensión finita n sobre el campo F. Sea B={v1,,vn} un conjunto de vectores en V y L={l1,,ln} un conjunto de elementos de V, es decir, de formas lineales en V. Consideremos a la matriz A en Mn(F) dada por A=[li(vj)]. La matriz A es invertible si y sólo si B es una base de V y L es una base de V.

Demostración. Mostraremos primero que si B no es base, entonces A no es invertible. Como B tiene n elementos y no es base, entonces no es linealmente independiente, así que existe una combinación lineal no trivial α1v1++αnvn=0. De esta forma, si definimos v=(α1,,αn), este es un vector no cero, y además, la i-ésima entrada de Av es α1li(v1)++αnli(vn)=li(α1v1++αnvn)=0. De este modo, AX=0 tiene una no solución trivial y por lo tanto no es invertible.

De manera similar, si L no es base, entonces hay una combinación lineal no trivial β1L1++βnLn=0 y entonces el vector w=(β1,,βn) es una solución no trivial a la ecuación tAX=0, por lo que tA no es invertible, y por lo tanto A tampoco lo es.

Ahora veremos que si L y B son bases, entonces A es invertible. Si A no fuera invertible, entonces tendríamos una solución no trivial (α1,,αn) a la ecuación AX=0. Como vimos arriba, esto quiere decir que para cada i tenemos que li(α1v1++αnvn)=0. Como li es base de V, esto implica que l(α1v1++αnvn)=0 para toda forma lineal l, y como la bidualidad canónica es un isomorfismo, tenemos que α1v1++αnvn=0. Esto es imposible, pues es una combinación lineal no trivial de los elementos de B, que por ser base, son linealmente independientes.

◻

Más adelante…

Esta entrada es un poco abstracta, pues habla de bastantes transformaciones aplicadas a transformaciones, y eso puede resultar un poco confuso. Se verán problemas para aterrizar estas ideas. La importancia de entenderlas y manejarlas correctamente es que serán de utilidad más adelante, cuando hablemos de los espacios ortogonales, de transposición de transformaciones lineales y de hiperplanos.

La teoría de dualidad también tiene amplias aplicaciones en otras áreas de las matemáticas. En cierto sentido, la dualidad que vemos aquí es también la que aparece en espacios proyectivos. Está fuertemente relacionada con la dualidad que aparece en teoremas importantes de optimización lineal, que permiten en ocasiones reformular un problema difícil en términos de uno más fácil, pero con el mismo punto óptimo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Usa la definición de linealidad para ver que las formas coordenadas ei en efecto son formas lineales.
  • Muestra que ι:VV, la bidualidad canónica, es una transformación lineal.
  • Justifica por qué la primer receta resuelve el primer problema práctico de bases duales.
  • Justifica por qué la segunda receta resuelve el segundo problema práctico de bases duales.
  • Sean a0,a1,,an reales distintos. Considera el espacio vectorial V=Rn[x] de polinomios con coeficientes reales y grado a lo más n. Muestra que las funciones evai:VR tales que evai(f)=f(ai) son formas lineales linealmente independientes, y que por lo tanto son una base de V. Usa esta base, la base canónica de V y el teorema de la última sección para mostrar que la matriz (1a0a02a0n1a1a12a1n1a2a22a2n1anan2ann) es invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»