Archivo de la etiqueta: subespacios

Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer

Por Leonardo Ignacio Martínez Sandoval

Introducción

Con la teoría que hemos desarrollado acerca de espacios vectoriales, de determinantes y con las herramientas que hemos adquirido para calcularlos, podemos volver a visitar el tema de sistemas de ecuaciones lineales y verlo desde una perspectiva más completa. Los determinantes en sistemas de ecuaciones lineales nos sirven para varias cosas.

Por un lado, sirven para encontrar el rango de una matriz. El rango está relacionado con la dimensión del espacio de soluciones a un sistema lineal de ecuaciones. Esto es parte del contenido del importante teorema de Rouché-Capelli que enunciaremos y demostraremos.

Por otro lado, cuando tenemos sistemas lineales con matriz asociada cuadrada e invertible, podemos usar determinantes para encontrar las soluciones. A esto se le conoce como las fórmulas de Cramer o la regla de Cramer. También enunciaremos y demostraremos esto. La regla de Cramer es parcialmente útil en términos prácticos, pues para sistemas concretos conviene más usar reducción gaussiana. Sin embargo, es muy importante en términos teóricos, cuando se quieren probar propiedades de las soluciones a un sistema de ecuaciones.

Rango de una matriz y determinantes

Recuerda que el rango de una matriz A en Mm,n(F) es, por definición, la dimensión del espacio vectorial que es la imagen de la transformación XAX de FnFm. Anteriormente, mostramos que esto coincide con la dimensión del espacio vectorial generado por los vectores columna de A. Como el rango de una matriz coincide con su transpuesta, entonces también es la dimensión del espacio vectorial generado por los vectores fila de A.

Lo que veremos ahora es que podemos determinar el rango de una matriz A calculando algunos determinantes de matrices pequeñas asociadas a A. Una submatriz de A es una matriz que se obtiene de eliminar algunas filas o columnas de A.

Teorema. Sea A una matriz en Mm,n(F). El rango de A es igual al tamaño de la submatriz cuadrada más grande de A que sea invertible.

Demostración. Llamemos C1,,Cn a las columnas de A. Sabemos que r=dimspan(C1,,Cn).

Mostraremos primero que hay una submatriz cuadrada de tamaño r. Por el lema de Steinitz, podemos escoger r enteros 1i1<<irn tal que las columnas Ci1,,Cir de A cumplen span(C1,,Cn)=span(Ci1,,Cir). Así, la matriz B hecha por columnas Ci1,,Cir está en Mm,r(F) y es de rango r.

Ahora podemos calcular el rango de B por filas. Si F1,,Fm son las filas de B, tenemos que r=dimspan(F1,,Fm). De nuevo, por el lema de Steinitz, existen enteros 1j1<<jrm tales que span(F1,,Fm)=span(Fi1,,Fir). De esta forma, la matriz C hecha por las filas Fj1,,Fjr está en Mr(F) y es de rango r. Por lo tanto, C es una matriz cuadrada de tamaño r y es invertible.

Esta matriz C es una submatriz de A pues se obtiene al eliminar de A todas las columnas en posiciones distintas a i1,,ir y todas las filas en posiciones distintas a j1,,jr. Esto muestra una parte de lo que queremos.

Ahora mostraremos que si B es una submatriz de A cuadrada e invertible de tamaño d, entonces dr. En efecto, tomemos una B así. Sus columnas son linealmente independientes. Si i1<<in corresponden a los índices de las columnas de A que se preservan al pasar a B, entonces las columnas Ci1,,Cid de A son linealmente independientes, ya que si hubiera una combinación no trivial de ellas igual a cero, entonces la habría de las columnas de B, lo cual sería una contradicción a que son linealmente independientes.

De esta forma,
d=dimspan(Ci1,,Cid)dimspan(C1,,Cd)=r,

que es la desigualdad que nos faltaba para terminar la prueba.

◻

Ejemplo. Supongamos que queremos encontrar el rango de la siguiente matriz en M3,5(R): A=(454720310905093).

Por propiedades de rango que vimos anteriormente, ya sabemos que su rango es a lo más el mínimo de sus dimensiones, así que su rango es como mucho min(3,5)=3.

Por otro lado, notemos que si eliminamos la segunda y cuarta columnas, entonces obtenemos la submatriz cuadrada (442019003). Esta es una matriz triangular superior, así que su determinante es el producto de las diagonales, que es 4(1)(3)=12.

Como el determinante no es cero, es una matriz invertible de tamaño 3. Por la proposición anterior, el rango de A debe ser entonces mayor o igual a 3. Juntando las dos desigualdades que encontramos, el rango de A debe ser igual a 3.

Estas ideas nos servirán al aplicar determinantes en sistemas de ecuaciones.

Teorema de Rouché-Capelli

Recordemos que un sistema lineal de ecuaciones con m ecuaciones y n incógnitas es de la forma

a11x1+a12x2++a1nxn=b1a21x1+a22x2++a2nxn=b2am1x1+am2x2++amnxn=bm,

lo cual se puede reescribir en términos matriciales tomando una matriz, un vector de escalares y un vector de incógnitas así:
A=(a11a12a1na21a22a2nam1am2amn),b=(b1bm) y X=(x1xn), y reescribiendo el sistema como AX=b.

Si C1,,Cn son las columnas de la matriz A, también sabemos que AX=x1C1++xnCn, de modo que el sistema de ecuaciones puede ser escrito como x1C1++xnCn=b.

Esto nos da una intuición fuerte de lo que es un sistema lineal de ecuaciones: se trata de determinar si b está en el espacio generado por las columnas de A, y si es así, ver todas las formas en las que podemos obtenerlo.

El teorema de la sección anterior nos permite aplicar determinantes en sistemas de ecuaciones lineales mediante el siguiente resultado.

Teorema (Rouché-Capelli). Sean AMn(F) y bFm. Sea (A|b) la matriz en Mn,n+1(F) obtenida de agregar a b como columna hasta la derecha de la matriz A. Entonces:

  • El sistema lineal de ecuaciones AX=b tiene al menos una solución si y sólo si rank(A)=rank((A|b)).
  • El conjunto de soluciones Sh al sistema homogéneo es un subespacio de Fn de dimensión nrank(A).

Demostración. Por la discusión previa, el sistema tiene una solución si y sólo si b es una combinación lineal de las columnas de A. De esta forma, si existe una solución, entonces rank(A)=rank((A|b)), pues el espacio generado por las columnas de A sería el mismo que el de las columnas de (A|b).

Por otro lado, si rank(A)=rank((A|b)) es porque las columnas de A y las de (A|b) generan el mismo espacio, de modo que b está en el espacio vectorial generado por las columnas. Esto prueba la primer parte.

Para la segunda parte, el sistema homogéneo es AX=0, de modo que el conjunto solución es precisamente el kernel de la transformación T:FnFm tal que XAX. Por el teorema de rango-nulidad, tenemos que dimSh=ndimIm(T)=nrank(A). Esto termina la demostración.

◻

Como discutimos con anterioridad, ya que tenemos una solución x0 para el sistema de ecuaciones AX=b, entonces todas las soluciones son el conjunto x0+Sh:={x0+x:xSh}. En otras palabras, cualquier solución al sistema se puede obtener sumando a x0 una solución al sistema lineal homogéneo asociado.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en R en tres variables:
2x+3yz=13xy+2z=03x+10y5z=0

Afirmamos que el sistema no tiene solución. La matriz asociada es A=(2313123105). Por lo que sabemos de determinantes de 3×3, podemos calcular su determinante como
|2313123105|=(2)(1)(5)+(3)(10)(1)+(3)(3)(2)(1)(1)(3)(2)(10)(2)(3)(3)(5)=1030+18340+45=0.

Esto muestra que A no es invertible, y que por lo tanto tiene rango a lo más 2. Como |2331|=(2)(1)(3)(3)=11 es un subdeterminante no cero de tamaño 2, entonces A tiene rango 2.

Ahora consideremos la matriz (A|b)=(2311312031050). Eliminemos la tercer columna. Podemos calcular al siguiente subdeterminante de 3×3 por expansión de Laplace en la última columna:

|2313103100|=1|31310|0|23310|+0|2331|=1(310+13)=33.

De esta forma, (A|b) tiene una submatriz de 3×3 invertible, y por lo tanto tiene rango al menos 3. Como tiene 3 filas, su rango es a lo más 3. Con esto concluimos que su rango es exactamente 3. Conluimos que rankA=23=rank(A|b), de modo que por el teorema de Rouché-Capelli, el sistema de ecuaciones no tiene solución.

Antes de ver un ejemplo en el que el sistema sí tiene solución, pensemos qué sucede en este caso. Si la matriz A es de rango r, por el teorema de la sección pasada podemos encontrar una submatriz cuadrada B de tamaño r que es invertible. Tras una permutación de las variables o de las ecuaciones, podemos suponer sin perder generalidad que corresponde a las variables x1,,xr y a las primeras r ecuaciones. De esta forma, el sistema AX=b se resume en el siguiente sistema de ecuaciones equivalente:

a11x1+a12x2++a1rxr=b1a1,r+1xr+1a1,nxna21x1+a22x2++a2rxr=b2a2,r+1xr+1a2,nxnar1x1+ar2x2++arrxr=bmar,r+1xr+1ar,nxn,

Aquí xr+1,,xn son lo que antes llamábamos las variables libres y x1,,xr son lo que llamábamos variables pivote. Como la submatriz B correspondiente al lado izquierdo es invertible, para cualquier elección de las variables libres podemos encontrar una única solución para las variables pivote. Ya habíamos probado la existencia y unicidad de cierta solución. Pero de hecho, hay una forma explícita de resolver sistemas de ecuaciones correspondientes a matrices cuadradas. Esto es el contenido de la siguiente sección.

Fórmulas de Cramer para sistemas cuadrados

El siguiente teorema es otra aplicación de determinantes en sistemas de ecuaciones lineales. Nos habla de las soluciones de un sistema lineal AX=b en donde A es una matriz cuadrada e invertible.

Teorema (fórmulas de Cramer). Sea A una matriz invertible en Mn(F) y b=(b1,,bn) un vector en Fn. Entonces el sistema lineal de ecuaciones AX=b tiene una única solución X=(x1,,xn) dada por xi=detAidetA, en donde Ai es la matriz obtenida al reemplazar la i-ésima columna de A por el vector columna b.

Demostración. La existencia y unicidad de la solución ya las habíamos mostrado anteriormente, cuando vimos que la única solución está dada por X=(x1,,xn)=A1b.

Si C1,,Cn son las columnas de A, que (x1,,xn) sea solución al sistema quiere decir que x1C1++xnCn=b.

El determinante pensado como una función en n vectores columna es n-lineal, de modo que usando la linealidad en la i-ésima entrada y que el determinantes es alternante, tenemos que:
detAi=det(C1,,Ci1,b,Ci+1,,Cn)=det(C1,,Ci1,j=1nxjCj,Ci+1,,Cn)=j=1nxjdet(C1,,Ci1,Cj,Ci+1,,Cn)=xidet(C1,,Ci1,Ci,Ci+1,,Cn)=xidetA

Como A es invertible, su determinante no es 0, de modo que xi=detAidetA, como queríamos.

◻

Veamos un ejemplo concreto de la aplicación de las fórmulas de Cramer.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en R en tres variables:
2x+3yz=13xy+2z=03x+10y5z=3

En un ejemplo anterior vimos que la matriz asociada A=(2313123105) tiene rango 2. Se puede verificar que la matriz aumentada (A|b)=(2311312031053) también tiene rango 2. Por el teorema de Rouché-Capelli, debe existir una solución al sistema de ecuaciones AX=b, y el sistema homogéneo tiene espacio de soluciones de dimensión 32=1.

Como la submatriz de las primeras dos filas y columnas es invertible por tener determinante 2(1)(3)(3)=110, entonces el sistema de ecuaciones original es equivalente al subsistema

2x+3y=1+z3xy=2z.

Para encontrar su solución, fijamos una z arbitraria. Usando la regla de Cramer, la solución al sistema

está dada por
x=|1+z32z1|11=15z11y=|21+z32z|11=3+7z11.

De esta forma, las soluciones al sistema original están dadas por (15z11,3+7z11,z)=(111,311,0)+z(511,711,1).

Observa que en efecto el espacio de soluciones del sistema homogéneo es de dimensión 1, pues está generado por el vector (511,711,1), y que todas las soluciones al sistema original son una de estas soluciones, más la solución particular (111,311,0).

◻

Para terminar, veamos un ejemplo muy sencillo de cómo usar las fórmulas de Cramer en un sistema de ecuaciones de 2×2 con un parámetro θ. La intepretación geométrica del siguiente sistema de ecuaciones es «encuentra el punto (x,y) del plano tal que al rotarse en θ alrededor del origen, llega al punto (a,b) » .

Problema. Sea a,b,θ números reales. Encuentra las soluciones x,y al sistema de ecuaciones
xcosθysinθ=axsinθ+ycosθ=b.

Solución. La matriz asociada al sistema es A=(cosθsinθsinθcosθ) que tiene determinante detA=cos2θ+sin2θ=1.

De acuerdo al teorema de Cramer, las soluciones al sistema están dadas por:

x=|asinθbcosθ|detA=acosθ+bsinθy=|cosθasinθb|detA=bcosθasinθ.

Hay herramientas en línea que te permiten ver de manera interactiva cómo usar las fórmulas de Cramer para sistemas de ecuaciones en los reales. Una de ellas es el Cramer’s Rule Calculator de matrix RESHISH, en donde puedes ver la solución por pasos para ejemplos que tú fijes.

Más adelante…

En esta entrada volvimos a hablar de sistemas de ecuaciones lineales, pero ahora que ya sabemos determinantes, pudimos verlo con un enfoque diferente al que habíamos utilizado para abordar el tema en la primera unidad. También hablamos de la regla de Cramer, una herramienta muy poderosa cuando estamos intentando resolver sistemas de ecuaciones.

Ahora, vamos a ver cómo se usa lo que vimos en esta entrada resolviendo varios ejemplos. Después, empezaremos a abordar el tema de eigenvalores y eigenvectores.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Determina el rango de la matriz A=(201324523125).
  • Para la matriz A del inciso anterior, resuelve los sistemas de ecuaciones lineales AX=(5832) y AX=(58133).
  • Verifica que la matriz aumentada en el último ejemplo en efecto tiene rango 2.
  • Muestra que si A es una matriz en Mn(R) con entradas enteras y de determinante 1, y b es un vector en Rn con entradas enteras, entonces la solución X del sistema de ecuaciones AX=b tiene entradas enteras.
  • ¿Cómo puedes usar la regla de Cramer para encontrar la inversa de una matriz invertible A?
  • Considera un sistema de ecuaciones con coeficientes en un campo F1 y una extensión de campo F2. Muestra que si el sistema tiene una solución en F2, entonces también tiene una solución en F1.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Proyecciones, simetrías y subespacios estables

Por Blanca Radillo

Introducción

Anteriormente introdujimos el concepto de transformaciones lineales entre dos espacios vectoriales. Vimos diversas propiedades que toda transformación lineal debe satisfacer. Finalmente, se presentaron las definiciones de kernel e imagen. Lo que haremos ahora es hablar de algunos tipos especiales de transformaciones lineales: las proyecciones y las simetrías. Para ello, aprovecharemos lo que ya estudiamos de suma y suma directas de subespacios.

Además, hablaremos del concepto de subespacios estables. Intuitivamente, un subespacio es estable para una transformación lineal si al aplicarla en elementos del subespacio, «no nos salimos del subespacio».

Proyecciones

Hablemos de una clase fundamental de transformaciones lineales: las proyecciones sobre subespacios. Para ellas, se comienza expresando a un espacio vectorial como una suma directa V=W1W2. Recuerda que, a grandes rasgos, esto quiere decir que cada vector v de V se puede expresar de manera única como v=w1+w2, donde w1 está en W1 y w2 está en W2.

Definición. Sea V un espacio vectorial y sean W1 y W2 dos subespacios de V tales que V=W1W2. La proyección sobre W1 es la función π1:VW1 definido como: para cada vV, se tiene que π1(v) es el único vector en W1 tal que vπ1(v) está en W2.

De manera similar podemos definir la proyección sobre W2, llamada π2:VW2.

Hay otra forma de decir esto. Dado que V=W1W2, para todo vV existen únicos vectores v1W1 y v2W2 tales que v=v1+v2. Entonces π1(v)=v1 y π2(v)=v2.

Ejemplo. Sea V=R2, y sean W1={(a,0):aR} y W2={(0,b):bR}. Sabemos que W1 y W2 son subespacios y que V=W1W2. Entonces, si (a,b)V, se tiene que π1((a,b))=(a,0) y π2((a,b))=(0,b).

Cuando hablamos de una proyección π de un espacio vectorial V, sin indicar el subespacio, de manera implícita nos referimos a una función para la cual existe una descomposición V=W1W2 tal que π es la proyección sobre W1.

Problema. Muestra que la transformación lineal π:M2(R)M2(R) tal que π(abcd)=(a+b0c0) es una proyección.

Solución. Para resolver el problema, tenemos que mostrar que se puede escribir M2(R)=W1W2, de modo que π sea una proyección sobre W1.

Proponemos W1={(r0s0):r,s,R} y W2 como W2={(rr0s):r,s,R}.

Si una matriz está simultánteamente en W1 y W2, es sencillo mostrar que únicamente puede ser la matriz cero, es decir O2. Esto lo puedes verificar por tu cuenta. Además, cualquier matriz en M2(R) se puede escribir como suma de elementos en W1 y W2 como sigue: (abcd)=(a+b0c0)+(bb0d).

Justo π es la primer matriz. Esto muestra que π es una proyección, pues es la proyección sobre W1 en la descomposición V=W1W2.

◻

Aún no hemos mostrado que las proyecciones son transformaciones lineales. Hacemos esto a continuación.

Proposición. Sean V un espacio vectorial, W1 un subespacio vectorial de V y π:VW1 una proyección de V sobre W1. Entonces π es una transformación lineal.

Demostración. Si v,vV entonces v+vV y por definición de proyección tenemos que π(v+v) es el único vector en W1 tal que:

(v+v)π(v+v)W2, por otra parte como π(v) es el únco vector en W1 tal que vπ(v)W2 y π(v) es el único vector en W1 tal que vπ(v)W2 entonces vπ(v)+vπ(v)W2 ya que W2 es subespacio de V, es decir que (v+v)(π(v)+π(v))W2 y debido a que π(v)+π(v)W1, entonces tenemos la situación en la que existe un vector π(v)+π(v)W1 tal que (v+v)(π(v)+π(v))W2, pero π(v+v) es el único vector en W1 tal que (v+v)π(v+v)W2, esto implica que π(v+v)=π(v)+π(v). Así concluimos que π abre sumas.

Para comprobar que π saca escalares consideremos cualquier vV y cualquier cF, tenemos que cvV (pues V es espacio vectorial), por definición de proyección tenemos que π(cv) es el único vector en W1 tal que cvπ(cv)W2, por otra parte π(v) es el único vector de W1 tal que vπ(v)W2 entonces c(vπ(v))=cvcπ(v)W2. Como cπ(v)W1 tal que cvcπ(v)W2 entonces π(cv)=cπ(v) debido a la unicidad de π(cv), por lo que π saca escalares. Como π abre sumas y saca escalares concluimos que π es una transformación lineal.

◻

Finalmente, notemos que π(v)=v para todo vW1 pero π(v)=0 si vW2.

Simetrías

Una segunda clase importante de trasnformaciones lineales son las simetrías.

Definición. Sea una descomposición V=W1W2, con W1,W2 dos subespacios de V. Decimos que s:VV es una simetría con respecto a W1 a lo largo de W2 si para todo vV, escrito como v=v1+v2 con v1W1 y v2W2, tenemos que s(v)=v1v2.

Al igual que con las proyecciones, no es dificil ver que las simetrías son transformaciones lineales.

Proposición. Sea s:VV una simetría con respecto a W1 a lo largo de W2. Entonces, s es una transformación lineal.

Demostración. Sean v,vV. Sean v1,v1W1 y v2,v2W2 tales que v=v1+v2 y v=v1+v2. Eso implica que v+v=(v1+v1)+(v2+v2) con v1+v1W1 y v2+v2W2. Entonces
s(v)+s(v)=(v1v2)+(v1v2)=(v1+v1)(v2+v2)=s(v+v).
Ahora sea aF, entonces as(v)=a(v1v2)=av1av2=s(av1+av2)=s(av). Por lo tanto, s es una transformación lineal.

◻

Notemos que si vW1, entonces s(v)=v0=v, y si vW2, entonces s(v)=0v=v.

Subespacios estables

Observemos que las proyecciones y las simetrías satisfacen que π(W1)=W1 y s(W1)=W1. Esta es una propiedad muy linda, pero en general, si T:VV es una transformación lineal cualquiera y W un subespacio de V, no siempre tenemos que T(W)=W, o ni siquiera que T(W)W. Es decir, aunque tomemos un vector w en W, puede pasar que T(w) ya «esté fuera» de W.

Los subespacios W que sí satisfacen esta última propiedad son cruciales en el estudio de este curso, y por ello, merecen un nombre especial.

Definición. Sea V un espacio vectorial y T:VV una transformación lineal. Si W es un subespacio de V tal que T(W)W, decimos que W es un subespacio estable bajo T.

En otras palabras, W es estable bajo T si para todo v en W se tiene que T(v) también está en W. Un ejemplo trivial es la transformación identidad con cualquier subespacio W. Otro ejemplo trivial es que V y {0} son dos subespacios estables bajo cualquier transformación lineal T:VV. Otros ejemplos son los ya mencionados: las proyecciones y las simetrías.

En el siguiente ejemplo encontraremos todos los subespacios estables para una cierta transformación.

Ejemplo. Consideremos el mapeo T:R2R2 con T(x,y)=(y,x). Claramente T es lineal. Sea W un subespacio estable de R2 bajo T. Supongamos que W no es ni R2, ni el subespacio trivial {(0,0)}.

Veremos que no hay ningún otro subespacio estable. Procedamos por contradicción. Suponiendo que hay otro subespacio estable W, su dimensión tendría que ser exactamente 1. Eso implica que W está generado por un vector no cero, digamos v=(x,y). Es decir, cada wW lo podemos escribir como w=av donde a es un escalar. En particular vW.

Como W es estable bajo T, entonces T(v)W, esto es T(v)=cv para algún c. Así,
(y,x)=T((x,y))=T(v)=cv=c(x,y)=(cx,cy). Igualando ambos extremos, obtenemos quey=cx y x=cy, lo cual implica que (c2+1)x=0. Como c es real, esto implica x=0 y por lo tanto y=0. Concluimos que v=(0,0), lo cual es una contradicción.

Esto demuestra que los únicos subespacios estables bajo T son R2 y {(0,0)}.

◻

El siguiente problema estudia un problema inverso. En ella se encuentran todas las transformaciones lineales que dejan fijas «todas las rectas por el vector 0».

Problema. Sea V un espacio vectorial y T:VV una transformación lineal tal que, para todo vV, se tiene que span(v) es un subespacio estable bajo T. Entonces existe un escalar cF tal que T(x)=cx para todo xV.

Demostración. Sea xV un vector distinto de 0. Si L=span(x), tenemos que T(L)L por hipótesis. En particular T(x)L y por lo tanto existe cx tal que T(x)=cxx. Queremos probar que esa constante realmente no depende de x.

Sea yV. Hay dos opciones: x,y son linealmente independientes o no. Supongamos primero que x,y son linealmente independientes. Entonces x+y0 y la igualdad T(x+y)=T(x)+T(y) puede ser escrita como cx+y(x+y)=cxx+cyy, esto es equivalente a (cx+ycx)x+(cx+ycy)y=0. Por independencia lineal, cx+ycx=cx+ycy=0 y por lo tanto. cx=cx+y=cy.

Ahora si x,y no son linealmente independientes, es porque y=0 (en cuyo caso cualquier cy funciona, en particular cx) o bien porque y=ax para algún escalar a no cero. Entonces la igualdad T(y)=T(ax)=aT(x) puede ser escrita como cyy=acxx=cxy, y esto implica que cy=cx.

En cualquier caso, hemos mostrado que para todo yV, se tiene que cx=cy. Definiendo c=cx, se satisface la afirmación de la proposición.

◻

Las imágenes y kernels son estables

Otros ejemplos importantes de subespacios estables son las imágenes y los kernels. Esto únicamente funciona para cuando tenemos una transformación lineal de un espacio vectorial a sí mismo.

Proposición. Sea T:VV una transformación lineal. Entonces ker(T) e Im(T) son subespacios estables bajo T.

Demostración. En la entrada anterior ya vimos que ker(T) e Im(T) son subespacios de V. Veamos que son estables bajo T.

Tomemos vker(T). Tenemos que mostrar que T(v)ker(T). Pero esto es cierto pues T(T(v))=T(0)=0. Así T(ker(T))ker(T) y por lo tanto ker(T) es estable bajo T.

Ahora tomemos vIm(T). De manera inmediata, T(v)Im(T). Así, Im(T) es estable bajo T.

◻

Más adelante…

Las proyecciones y simetrías son dos ejemplos de transformaciones lineales que tienen propiedades específicas. Más adelante, cuando hablemos de geometría de espacios vectoriales y del proceso de Gram-Schmidt, veremos que las proyecciones satisfacen propiedades interesantes en términos de ciertas distancias.

La teoría de subespacios estables es muy útil a la hora de construir bases de subespacios vectoriales de manera inductiva. De hecho, los resultados en esta dirección son uno de los ingredientes que usaremos en la demostración del teorema estelar del curso: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea Y es el subespacio Y={(0,r,0):rR} de R3. Argumenta por qué la transformación π:R3Y dada por π(x,y,z)=(0,y,0) es una proyección sobre Y. Para ello tendrás que encontrar un subespacio W de R3 tal que R3=YW y con el cual π(x,y,z) satisface la definición.
  • Sea X el subespacio X={(r,0,0):rR}. ¿Es posible ver a la transformación T:R3X dada por T(x,y,z)=(x+y+z,0,0) como una proyección sobre X? Si tu respuesta es sí, tendrás que dar un espacio W bajo el cual se satisfaga la definición. Si tu respuesta es no, tendrás que mostrar que ningún subespacio W funciona.
  • En el ejemplo de la sección de subespacios estables, ¿qué sucede si trabajamos en C2 en vez de en R2? ¿Quienes serían todos los subespacios estables?
  • Sea B={v1,v2,,vn} una base para un espacio vectorial V sobre un campo F. Sea Vi el espacio vectorial generado por vi, es decir, el conjunto de vectores de la forma cvi con cF. Como B es base, cada vector vV puede escribirse de la forma a1v1+a2v2++anvn de manera única. Muestra que para toda i{1,2,,n} la función πi(v)=aivi es una proyección sobre Vi.
  • Para cada entero n, muestra que Rn[x] es un subespacio de R[x] que es estable bajo la transformación lineal T que manda a cada polinomio p(x) a su derivada T(p(x))=p(x).

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»