Álgebra Superior II: Teoremas de Fermat y de Wilson

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores hablamos de congruencias, del anillo de enteros módulo $n$ y vimos algunos problemas. La gran ventaja de trabajar en $\mathbb{Z}_n$, o bien, de trabajar módulo $n$, es que para $n$ pequeña hay una cantidad pequeña de elementos y entonces las operaciones se vuelven muy sencillas.

Problema. Determina cuál es el residuo obtenido de dividir $705\cdot 702+714\cdot 711$ al dividirse entre $7$.

Solución. Tenemos que $705$, $702$, $714$ y $711$ los podemos poner como un múltiplo de $7$ más un residuo como sigue: $700+5$, $700+2$ y $714=714+0$, $711=707+4$. Así, $705\equiv 5\pmod 7$, $702\equiv 2 \pmod 7$, $714\equiv 0 \pmod 7$ y $711\equiv 4 \pmod 7$. Así, trabajando módulo $7$ tenemos que:

\begin{align*}
705\cdot 702+714\cdot 711 \equiv 5\cdot 2 + 0\cdot 4 \equiv 10 + 0 \equiv 10 \equiv 3 \pmod 7
\end{align*}
De esta forma, $705\cdot 702+714\cdot 711$ deja residuo $3$ al dividirse entre $7$.

$\square$

Trabajando de esta forma, podemos encontrar el residuo al dividirse por $n$ de expresiones que involucran sumas y productos. El objetivo de esta entrada es entender qué sucede cuando queremos encontrar el residuo de expresiones que tienen potencias y factoriales.

Pequeño teorema de Fermat

Intentemos entender qué sucede con las potencias de un número $a$ en cierto módulo $n$.

Ejemplo. Imagina que tomamos al número $3$ y queremos elevarlo a distintas potencias y entender el residuo que deja al dividirse entre $7$. Tenemos, trabajando módulo $7$:
\begin{align*}
3^0\equiv 1\\
3^1\equiv 3\\
3^2\equiv 9 \equiv 2\\
3^3=27\equiv 21+6\equiv 6
\end{align*}

Nota que podríamos seguir, poniendo $3^4=81$. Pero podemos ahorrarnos trabajo pues $3^4\equiv 3\cdot 3^3 \equiv 3 \cdot 6 \equiv 18\equiv 4$, en donde usamos que ya sabíamos que $3^3\equiv 6$. Del mismo modo, podemos seguir substituyendo cada potencia en la siguiente para obtener
\begin{align*}
3^5\equiv 3\cdot 4\equiv 12\equiv 5\\
3^6\equiv 3\cdot 5 = 15\equiv 1\\
3^7\equiv 3\cdot 1 = 3\\
3^8\equiv 3\cdot 3 = 9 \equiv 2
\end{align*}

Podríamos seguir y seguir, pero ya no tiene mucho caso. A partir de aquí es fácil convencerse de que los residuos se ciclan: $1,3,2,6,4,5,1,3,2,6,4,5,1\ldots$. Notemos que si la potencia es múltiplo de $6$, entonces el residuo será $1$, es decir, $3^{6k}\equiv 1 \pmod 7$. Esto es fantástico, pues entonces si queremos determinar el residuo de dividir, digamos, $3^{605}$ entre $7$, basta ver que módulo $7$ tenemos $$3^{605}=3^{600}\cdot 3^5 \equiv 1\cdot 5 \equiv 5,$$

en donde estamos usando lo que mencionamos para $k=100$ y que ya hicimos $3^5$ módulo $7$.

A partir del ejemplo anterior, nos damos cuenta de que es importante saber cuándo $a^m\equiv 1\pmod n$, pues en ese momento las potencias «se empiezan a ciclar». El pequeño teorema de Fermat es un resultado que podemos aplicar cuando trabajamos módulo un número primo $p$. Dice que la potencia $p-1$ funciona para esto.

Teorema. Si $p$ es un número primo y $p$ no divide a $a$, entonces $p$ divide a $a^{p-1}-1$ o, dicho en otras palabras $a^{p-1}\equiv 1 \pmod p$.

Demostración. Afirmamos que los números $a$, $2a$, $3a$, $\ldots$, $(p-1)a$ dejan todos ellos residuos distintos al dividirse entre $p$ y, además, que ninguno de esos residuos es $0$. Probemos esto. Tomemos $0<i<j<p-1$. En una entrada anterior vimos que $[a]_p$ tiene inverso en $Z_p$. Sea $[b]_p$ su inverso. Si $[ia]_p=[ja]_p$, entonces multiplicando por $[b]_p$ de ambos lados tendríamos $$[i]_p=[i(ab)]_p=[j(ab)]_p=[j]_p.$$

Pero como $i$ y $j$ están entre $1$ y $p-1$, esto implica que $i=j$. Ninguno es cero pues si $[ia]_p=[0]_p$, entonces al multiplicar por $b$ tendríamos la contradicción $[i]_p=[i(ab)]_p=[0b]_p=[0]_p$. Esto muestra la afirmación.

Así, usando la afirmación en el segundo paso de la siguiente cadena módulo $p$, tenemos:
\begin{align*}
(p-1)! a^{p-1} &= (a)(2a)(3a)\cdots((p-1)a)\\
&\equiv 1\cdot 2 \cdot \ldots \cdot (p-1)\\
&= (p-1)!.
\end{align*}

El número $(p-1)!$ no es divisible entre $p$, pues es producto de puros números menores que $p$, de modo que $\text{MCD}(p, (p-1)!)=1$, así que tiene inverso módulo $p$, de modo que podemos cancelarlo de la congruencia anterior multiplicando en ambos lados por su inverso. De aquí obtenemos la igualdad que queremos: $$a^{p-1}\equiv 1 \pmod p.$$

$\square$

Ya que demostramos este teorema, podemos aprovecharlo para resolver problemas que parecen ser difíciles.

Problema. Demuestra que $13$ divide a $25^{181}-181^{25}$

Solución. Notemos primero que $13$ es primo y que no divide ni a $25$ ni a $181$. Por el pequeño teorema de Fermat, tenemos módulo $13$ que $25^{12}\equiv 1$ y que $181^{12}\equiv 1$. Así, módulo $13$ tenemos que $$25^{181}\equiv 25^{15\cdot 12}\cdot 25 \equiv 25 \equiv 12,$$ y que $$181^{25}\equiv 181^{2\cdot 12}\cdot 181\equiv 181 \equiv 12.$$

De esta forma, $25^{181}-181^{25}\equiv 12-12\equiv 0\pmod {13}$, es decir, $13$ divide a $25^{181}-181^{25}$

$\triangle$

Teorema de Wilson

En la demostración del teorema de Fermat aparece la expresión $(p-1)!$. ¿Qué residuo dejará al dividirse entre $p$? Hagamos una prueba.

Problema. Encuentra el residuo que se obtiene al dividir $10!$ entre $11$.

Solución. Para no trabajar con números tan grandes, notemos que en $$10!=1\cdot 2\cdot 3\cdot 4 \cdot 5 \cdot 6 \cdot 7 \cdot 8 \cdot 9 \cdot 10$$ podemos cambiar a $6,7,8,9,10$ por $-5, -4, -3, -2, -1$ al trabajar módulo $11$, así que basta encontrar $-(1\cdot 2\cdot 3 \cdot 4 \cdot 5)^2$ módulo $11$. Notemos que $3\cdot 4\equiv 12 \equiv 1 \pmod {11}$ y que $2\cdot 5 =10 \equiv -1 \pmod {11}$. Así, $$10!\equiv -(1\cdot 2\cdot 3 \cdot 4 \cdot 5)^2 \equiv -(1\cdot 1 \cdot -1)^2 \equiv -1 \equiv 10 \pmod {11},$$

es decir, el residuo que deja $10!$ al dividirse entre $11$ es $10$.

$\triangle$

El teorema de Wilson ayuda a cuando queremos encontrar el residuo de un factorial al dividirse entre un número primo. Una de las ideas del ejercicio anterior fue buena: nos conviene agrupar a números del factorial en productos sencillos. Lo más conveniente es que agrupemos a cada número con su inverso multiplicativo, pues así obtendremos un $1$. Eso lo podemos hacer si el inverso es diferente. La siguiente proposición nos ayuda a entender cuándo pasa esto.

Proposición. Sea $p$ un número primo. Los únicos elementos en $\mathbb{Z}_p$ que son inversos de sí mismos son $[1]_p$ y $[p-1]_p$.

Demostración. Claramente $[1]_p$ y $[p-1]_p=[-1]_p$ son inversos multiplicativos de sí mismos, pues $1\cdot 1=1=(-1)\cdot(-1)$. Ahora, si tenemos $a$ tal que $a$ es inverso multiplicativo de sí mismo, tenemos que $[a^2]_p\equiv [1]_p$, que por definición quiere decir que $p$ divide a $a^2-1=(a+1)(a-1)$. Cuando un primo divide a un producto, tiene que dividir a uno de los factores. Entonces $p$ divide a $a+1$ o a $a-1$, y obtenemos, respectivamente, que $[a]_p=[-1]_p=[p-1]_p$ o que $[a]_p=[1]_p$, como queríamos.

$\square$

Estamos listos para enunciar y demostrar el teorema de Wilson.

Teorema. Si $p$ es un número primo, entonces $p$ divide a $(p-1)!+1$ o, dicho en otras palabras, $(p-1)!\equiv -1 \pmod p$.

Demostración. Si $p=2$, el resultado es inmediato. Supongamos que $p\geq 3$. En $(p-1)!$ aparecen todos los números de $1$ a $p-1$. Todos ellos son primos relativos con $p$, así que tienen inverso módulo $p$. Ese inverso también aparece en $(p-1)!$. Así, podemos agrupar esos números en $(p-3)/2$ parejas de inversos multiplicativos, en donde por la proposición anterior sólo nos va a sobrar el $1$ y el $-1$. De esta forma, $$(p-1)!\equiv (1)(-1)(1\cdot 1\cdot \ldots\cdot 1) \equiv -1 \pmod p,$$

en donde en la expresión intermedia tenemos un $1$, un $-1$ y $(p-3)/2$ unos, uno por cada pareja de inversos que se multiplicaron. Esto termina la prueba.

$\square$

Veamos una posible aplicación.

Problema. Determina el residuo que se obtiene al dividir $15!+16!+17!$ entre $17$.

Solución. Notemos que $17$ divide a $17!$, así que $17!\equiv 0 \pmod {17}$. Por el teorema de Wilson, $16!\equiv -1 \pmod {17}$. Podemos multiplicar esa igualdad por $-1$ para obtener módulo $17$ que $$15! = 15! (-1)(-1) \equiv 15! \cdot 16 \cdot (-1) \equiv 16! (-1)\equiv (-1)(-1)\equiv 1.$$ Así, $15!+16!+17!\equiv 1 + (-1) + 0 \equiv 0 \pmod {17}$.

$\square$

Una solución alternativa es darse cuenta de que $$15!+16!+17!=15!(1+16)+17\cdot 16!=17\cdot (15!+16!)$$ y por lo tanto es múltiplo de $17$. Aunque tengamos herramientas fuertes, ¡siempre hay que recordar los básicos!

Más adelante…

Tarea moral

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Superior II: Problemas de congruencias

Por Claudia Silva

Introducción

Aquí les mando los vídeos correspondientes al día de hoy, jueves 19 de marzo, todos relacionados con congruencias.

Ejercicio. Realizar la tabla de multiplicación módulo 5:

¿Cómo realizar la tabla de multiplicación módulo 5?

Ejercicio 186. Encuentre las unidades de ${\mathbb{Z}}_{18}$, y encuentre un elemento no nulo que no tenga inverso multiplicativo:
Nota: Me equivoqué en un detalle: $(3,18)=3$, no $6$.

Encuentrar las unidades de ${\mathbb{Z}}_{18}$, y un elemento no nulo que no tenga inverso multiplicativo

Ejercicio 191. Demuestra que todo entero es congruente módulo $7$ con un número del siguiente conjunto: $\{193,7,54,31,36,20,765\}$.

Ejercicio de congruencias (191 del libro)

Ejercicio 193. Muestra que para $a$ y $b$ enteros, si $a \equiv b \pmod m$, entonces $(a,m)\mid(b,m)$.

$a \equiv b$ mod $m \Rightarrow (a,m)|(b,m)$

Más adelante…

Tarea moral

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Seminario de Resolución de Problemas: Principio de las Casillas, Parte 2

Por Fabian Ferrari

En esta entrada vemos algunos ejemplos más en donde se aplica el Principio de las Casillas.

Problema 5. Sean $a_1, a_2, … , a_n$ números enteros, no necesariamente todos diferentes. Prueba que existe un subconjunto de estos números, tal que su suma es divisible por $n$.

Solución. Consideremos los números $s_1, s_2,…, s_n$ los cuales definimos como sigue

\begin{align*}
s_1&=a_1\\
s_2&=a_1+a_2\\
s_3&=a_1+a_2+a_3\\
&\vdots\\
s_n&=a_1+a_2+ … +a_n.
\end{align*}

Tenemos que al dividir cada $s_i$ entre $n$ tenemos que el residuo varía de $0$ a $n-1$. Si el residuo es $0$ ya acabamos. Por otro lado, si ninguno de los residuos es cero, por el principio de las casillas tenemos que deben de existir al menos dos de los $s_i$´s que tengan el mismo residuo. Supongamos que son $s_j$ y $s_k$ con $j<k$.

Como $s_j$ y $s_k$ tienen el mismo residuo, tenemos que $s_k-s_j$ es divisible por $n$. Así el conjunto $S=\{s_{j+1}, s_{j+2}, \ldots , s_k \}$ es el conjunto tal que la suma de sus elementos es divisible por $n$.

$\square$

Problema 6.  Cada cuadrito de un tablero de ajedrez de $4\times 7$ es coloreado de blanco o negro. Prueba que en cualquier coloración siempre hay un rectángulo del tablero que tiene los cuatro cuadritos de las esquinas coloreadas del mismo color.

Solución. Podemos reducir el problema a un tablero de $3\times 7$, dado que cualquier rectángulo que se pueda crear en un tablero de $3\times 7$, también será un rectángulo en el tablero original. Ahora bien, pensemos en las posibles coloraciones que puede tener una columna en el tablero de $3\times 7$. Son dos colores acomodados en 3 lugares, así que tenemos 8 acomodos diferentes de coloración: $BBB, BBN, BNB, NBB, BNN, NBN, NNB, NNN$.

Notemos que si dos columnas tienen el mismo acomodo de colores, entonces acabamos (por ejemplo, dos columnas $BNB$ hacen un rectángulo de cuatro esquinas blancas).

Supongamos que usamos la coloración $BBB$ en una columna. Si en otra columna pintamos con alguno de $BBB, BBN, BNB, NBB$, entonces acabamos (usando dos de la $BBB$ y dos de esa otra). Si no, es que en las seis columnas restantes pintamos sólo con acomodos $BNN, NBN, NNB, NNN$. Por principio de las casillas, hay dos columnas pintadas con el mismo acomodo, y terminamos. Por simetría, si usamos la coloración $NNN$ entonces podemos hacer un argumento análogo.

Ya sólo nos quedan los casos en los que ninguna columna queda pintada ni con $BBB$ ni con $NNN$. Pero entonces tenemos que pintar las $7$ columnas con $6$ acomodos posibles. Por principio de las casillas, hay dos columnas que quedan pintadas con el mismo acomodo, y como ya vimos, esto crea el rectángulo con esquinas del mismo color.

$\square$

Problema 7. Si seleccionamos $n + 1$ enteros del conjunto $\{1, 2, \ldots 2n\}$, siempre hay dos de ellos tales que su máximo común divisor es $1$.

Solución. Tomemos al conjunto $\{1, 2, \ldots, 2n\}$. Si al tomar $n+1$ de ellos siempre logramos encontrar dos consecutivos, entonces el problema estará resuelto, ya que cualesquiera dos consecutivos son primos relativos. A la hora que seleccionamos $n+1$ enteros del conjunto dado, tenemos por el principio de casillas que al menos dos de ellos serán consecutivos. En efecto, dividamos a los números en las parejas $\{1,2\}$, $\{3,4\}$, $\ldots$, $\{2n-1,2n\}$. Estas son $n$ parejas, así que por casillas hubo una pareja de la que elegimos dos números. Estos son dos números consecutivos, así que que su máximo común divisor es $1$.

$\square$

Problema 8. En una grafo con un número finito de vértices, hay dos vértices con el mismo grado.

Solución. Sea $n$ el número de vértices de la gráfica, dado que el grado del vértice de un grafo es el número de aristas que concurren en dicho vértice. Tenemos que el grado de cada vértice varía de $0$ a $n-1$. Sin embargo si un vértice tiene grado cero, no existirá algún vértice con grado $n-1$. Por el principio de las casillas teniendo en cuenta que tenemos que distribuir $n-1$ valores en $n$ lugares, concluimos que al menos dos de los vértices deben de tener el mismo grado.

$\square$

Álgebra Lineal I: Transformaciones lineales en bases, conjuntos independientes y generadores

Por Leonardo Ignacio Martínez Sandoval

Introducción

El objetivo de esta entrada es entender qué efecto tienen las transformaciones lineales en bases, en conjuntos linealmente independientes y en conjuntos generadores. En la siguiente lista recordamos brevemente estas nociones:

  • Una transformación lineal $T:V\to W$ entre espacios vectoriales $V$ y $W$ es una función que «abre sumas» (es decir $T(x+y)=T(x)+T(y)$) y «saca escalares» (es decir $T(cx)=cT(x)$). Recuerda que es necesario que $V$ y $W$ estén sobre el mismo campo, cosa que asumiremos cuando hablemos de transformaciones lineales.
  • Un conjunto de vectores $\{v_1,\ldots, v_n\}$ en $V$ es linealmente independiente si la única combinación lineal de ellos que da $0$ es la trivial, osea en la que todos los coeficientes son $0$.
  • Si cualquier vector de un espacio vectorial $V$ puede escribirse como combinación lineal de un conjunto de vectores $S=\{v_1,\ldots,v_n\}$, entonces decimos que $S$ genera a $V$.
  • Un conjunto de vectores en $V$ es base si es linealmente independiente y genera a $V$.

La idea de esta entrada es entender lo siguiente:

  • ¿Cuándo las imágenes de linealmente independientes/generadores/bases son linealmente independientes/generadores/bases tras aplicar una transformación lineal?
  • ¿Cómo saber si una transformación lineal es inyectiva?
  • ¿Cómo el efecto de transformaciones lineales en bases nos permite determinar exactamente qué le hacen al resto de los vectores?

Exploración

Tomemos espacios vectoriales $V$, $W$ y una transformación lineal $T:V\to W$. Si comenzamos con un conjunto $S=\{v_1,\ldots,v_n\}$ de vectores en $V$ que es linealmente independiente (o generador, o base) en $V$, ¿cuándo sucede que $T(S)=\{T(v_1),\ldots,T(v_n)\}$ es linealmente independiente (o generador, o base, respectivamente) en $W$?

Esto definitivamente no sucede siempre. La tranformación $Z:\mathbb{R}^3\to \mathbb{R}[x]$ que manda a todo vector $(x,y,z)$ al polinomio $0$ es una transformación lineal. Sin embargo, a la base canónica $\{e_1,e_2,e_3\}$ la manda al conjunto $\{0,0,0\}=\{0\}$, que no es un conjunto ni linealmente independiente, ni generador de los polinomios con coeficientes reales.

De esta forma, tenemos que pedirle más a la transformación $T$ para que preserve las propiedades mencionadas.

Intuitivamente, si la imagen de $T$ no cubre a todo $W$, entonces los vectores de la forma $T(v)$ con $v$ en $V$ no deberían de poder generar a $W$. Así, para que $T$ mande generadores a generadores, tiene que pasar que «$T$ pase por todo $W$». Esta noción queda capturada formalmente al pedir que $T$ sea suprayectiva.

Del mismo modo, también intuitivamente si «$T$ manda elementos distintos al mismo elemento», entonces perderemos familias linealmente independientes al aplicarla. Así, para preservar conjuntos linealmente independientes, necesitamos que vectores distintos vayan a valores distintos. En términos formales, necesitamos que $T$ sea inyectiva.

Resultados principales de transformaciones lineales en bases, generadores y linealmente independientes

El primer resultado es que los requisitos que descubrimos intuitivamente en la sección pasada son suficientes.

Teorema. Sea $T:V\to W$ una transformación lineal y $S=\{v_1,\ldots,v_n\}$ un conjunto de vectores de $V$. Entonces:

  • Si $T$ es inyectiva y $S$ es linealmente independiente, entonces $T(S)$ es linealmente independiente.
  • Cuando $T$ es suprayectiva y $S$ es generador, entonces $T(S)$ es generador.
  • Si $T$ es biyectiva y $S$ es base, entonces $T(S)$ es base.

Demostración. Comencemos suponiendo que $T$ es inyectiva y $S$ es linealmente independiente. Entonces $T(v_1),\ldots,T(v_n)$ son todos distintos. Tomemos una combinación lineal de elementos de $T(S)$ igual a cero, es decir, $$a_1T(v_1)+a_2T(v_2)+\ldots+a_nT(v_n)=0.$$ Debemos mostrar que todos los coeficientes son iguales a cero. Como $T$ es transformación lineal, podemos juntar las sumas y productos escalares como sigue: $$T(a_1v_1+a_2v_2+\ldots+a_nv_n)=0=T(0).$$

Como $T$ es inyectiva, esto implica que $$a_1v_1+a_2v_2+\ldots+a_nv_n=0,$$ pero como $S$ es linealmente independiente, concluimos que $$a_1=\ldots=a_n=0.$$ Así, $T(S)$ es linealmente independiente.

Supongamos ahora que $T$ es suprayectiva y $S$ es generador. Tomemos un $w\in W$. Como $T$ es suprayectiva, existe $v\in V$ tal que $T(v)=w$ y como $S$ es generador, existen $a_1,\ldots,a_n$ tales que $$a_1v_1+\ldots+a_nv_n=v.$$ Aplicando $T$ en ambos lados, abriendo las sumas y sacando escalares obtenemos que $$a_1T(v_1)+\ldots+a_nT(v_n)=T(v)=w.$$ Así, todo elemento de $W$ se puede escribir como combinación lineal de elementos de $T(S)$, como queríamos.

Finalmente, supongamos que $T$ es biyectiva y $S$ es base. Como $T$ es inyectiva y $S$ linealmente independiente, entonces $T(S)$ es linealmente independiente. Como $T$ es suprayectiva y $S$ generador, entonces $T(S)$ es generador. Así, $T(S)$ es base.

$\square$

Una consecuencia fudamental del resultado anterior es que si $V$ y $W$ son espacios de dimensión finita y existe una transformación lineal inyectiva $T:V\to W$, entonces $\dim(V)\leq \dim(W)$. En efecto, si $B$ es base de $V$ y $T$ es inyectiva, entonces $T(B)$ es linealmente independiente en $W$ y sabemos que $W$ tiene a lo más $\dim(W)$ vectores linealmente independientes, así que $\dim(V)=|B|=|T(B)|\leq \dim(W)$. De manera similar, si existe una transformación lineal $T:V\to W$ suprayectiva, entonces $\dim(V)\geq \dim(W)$. Demuestra esto. ¿Qué pasa con las dimensiones si existe una transformación lineal biyectiva entre $V$ y $W$?

¿Cuándo una transformación lineal es inyectiva?

El teorema anterior también sugiere que es importante saber cuándo una transformación lineal es inyectiva, suprayectiva o ambas. Resulta que en el caso de la inyectividad hay un criterio que nos ayuda.

Proposición. Sean $V$ y $W$ espacios vectoriales. Una transformación lineal $T:V\to W$ es inyectiva y si sólo si el único vector $v$ de $V$ tal que $T(v)=0$ es el vector $v=0$. En otras palabras $T$ es inyectiva si y sólo si $\ker(T)=\{0\}$.

Demostración. Sean $V$ y $W$ espacios vectoriales y $T:V\to W$ una transformación lineal. Recordemos que sabemos que $T(0)=0$.

Si $T$ es inyectiva y $T(x)=0$, entonces $T(x)=T(0)$ y por inyectividad $x=0$, de modo que $x$ es el único vector que va a $0$ bajo $T$.

Si el único vector que bajo $T$ va a $0$ es el $0$ y tenemos que $T(x)=T(y)$, entonces usando que $T$ es lineal tenemos que $0=T(y)-T(x)=T(y-x)$. Así, por hipótesis $y-x=0$, es decir, $x=y$. Con esto queda mostrado que $T$ es inyectiva.

$\square$

Transformaciones lineales en bases dan toda la información

Conociendo los valores de una transformación lineal en algunos vectores, es posible determinar el valor de la transformación en otros vectores que son combinación lineal de los primeros. Considera el siguiente ejemplo.

Problema. La transformación lineal $T:M_2(\mathbb{R})\to\mathbb{R}^2$ cumple que $T\begin{pmatrix}
1 & 1\\
0 & 0
\end{pmatrix}=(1,0)$, $T\begin{pmatrix}
0 & 1 \\
0 & 1
\end{pmatrix}=(0,-1)$, $T\begin{pmatrix}
0 & 0\\
1 & 1
\end{pmatrix}=(-1,0)$ y $T\begin{pmatrix}
1 & 0\\
1 & 0
\end{pmatrix}=(0,1)$. Determina el valor de $T\begin{pmatrix} 3 & 3\\ 3 & 3\end{pmatrix}$.

Intenta resolver el problema por tu cuenta antes de ver la solución. Para ello, intenta poner a la matriz $\begin{pmatrix} 3 & 3\\ 3 & 3\end{pmatrix}$ como combinación lineal de las otras matrices y usar que $T$ es lineal.

Solución. Sean $A$, $B$, $C$ y $D$ las matrices de las cuales conocemos cuánto vale $T$ en ellas y $E$ la matriz con puros $3$’s. Queremos determinar el valor de $T(E)$. Notemos que $E=\frac{3}{2}(A+B+C+D)$. Como $T$ es transformación lineal, tenemos que

\begin{align*}
T(E)&=\frac{3}{2}(T(A)+T(B)+T(C)+T(D))\\
&=\frac{3}{2}((1,0)+(0,-1)+(-1,0)+(0,1))\\
&=(0,0).
\end{align*}

$\square$

En este problema lo que sirvió para encontrar el valor de $T(E)$ fue poner a la matriz $E$ como combinación lineal de las matrices $A,B,C,D$. De hecho, para cualquier matriz que sea combinación lineal de las matrices $A,B,C,D$, pudiéramos haber hecho lo mismo.

A partir de esta observación, podemos intuir que al conocer el efecto de transformaciones lineales en bases, podemos saber qué le hacen a cada elemento del espacio vectorial. El siguiente teorema enuncia esto de manera formal y dice un poco más.

Teorema. Sean $V$, $W$ espacios vectoriales, $B=\{v_1,v_2,\ldots,v_n\}$ una base de $V$ y $w_1,w_2,\ldots, w_n$ vectores cualesquiera de $W$. Entonces, existe una y sólo una transformación lineal $T:V\to W$ tal que $$T(v_1)=w_1,\quad T(v_2)=w_2, \quad \ldots, \quad T(v_n)=w_n.$$

Demostración. Probemos primero la parte de existencia. Como $B$ es base, cualquier vector $v$ de $V$ se puede escribir como $$a_1v_1+a_2v_2+\ldots+a_nv_n.$$ Construyamos la función $T:V\to W$ tal que $$T(v)=a_1w_1+a_2w_2+\ldots+a_nw_n.$$

Como para cada $i=1,\ldots,n$ tenemos que la combinación lineal de $v_i$ en términos de $B$ es $v_i=1\cdot v_i$, tenemos que $T(v_i)=1\cdot w_i=w_i$, que es una de las cosas que queremos. La otra que queremos es que $T$ sea lineal. Mostremos esto. Si $$v=a_1v_1+a_2v_2+\ldots+a_nv_n$$ y $$w=b_1v_1+b_2v_2+\ldots+b_nv_n,$$ entonces $$v+w=(a_1+b_1)v_1+
(a_2+b_2)v_2+\ldots+ (a_n+b_n)v_n,$$ y por definición $$T(v+w)=(a_1+b_1)w_1+ (a_2+b_2)w_2+\ldots+ (a_n+b_n)w_n.$$ Notemos que el lado derecho es igual a $T(v)+T(w)$, de modo que $T$ abre sumas. De manera similar se puede mostrar que $T$ saca escalares.

Esbocemos ahora la demostración de la unicidad. Supongamos que $T$ y $T’$ son transformaciones lineales de $V$ a $W$ tales que $T(v_i)=T'(v_i)=w_i$ para toda $i=1,\ldots,n$. Tenemos que mostrar que $T(v)=T'(v)$ para toda $v$. Para ello procedemos como en el problema antes de este teorema: escribimos a $v$ como combinación lineal de elementos de $B$. Esto se puede hacer de una única forma. El valor de $T(v)$ a su vez depende únicamente de $w_1,\ldots,w_n$ y de la los coeficientes en combinación lineal. El de $T'(v)$ también. Por lo tanto son iguales.

$\square$

Una consecuencia del teorema anterior, en la que no es necesario enunciar a las imágenes de la base, es la siguiente.

Corolario. Sean $V$ y $W$ espacios vectoriales, $B$ una base de $V$, y $T$ y $T’$ transformaciones lineales de $V$ a $W$. Si $T(v)=T'(v)$ para toda $v\in B$, entonces $T(v)=T'(v)$ para toda $v\in V$.

Más adelante…

Las propiedades que demostramos en esta entrada se usan con tanta frecuencia que muchas veces se aplican sin siquiera detenerse a argumentar por qué son válidas. Por esta razón, es importante que te familiarices con ellas. Otra ventaja de conocerlas a profundidad es que muchas veces ayudan a dar demostraciones sencillas o elegantes para algunos problemas. Finalmente, los hechos que aquí mostramos los usaremos prácticamente sin demostración en las siguientes entradas, en donde desarrollaremos la teoría de la forma matricial de transformaciones lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra qué le hace al vector $(7,3)$ una transformación lineal $T:\mathbb{R}^2\to \mathbb{R}$ tal que $T(2,1)=20$ y $T(7,2)=5$.
  • Determina si las matrices $A,B,C,D$ del problema de la entrada son una base para $M_2(\mathbb{R})$. Si no son una base, ¿cuál es la dimensión del subespacio que generan?
  • En el último teorema se afirma que la función que construimos saca escalares. Muestra esto.
  • De ese mismo teorema, escribe los detalles de que dicha función es única.
  • Demuestra el corolario enunciado en la entrada.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Proyecciones, simetrías y subespacios estables

Por Blanca Radillo

Introducción

Anteriormente introdujimos el concepto de transformaciones lineales entre dos espacios vectoriales. Vimos diversas propiedades que toda transformación lineal debe satisfacer. Finalmente, se presentaron las definiciones de kernel e imagen. Lo que haremos ahora es hablar de algunos tipos especiales de transformaciones lineales: las proyecciones y las simetrías. Para ello, aprovecharemos lo que ya estudiamos de suma y suma directas de subespacios.

Además, hablaremos del concepto de subespacios estables. Intuitivamente, un subespacio es estable para una transformación lineal si al aplicarla en elementos del subespacio, «no nos salimos del subespacio».

Proyecciones

Hablemos de una clase fundamental de transformaciones lineales: las proyecciones sobre subespacios. Para ellas, se comienza expresando a un espacio vectorial como una suma directa $V=W_1\oplus W_2$. Recuerda que, a grandes rasgos, esto quiere decir que cada vector $v$ de $V$ se puede expresar de manera única como $v=w_1+w_2$, donde $w_1$ está en $W_1$ y $w_2$ está en $W_2$.

Definición. Sea $V$ un espacio vectorial y sean $W_1$ y $W_2$ dos subespacios de $V$ tales que $V=W_1\oplus W_2$. La proyección sobre $W_1$ es la función $\pi_1:V\rightarrow W_1$ definido como: para cada $v\in V$, se tiene que $\pi_1(v)$ es el único vector en $W_1$ tal que $v-\pi_1(v)$ está en $W_2$.

De manera similar podemos definir la proyección sobre $W_2$, llamada $\pi_2:V\rightarrow W_2$.

Hay otra forma de decir esto. Dado que $V=W_1\oplus W_2$, para todo $v\in V$ existen únicos vectores $v_1\in W_1$ y $v_2\in W_2$ tales que $v=v_1+v_2$. Entonces $\pi_1(v)=v_1$ y $\pi_2(v)=v_2$.

Ejemplo. Sea $V=\mathbb{R}^2$, y sean $W_1=\{(a,0): a\in\mathbb{R}\}$ y $W_2=\{(0,b):b\in\mathbb{R}\}$. Sabemos que $W_1$ y $W_2$ son subespacios y que $V=W_1\oplus W_2$. Entonces, si $(a,b)\in V$, se tiene que $\pi_1((a,b))=(a,0)$ y $\pi_2((a,b))=(0,b)$.

$\triangle$

Cuando hablamos de una proyección $\pi$ de un espacio vectorial $V$, sin indicar el subespacio, de manera implícita nos referimos a una función para la cual existe una descomposición $V=W_1\oplus W_2$ tal que $\pi$ es la proyección sobre $W_1$.

Problema. Muestra que la transformación lineal $\pi:M_2(\mathbb{R})\to M_2(\mathbb{R})$ tal que $$\pi\begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} a + b & 0 \\ c & 0 \end{pmatrix}$$ es una proyección.

Solución. Para resolver el problema, tenemos que mostrar que se puede escribir $M_2(\mathbb{R})=W_1\oplus W_2$, de modo que $\pi$ sea una proyección sobre $W_1$.

Proponemos $$W_1=\left\{\begin{pmatrix} r & 0 \\ s & 0\end{pmatrix}: r,s, \in \mathbb{R}\right\}$$ y $W_2$ como $$W_2=\left\{\begin{pmatrix} -r & r \\ 0 & s\end{pmatrix}: r,s, \in \mathbb{R}\right\}.$$

Si una matriz está simultánteamente en $W_1$ y $W_2$, es sencillo mostrar que únicamente puede ser la matriz cero, es decir $O_2$. Esto lo puedes verificar por tu cuenta. Además, cualquier matriz en $M_2(\mathbb{R})$ se puede escribir como suma de elementos en $W_1$ y $W_2$ como sigue: $$\begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} a +b & 0 \\ c & 0 \end{pmatrix} + \begin{pmatrix} -b & b \\ 0 & d \end{pmatrix}.$$

Justo $\pi$ es la primer matriz. Esto muestra que $\pi$ es una proyección, pues es la proyección sobre $W_1$ en la descomposición $V=W_1\oplus W_2$.

$\square$

Aún no hemos mostrado que las proyecciones son transformaciones lineales. Hacemos esto a continuación.

Proposición. Sean $V$ un espacio vectorial, $W_1$ un subespacio vectorial de $V$ y $\pi:V\to W_1$ una proyección de $V$ sobre $W_1$. Entonces $\pi$ es una transformación lineal.

Demostración. Si $v,v’ \in V$ entonces $v+v’\in V$ y por definición de proyección tenemos que $\pi(v+v’)$ es el único vector en $W_{1}$ tal que:

$$(v+v’)-\pi(v+v’)\in W_{2},$$ por otra parte como $\pi(v)$ es el únco vector en $W_{1}$ tal que $v-\pi(v)\in W_{2}$ y $\pi(v’)$ es el único vector en $W_{1}$ tal que $v’-\pi(v’)\in W_{2}$ entonces $v-\pi(v)+v’-\pi(v’)\in W_{2}$ ya que $W_{2}$ es subespacio de $V$, es decir que $$(v+v’)-(\pi(v)+\pi(v’))\in W_{2}$$ y debido a que $\pi(v)+\pi(v’)\in W_{1}$, entonces tenemos la situación en la que existe un vector $\pi(v)+\pi(v’)\in W_{1}$ tal que $$(v+v’)-(\pi(v)+\pi(v’))\in W_{2},$$ pero $\pi(v+v’)$ es el único vector en $W_{1}$ tal que $(v+v’)-\pi(v+v’)\in W_{2}$, esto implica que $$\pi(v+v’)=\pi(v)+\pi(v’).$$ Así concluimos que $\pi$ abre sumas.

Para comprobar que $\pi$ saca escalares consideremos cualquier $v\in V$ y cualquier $c\in F$, tenemos que $cv\in V$ (pues $V$ es espacio vectorial), por definición de proyección tenemos que $\pi(cv)$ es el único vector en $W_{1}$ tal que $$cv-\pi(cv)\in W_{2},$$ por otra parte $\pi(v)$ es el único vector de $W_{1}$ tal que $v-\pi(v)\in W_{2}$ entonces $c(v-\pi(v))=cv-c\pi(v)\in W_{2}$. Como $c\pi(v)\in W_{1}$ tal que $cv-c\pi(v)\in W_{2}$ entonces $$\pi(cv)=c\pi(v)$$ debido a la unicidad de $\pi(cv)$, por lo que $\pi$ saca escalares. Como $\pi$ abre sumas y saca escalares concluimos que $\pi$ es una transformación lineal.

$\square$

Finalmente, notemos que $\pi(v)=v$ para todo $v\in W_1$ pero $\pi(v)=0$ si $v\in W_2$.

Simetrías

Una segunda clase importante de trasnformaciones lineales son las simetrías.

Definición. Sea una descomposición $V=W_1\oplus W_2$, con $W_1, W_2$ dos subespacios de $V$. Decimos que $s:V\rightarrow V$ es una simetría con respecto a $W_1$ a lo largo de $W_2$ si para todo $v\in V$, escrito como $v=v_1+v_2$ con $v_1\in W_1$ y $v_2 \in W_2$, tenemos que $$s(v)=v_1-v_2.$$

Al igual que con las proyecciones, no es dificil ver que las simetrías son transformaciones lineales.

Proposición. Sea $s:V\rightarrow V$ una simetría con respecto a $W_1$ a lo largo de $W_2$. Entonces, $s$ es una transformación lineal.

Demostración. Sean $v,v’ \in V$. Sean $v_1,v’_1\in W_1$ y $v_2,v’_2 \in W_2$ tales que $v=v_1+v_2$ y $v’=v’_1+v’_2$. Eso implica que $v+v’=(v_1+v’_1)+(v_2+v’_2)$ con $v_1+v’_1 \in W_1$ y $v_2+v’_2 \in W_2$. Entonces
$$s(v)+s(v’)=(v_1-v_2)+(v’_1-v’_2) =(v_1+v’_1)-(v_2+v’_2)= s(v+v’).$$
Ahora sea $a\in F$, entonces $as(v)=a(v_1-v_2)=av_1-av_2=s(av_1+av_2)=s(av)$. Por lo tanto, $s$ es una transformación lineal.

$\square$

Notemos que si $v\in W_1$, entonces $s(v)=v-0=v$, y si $v\in W_2$, entonces $s(v)=0-v=-v$.

Subespacios estables

Observemos que las proyecciones y las simetrías satisfacen que $\pi(W_1)=W_1$ y $s(W_1)=W_1$. Esta es una propiedad muy linda, pero en general, si $T:V\rightarrow V$ es una transformación lineal cualquiera y $W$ un subespacio de $V$, no siempre tenemos que $T(W)=W$, o ni siquiera que $T(W)\subset W$. Es decir, aunque tomemos un vector $w$ en $W$, puede pasar que $T(w)$ ya «esté fuera» de $W$.

Los subespacios $W$ que sí satisfacen esta última propiedad son cruciales en el estudio de este curso, y por ello, merecen un nombre especial.

Definición. Sea $V$ un espacio vectorial y $T:V\rightarrow V$ una transformación lineal. Si $W$ es un subespacio de $V$ tal que $T(W)\subset W$, decimos que $W$ es un subespacio estable bajo $T$.

En otras palabras, $W$ es estable bajo $T$ si para todo $v$ en $W$ se tiene que $T(v)$ también está en $W$. Un ejemplo trivial es la transformación identidad con cualquier subespacio $W$. Otro ejemplo trivial es que $V$ y $\{0\}$ son dos subespacios estables bajo cualquier transformación lineal $T:V\rightarrow V$. Otros ejemplos son los ya mencionados: las proyecciones y las simetrías.

En el siguiente ejemplo encontraremos todos los subespacios estables para una cierta transformación.

Ejemplo. Consideremos el mapeo $T:\mathbb{R}^2\rightarrow \mathbb{R}^2$ con $T(x,y)=(y,-x)$. Claramente $T$ es lineal. Sea $W$ un subespacio estable de $\mathbb{R}^2$ bajo $T$. Supongamos que $W$ no es ni $\mathbb{R}^2$, ni el subespacio trivial $\{ (0,0) \}$.

Veremos que no hay ningún otro subespacio estable. Procedamos por contradicción. Suponiendo que hay otro subespacio estable $W$, su dimensión tendría que ser exactamente $1$. Eso implica que $W$ está generado por un vector no cero, digamos $v=(x,y)$. Es decir, cada $w\in W$ lo podemos escribir como $w=av$ donde $a$ es un escalar. En particular $v\in W$.

Como $W$ es estable bajo $T$, entonces $T(v)\in W$, esto es $T(v)=cv$ para algún $c$. Así,
\begin{align*}
(y,-x)&=T((x,y))\\&=T(v)\\&=cv\\&=c(x,y)\\&=(cx,cy).
\end{align*} Igualando ambos extremos, obtenemos que$y=cx$ y $-x=cy$, lo cual implica que $(c^2+1)x=0$. Como $c$ es real, esto implica $x=0$ y por lo tanto $y=0$. Concluimos que $v=(0,0)$, lo cual es una contradicción.

Esto demuestra que los únicos subespacios estables bajo $T$ son $\mathbb{R}^2$ y $\{(0,0)\}$.

$\square$

El siguiente problema estudia un problema inverso. En ella se encuentran todas las transformaciones lineales que dejan fijas «todas las rectas por el vector $0$».

Problema. Sea $V$ un espacio vectorial y $T:V\rightarrow V$ una transformación lineal tal que, para todo $v\in V$, se tiene que $\text{span}(v)$ es un subespacio estable bajo $T$. Entonces existe un escalar $c\in F$ tal que $T(x)=cx$ para todo $x\in V$.

Demostración. Sea $x\in V$ un vector distinto de $0$. Si $L=\text{span}(x)$, tenemos que $T(L)\subset L$ por hipótesis. En particular $T(x)\in L$ y por lo tanto existe $c_x$ tal que $T(x)=c_x x$. Queremos probar que esa constante realmente no depende de $x$.

Sea $y\in V$. Hay dos opciones: $x,y$ son linealmente independientes o no. Supongamos primero que $x,y$ son linealmente independientes. Entonces $x+y \neq 0$ y la igualdad $T(x+y)=T(x)+T(y)$ puede ser escrita como $c_{x+y} (x+y)=c_x x+c_y y$, esto es equivalente a $(c_{x+y}-c_x)x+(c_{x+y}-c_y) y=0.$ Por independencia lineal, $c_{x+y}-c_x=c_{x+y}-c_y=0$ y por lo tanto. $c_x=c_{x+y}=c_y$.

Ahora si $x,y$ no son linealmente independientes, es porque $y=0$ (en cuyo caso cualquier $c_y$ funciona, en particular $c_x$) o bien porque $y=ax$ para algún escalar $a$ no cero. Entonces la igualdad $T(y)=T(ax)=aT(x)$ puede ser escrita como $c_y y=ac_x x=c_x y$, y esto implica que $c_y=c_x$.

En cualquier caso, hemos mostrado que para todo $y\in V$, se tiene que $c_x=c_y$. Definiendo $c=c_x$, se satisface la afirmación de la proposición.

$\square$

Las imágenes y kernels son estables

Otros ejemplos importantes de subespacios estables son las imágenes y los kernels. Esto únicamente funciona para cuando tenemos una transformación lineal de un espacio vectorial a sí mismo.

Proposición. Sea $T:V\to V$ una transformación lineal. Entonces $\ker(T)$ e $\Ima(T)$ son subespacios estables bajo $T$.

Demostración. En la entrada anterior ya vimos que $\ker(T)$ e $\Ima(T)$ son subespacios de $V$. Veamos que son estables bajo $T$.

Tomemos $v\in \ker(T)$. Tenemos que mostrar que $T(v)\in \ker(T)$. Pero esto es cierto pues $$T(T(v))=T(0)=0.$$ Así $T(\ker(T))\subset \ker(T)$ y por lo tanto $\ker(T)$ es estable bajo $T$.

Ahora tomemos $v\in \Ima(T)$. De manera inmediata, $T(v)\in \Ima(T)$. Así, $\Ima(T)$ es estable bajo $T$.

$\square$

Más adelante…

Las proyecciones y simetrías son dos ejemplos de transformaciones lineales que tienen propiedades específicas. Más adelante, cuando hablemos de geometría de espacios vectoriales y del proceso de Gram-Schmidt, veremos que las proyecciones satisfacen propiedades interesantes en términos de ciertas distancias.

La teoría de subespacios estables es muy útil a la hora de construir bases de subespacios vectoriales de manera inductiva. De hecho, los resultados en esta dirección son uno de los ingredientes que usaremos en la demostración del teorema estelar del curso: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $Y$ es el subespacio $Y=\{(0,r,0): r\in \mathbb{R}\}$ de $\mathbb{R}^3$. Argumenta por qué la transformación $\pi:\mathbb{R}^3\to Y$ dada por $\pi(x,y,z)=(0,y,0)$ es una proyección sobre $Y$. Para ello tendrás que encontrar un subespacio $W$ de $\mathbb{R}^3$ tal que $\mathbb{R}^3=Y\oplus W$ y con el cual $\pi(x,y,z)$ satisface la definición.
  • Sea $X$ el subespacio $X=\{(r,0,0): r\in \mathbb{R} \}$. ¿Es posible ver a la transformación $T:\mathbb{R}^3 \to X$ dada por $T(x,y,z)=(x+y+z,0,0)$ como una proyección sobre $X$? Si tu respuesta es sí, tendrás que dar un espacio $W$ bajo el cual se satisfaga la definición. Si tu respuesta es no, tendrás que mostrar que ningún subespacio $W$ funciona.
  • En el ejemplo de la sección de subespacios estables, ¿qué sucede si trabajamos en $\mathbb{C}^2$ en vez de en $\mathbb{R}^2$? ¿Quienes serían todos los subespacios estables?
  • Sea $B=\{v_1,v_2,\ldots,v_n\}$ una base para un espacio vectorial $V$ sobre un campo $F$. Sea $V_i$ el espacio vectorial generado por $v_i$, es decir, el conjunto de vectores de la forma $cv_i$ con $c\in F$. Como $B$ es base, cada vector $v\in V$ puede escribirse de la forma $$a_1v_1+a_2v_2+\ldots+a_nv_n$$ de manera única. Muestra que para toda $i\in\{1,2,\ldots,n\}$ la función $\pi_i(v)=a_iv_i$ es una proyección sobre $V_i$.
  • Para cada entero $n$, muestra que $\mathbb{R}_n[x]$ es un subespacio de $\mathbb{R}[x]$ que es estable bajo la transformación lineal $T$ que manda a cada polinomio $p(x)$ a su derivada $T(p(x))=p'(x)$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»