Álgebra Lineal I: Transformaciones multilineales antisimétricas y alternantes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior hablamos de la importancia que tiene poder diagonalizar una matriz: nos ayuda a elevarla a potencias y a encontrar varias de sus propiedades fácilmente. En esa entrada discutimos a grandes rasgos el caso de matrices en $M_2(\mathbb{R})$. Dijimos que para dimensiones más altas, lo primero que tenemos que hacer es generalizar la noción de determinante de una manera que nos permita probar varias de sus propiedades fácilmente. Es por eso que introdujimos a las funciones multilineales y dimos una introducción a permutaciones. Tras definir las clases de transformaciones multilineales alternantes y antisimétricas, podremos finalmente hablar de determinantes.

Antes de entrar con el tema, haremos un pequeño recordatorio. Para $d$ un entero positivo y $V$, $W$ espacios vectoriales sobre un mismo campo, una transformación $d$-lineal es una transformación multilineal de $V^d$ a $W$, es decir, una tal que al fijar cualesquiera $d-1$ coordenadas, la función que queda en la entrada restante es lineal.

Con $[n]$ nos referimos al conjunto $\{1,2,\ldots,n\}$. Una permutación en $S_n$ es una función biyectiva $\sigma:[n]\to [n]$. Una permutación invierte a la pareja $i<j$ si $\sigma(i)>\sigma(j)$. Si una permutación $\sigma$ invierte una cantidad impar de parejas, decimos que es impar y que tiene signo $\text{sign}(\sigma)=-1$. Si invierte a una cantidad par de parejas (tal vez cero), entonces es par y tiene signo $\text{sign}(\sigma)=1$.

Transformaciones $n$-lineales antisimétricas y alternantes

Tomemos $d$ un entero positivo, $V$, $W$ espacios vectoriales sobre el mismo campo y $\sigma$ una permutación en $S_d$. Si $T:V^d\to W$ es una transformación $d$-lineal, entonces la función $(\sigma T):V^d\to W$ dada por $$(\sigma T)(v_1,\ldots,v_d)=T(v_{\sigma(1)},v_{\sigma(2)},\ldots,v_{\sigma(d)})$$ también lo es. Esto es ya que sólo se cambia el lugar al que se lleva cada vector. Como $T$ es lineal en cualquier entrada (al fijar las demás), entonces $\sigma T$ también.

Definición. Decimos que $T$ es antisimétrica si $\sigma T = \text{sign}(\sigma) T$ para cualquier permutación $\sigma$ en $S_d$. En otras palabras, $T$ es antisimétrica si $\sigma T=T$ para las permutaciones pares y $\sigma T = -T$ para las permutaciones impares.

Definición. Decimos que $T$ es alternante si $T(v_1,\ldots,v_d)=0$ cuando hay dos $v_i$ que sean iguales.

Ejemplo. Consideremos la función $T:(\mathbb{R}^2)^2\to\mathbb{R}$ dada por $$T((a,b),(c,d))=ad-bc.$$ Afirmamos que ésta es una transformación $2$-lineal alternante y antisimétrica. La parte de mostrar que es $2$-lineal es sencilla y se queda como tarea moral.

Veamos primero que es una función alternante. Tenemos que mostrar que si $(a,b)=(c,d)$, entonces $T((a,b),(c,d))=0$. Para ello, basta usar la definición: $$T((a,b),(a,b))=ab-ab=0.$$

Ahora veamos que es una función antisimétrica. Afortunadamente, sólo hay dos permutaciones en $S_2$, la identidad $\text{id}$ y la permutación $\sigma$ que intercambia a $1$ y $2$. La primera tiene signo $1$ y la segunda signo $-1$.

Para la identidad, tenemos $(\text{id}T)((a,b),(c,d))=\sigma((a,b),(c,d))$, así que $(\text{id}T)=T=\text{sign}(\text{id})T$, como queremos.

Para $\sigma$, tenemos que $\sigma T$ es aplicar $T$ pero «con las entradas intercambiadas». De este modo:
\begin{align*}
(\sigma T)((a,b),(c,d))&=T((c,d),(a,b))\\
&=cb-da\\
&=-(ad-bc)\\
&=-T((a,b),(c,d)).
\end{align*}

Esto muestra que $(\sigma T) = -T = \text{sign}(\sigma)T$.

$\square$

Equivalencia entre alternancia y antisimetría

Resulta que ambas definiciones son prácticamente la misma. Las transformaciones alternantes siempre son antisimétricas. Lo único que necesitamos para que las transformaciones antisimétricas sean alternantes es que en el campo $F$ en el que estamos trabajando la ecuación $2x=0$ sólo tenga la solución $x=0$. Esto no pasa, por ejemplo, en $\mathbb{Z}_2$. Pero sí pasa en $\mathbb{Q}$, $\mathbb{R}$ y $\mathbb{C}$.

Proposición. Sean $V$ y $W$ espacios vectoriales sobre un campo donde $2x=0$ sólo tiene la solución $x=0$. Sea $d$ un entero positivo. Una transformación $d$-lineal $T:V^d\to W$ es antisimétrica si y sólo si es alternante.

Demostración. Supongamos primero que $T$ es antisimétrica. Mostremos que es alternante. Para ello, supongamos que para $i\neq j$ tenemos que $x_i=x_j$.

Tomemos la permutación $\sigma:[d]\to [d]$ tal que $\sigma(i)=j$, $\sigma(j)=i$ y $\sigma(k)=k$ para todo $k$ distinto de $i$ y $j$. A esta permutación se le llama la transposición $(i,j)$. Es fácil mostrar (y queda como tarea moral), que cualquier transposición tiene signo $-1$.

Usando la hipótesis de que $T$ es antisimétrica con la transposición $(i,j)$, tenemos que
\begin{align*}
T(x_1,&\ldots, x_i,\ldots,x_j,\ldots,x_n)\\
&=-T(x_1,\ldots, x_j,\ldots,x_i,\ldots,x_n)\\
&=-T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n),
\end{align*}

en donde en la segunda igualdad estamos usando que $x_i=x_j$. De este modo, $$2T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n)=0,$$ y por la hipótesis sobre el campo, tenemos que $$T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n)=0.$$ Así, cuando dos entradas son iguales, la imagen es $0$, de modo que la transformación es alternante.

Hagamos el otro lado de la demostración. Observa que este otro lado no usará la hipótesis del campo. Supongamos que $T$ es alternante.

Como toda permutación es producto de transposiciones y el signo de un producto de permutaciones es el producto de los signos de los factores, basta con mostrar la afirmación para transposiciones. Tomemos entonces $\sigma$ la transposición $(i,j)$. Tenemos que mostrar que $\sigma T = \text{sign}(\sigma) T = -T$.

Usemos que $T$ es alternante. Pondremos en las entradas $i$ y $j$ a la suma de vectores $x_i+x_j$, de modo que $$T(x_1,\ldots,x_i+x_j,\ldots,x_i+x_j,\ldots,x_n)=0.$$ Usando la $n$-linealidad de $T$ en las entradas $i$ y $j$ para abrir el término a la izquierda, tenemos que
\begin{align*}
0=T(x_1&,\ldots,x_i,\ldots,x_i,\ldots,x_n) + \\
&T(x_1,\ldots,x_i,\ldots,x_j,\ldots,x_n)+\\
&T(x_1,\ldots,x_j,\ldots,x_i,\ldots,x_n)+\\
&T(x_1,\ldots,x_j,\ldots,x_j,\ldots,x_n).
\end{align*}

Usando de nuevo que $T$ es alternante, el primero y último sumando son cero. Así, \begin{align*}
T(x_1&,\ldots, x_i,\ldots,x_j,\ldots,x_n)\\
&=-T(x_1,\ldots, x_j,\ldots,x_i,\ldots,x_n).
\end{align*}

En otras palabras, al intercambiar las entradas $i$ y $j$ se cambia el signo de $T$, que precisamente quiere decir que $(\sigma T) = \text{sign}(\sigma)T$.

$\square$

Las transformaciones alternantes se anulan en linealmente dependientes

Una propiedad bastante importante de las transformaciones alternantes es que ayudan a detectar a conjuntos de vectores linealmente dependientes.

Teorema. Sea $T:V^d\to W$ una transformación $d$-lineal y alternante. Supongamos que $v_1,\ldots,v_d$ son linealmente dependientes. Entonces $$T(v_1,v_2,\ldots,v_d)=0.$$

Demostración. Como los vectores son linealmente dependientes, hay uno que está generado por los demás. Sin perder generalidad, podemos suponer que es $v_d$ y que tenemos $$v_d=\alpha_1v_1+\ldots+\alpha_{d-1}v_{d-1}$$ para ciertos escalares $\alpha_1,\ldots, \alpha_{d-1}$.

Usando la $d$-linealidad de $T$, tenemos que
\begin{align*}
T\left(v_1,v_2,\ldots,v_{d-1},v_d\right)&=T\left(v_1,\ldots,v_{d-1},\sum_{i=1}^{d-1} \alpha_i v_i\right)\\
&=\sum_{i=1}^{d-1} \alpha_i T(v_1,\ldots,v_{d-1}, v_i).
\end{align*}

Usando que $T$ es alternante, cada uno de los sumandos del lado derecho es $0$, pues en el $i$-ésimo sumando tenemos que aparece dos veces el vector $v_i$ entre las entradas de $T$. Esto muestra que $$T(v_1,\ldots,v_d)=0,$$ como queríamos mostrar.

$\square$

Introducción a definiciones de determinantes

En la siguiente entrada daremos tres definiciones de determinante. Una es para un conjunto de vectores. Otra es para transformaciones lineales. La última es para matrices. Todas ellas se motivan entre sí, y las propiedades de una nos ayudan a probar propiedades de otras. En esa entrada daremos las definiciones formales. Por ahora sólo hablaremos de ellas de manera intuitiva.

Para definir el determinante para un conjunto de vectores, empezamos con un espacio vectorial $V$ de dimensión $n$ y tomamos una base $B=(b_1,\ldots,b_n)$. Definiremos el determinante con respecto a $B$ de un conjunto de vectores $(v_1,v_2,\ldots,v_n)$ , al cual denotaremos por $\det_{(b_1,\ldots,b_n)}(v_1,\ldots,v_n)$de $V$ de la manera siguiente.

A cada vector $v_i$ lo ponemos como combinación lineal de elementos de la base: $$v_i=\sum_{j=1}^n a_{ji}b_j.$$ El determinante $$\det_{(b_1,\ldots,b_n)}(v_1,\ldots,v_n)$$ es $$\sum_{\sigma \in S(n)} \text{sign}(\sigma) a_{1\sigma(1)} \cdot a_{2\sigma(1)}\cdot \ldots\cdot a_{n\sigma(n)}.$$

Observa que esta suma tiene tantos sumandos como elementos en $S_n$, es decir, como permutaciones de $[n]$. Hay $n!$ permutaciones, así que esta suma tiene muchos términos incluso si $n$ no es tan grande.

Veremos que para cualquier base $B$, el determinante con respecto a $B$ es una forma $d$-lineal alternante, y que de hecho las únicas formas $d$-lineales alternantes en $V$ «son determinantes», salvo una constante multiplicativa.

Luego, para una transformación $T:V\to V$ definiremos al determinante de $T$ como el determinante $$\det_{(b_1,\ldots,b_n)}(T(b_1),\ldots,T(b_n)),$$ y veremos que esta definición no depende de la elección de base.

Finalmente, para una matriz $A$ en $M_n(F)$, definiremos su determinante como el determinante de la transformación $T_A:F^n\to F^n$ tal que $T_A(X)=AX$. Veremos que se recupera una fórmula parecida a la de determinante para un conjunto de vectores.

Los teoremas que veremos en la siguiente entrada nos ayudarán a mostrar más adelante de manera muy sencilla que el determinante para funciones o para matrices es multiplicativo, es decir, que para $T:V\to V$, $S:V\to V$ y para matrices $A,B$ en $M_n(F)$ se tiene que

\begin{align*}
\det(T\circ S)&=\det(T)\cdot \det(S)\\
\det(AB)&=\det(A)\cdot \det(B).
\end{align*}

También mostraremos que los determinantes nos ayudan a caracterizar conjuntos linealmente independientes, matrices invertibles y transformaciones biyectivas.

Más Adelante…

En esta entrada hemos definido las clases de transformaciones lineales alternantes y antisimétricas; esto con la finalidad de introducir el concepto de determinantes. Además hemos dado una definición intuitiva del concepto de determinante.

En las siguientes entrada estudiaremos diferentes definiciones de determinante: para un conjunto de vectores, para una transformación lineal y finalmente para una matriz. Veremos cómo el uso de determinantes nos ayuda a determinar si un conjunto es linealmente independiente, si una matriz es invertible o si una transformación es biyectiva; además de otras aplicaciones.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Prueba que la función $T:(\mathbb{R}^2)^2\to\mathbb{R}$ dada por $$T((a,b),(c,d))=ad-bc$$ es $2$-lineal. Para esto, tienes que fijar $(a,b)$ y ver que es lineal en la segunda entrada, y luego fijar $(c,d)$ y ver que es lineal en la primera.
  • Muestra que las transposiciones tienen signo $-1$. Ojo: sólo se intercambia el par $(i,j)$, pero puede ser que eso haga que otros pares se inviertan.
  • Muestra que cualquier permutación se puede expresar como producto de transposiciones.
  • Muestra que la suma de dos transformaciones $n$-lineales es una transformación $n$-lineal. Muestra que al multiplicar por un escalar una transformación $n$-lineal, también se obtiene una transformación $n$-lineal.
  • ¿Es cierto que la suma de transformaciones $n$-lineales alternantes es alternante?

Al final del libro Essential Linear Algebra with Applications de Titu Andreescu hay un apéndice en el que se habla de permutaciones. Ahí puedes aprender o repasar este tema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de bases ortogonales, Fourier y proceso de Gram-Schmidt

Por Blanca Radillo

Introducción

Durante las últimas clases hemos visto problemas y teoremas que nos demuestran que las bases ortogonales son extremadamente útiles en la práctica, ya que podemos calcular fácilmente varias propiedades una vez que tengamos a nuestra disposición una base ortogonal del espacio que nos interesa. Veamos más problemas de bases ortogonales y otros resultados que nos permitirán reforzar estas ideas.

Problemas resueltos de bases ortogonales y proyecciones

Para continuar con este tema, veremos que las bases ortogonales nos permiten encontrar de manera sencilla la proyección de un vector sobre un subespacio. Primero, recordemos que si $V=W\oplus W_2$, para todo $v\in V$ podemos definir su proyección en $W$, que denotamos $\pi_W(v)$, como el único elemento en $W$ tal que $v-\pi_W(v) \in W_2$.

Debido a las discusiones sobre bases ortogonales, no es difícil ver que si $\langle w,u \rangle =0$ para todo $w\in W$, entonces $u\in W_2$. Como consecuencia de esto, tenemos el siguiente resultado:

Teorema. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interior $\langle \cdot , \cdot \rangle$, y sea $W$ un subespacio de $V$ de dimensión finita. Sea $v_1,\cdots,v_n$ una base ortogonal de $W$. Entonces para todo $v\in V$ tenemos que

$\pi_W(v)=\sum_{i=1}^n \frac{\langle v,v_i \rangle}{\norm{v_i}^2} v_i .$

Demostración. Escribimos $v$ como $v=\pi_W(v)+u$ con $u\in W_2$. Por la observación previa al teorema, $\langle u,v_i \rangle =0$ para todo $i$. Además existen $a_1,\cdots,a_n$ tales que $\pi_W(v)=a_1 v_1+\cdots+a_n v_n$. Entonces

\begin{align*}
0 &= \langle u,v_i \rangle =\langle v,v_i \rangle – \langle \pi_W(v),v_i \rangle \\
&= \langle v,v_i \rangle – \sum_{j=1}^n a_j \langle v_j,v_i \rangle \\
&= \langle v,v_i \rangle – a_i \langle v_i,v_i \rangle,
\end{align*}

porque $v_1,\cdots,v_n$ es una base ortogonal. Por lo tanto, para todo $i$, obtenemos

$a_i=\frac{\langle v,v_i \rangle}{\norm{v_i}^2}.$

$\square$

Distancia de un vector a un subespacio y desigualdad de Bessel

En la clase de ayer, vimos la definición de distancia entre dos vectores. También se puede definir la distancia entre un vector y un subconjunto como la distancia entre el vector y el vector «más cercano» del subconjunto, en símbolos:

$d(v,W)=\min_{x\in W} \norm{x-v}.$

Dado que $x\in W$, $x-\pi_W(v) \in W$, y por definición de proyección $v-\pi_W(v) \in W_2$, entonces

\begin{align*}
\norm{x-v}^2 &=\norm{(x-\pi_W(v))+(\pi_W(v)-v)}^2 \\
&= \norm{x-\pi_W(v)}^2+2\langle x-\pi_W(v),\pi_W(v)-v \rangle+\norm{\pi_W(v)-v}^2 \\
&= \norm{x-\pi_W(v)}^2+\norm{\pi_W(v)-v}^2\\
&\geq \norm{\pi_W(v)-v}^2.
\end{align*}

Y dado que la proyección pertenece a $W$, la desigualdad anterior muestra que la proyección es precisamente el vector en $W$ con el que $v$ alcanza la distancia a $W$. En conclusión, $$d(v,W)=\norm{\pi_W(v)-v}.$$

Teorema. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interior $\langle \cdot , \cdot \rangle$, y sea $W$ un subespacio de $V$ de dimensión finita. Sea $v_1,\ldots,v_n$ una base ortonormal de $W$. Entonces para todo $v\in V$ tenemos que

$\pi_W(v)=\sum_{i=1}^n \langle v,v_i \rangle v_i,$

y

\begin{align*}
d(v,W)^2&=\norm{v-\sum_{i=1}^n \langle v,v_i \rangle v_i }^2\\
&=\norm{v}^2-\sum_{i=1}^n \langle v,v_i \rangle^2.
\end{align*}

En particular

$\sum_{i=1}^n \langle v,v_i \rangle^2\leq \norm{v}^2.$

A esta última desigualdad se le conoce como desigualdad de Bessel.

Demostración. Por el teorema anterior y dado que $v_1,\cdots,v_n$ es una base ortonormal, obtenemos la primera ecuación. Ahora, por Pitágoras,

$d(v,W)^2=\norm{v-\pi_W(v)}^2=\norm{v}^2-\norm{\pi_W(v)}^2.$

Por otro lado, tenemos que

\begin{align*}
\norm{\pi_W(v)}^2 &=\norm{\sum_{i=1}^n \langle v,v_i \rangle v_i}^2 \\
&= \sum_{i,j=1}^n \langle \langle v,v_i \rangle v_i, \langle v,v_j \rangle v_j \rangle \\
&= \sum_{i,j=1}^n \langle v,v_i \rangle \langle v,v_j \rangle \langle v_i,v_j \rangle \\
&=\sum_{i=1}^n \langle v,v_i \rangle^2.
\end{align*}

Por lo tanto, se cumple la igualdad de la distancia. Finalmente como $d(v,W)^2 \geq 0$, inmediatamente tenemos la desigualdad de Bessel.

$\square$

Veamos ahora dos problemas más en los que usamos la teoría de bases ortonormales.

Aplicación del proceso de Gram-Schmidt

Primero, veremos un ejemplo más del uso del proceso de Gram-Schmidt.

Problema. Consideremos $V$ como el espacio vectorial de polinomios en $[0,1]$ de grado a lo más $2$, con producto interior definido por $$\langle p,q \rangle =\int_0^1 xp(x)q(x) dx.$$

Aplica el algoritmo de Gram-Schmidt a los vectores $1,x,x^2$.

Solución. Es fácil ver que ese sí es un producto interior en $V$ (tarea moral). Nombremos $v_1=1, v_2=x, v_3=x^2$. Entonces

$$e_1=\frac{v_1}{\norm{v_1}}=\sqrt{2}v_1=\sqrt{2},$$

ya que $$\norm{v_1}^2=\int_0^1 x \, dx=\frac{1}{2}.$$

Sea $z_2=v_2-\langle v_2,e_1 \rangle e_1$. Calculando, $$\langle v_2,e_1 \rangle=\int_0^1 \sqrt{2}x^2 dx=\frac{\sqrt{2}}{3}.$$ Entonces $z_2=x-\frac{\sqrt{2}}{3}\sqrt{2}=x-\frac{2}{3}.$ Esto implica que

$e_2=\frac{z_2}{\norm{z_2}}=6\left(x-\frac{2}{3}\right)=6x-4.$

Finalmente, sea $z_3=v_3-\langle v_3,e_1\rangle e_1 -\langle v_3,e_2 \rangle e_2$. Haciendo los cálculos obtenemos que

$z_3=x^2-\left(\frac{\sqrt{2}}{4}\right)\sqrt{2}-\left(\frac{1}{5}\right)(6x-4)$

$z_3=x^2-\frac{6}{5}x+\frac{3}{10}.$

Por lo tanto

$e_3=\frac{z_3}{\norm{z_3}}=10\sqrt{6}(x^2-\frac{6}{5}x+\frac{3}{10}).$

$\triangle$

El teorema de Plancherel y una fórmula con $\pi$

Finalmente, en este ejemplo, usaremos técnicas de la descomposición de Fourier para solucionar un problema bonito de series.

Problema. Consideremos la función $2\pi-$periódica $f:\mathbb{R}\rightarrow \mathbb{R}$ definida como $f(0)=f(\pi)=0,$ $f(x)=-1-\frac{x}{\pi}$ en el intervalo $(-\pi,0)$, y $f(x)=1-\frac{x}{\pi}$ en el intervalo $(0,\pi)$.

Problemas de bases ortogonales: Aplicando el teorema de Plancherel para una fórmula que involucra a pi.
Gráfica de la función $f$.

Usa el teorema de Plancherel para deducir las identidades de Euler

\begin{align*}
\sum_{n=1}^\infty \frac{1}{n^2} &= \frac{\pi^2}{6},\\
\sum_{n=0}^\infty \frac{1}{(2n+1)^2} & = \frac{\pi^2}{8}.
\end{align*}

Solución. Notemos que no sólo es $2\pi-$periódica, también es una función impar, es decir, $f(-x)=-f(x)$. Por lo visto en la clase del miércoles pasado tenemos que calcular

$a_0(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x) dx,$

$a_k(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x) cos(kx) dx,$

$b_k(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x)sen(kx) dx.$

Para no hacer más larga esta entrada, la obtención de los coeficientes de Fourier se los dejaremos como un buen ejercicio de cálculo. Para hacer las integrales hay que separar la integral en cada uno de los intervalos $[-\pi,0]$ y $[0,\pi]$ y en cada uno de ellos usar integración por partes.

El resultado es que para todo $k\geq 1$, $$a_0=0, a_k=0, b_k=\frac{2}{k\pi}.$$

Entonces por el teorema de Plancherel,

\begin{align*}
\sum_{k=1}^\infty \frac{4}{k^2\pi^2} &=\frac{1}{\pi} \int_{-\pi}^{\pi} f^2(x) dx \\
&= \frac{1}{\pi} \left( \int_{-\pi}^0 \left(1+\frac{x}{\pi}\right)^2 dx + \int_0^\pi \left(1-\frac{x}{\pi}\right)^2 dx \right) \\
&= \frac{2}{3},
\end{align*}

teniendo que $$\sum_{k=1}^\infty \frac{1}{k^2} =\frac{2}{3}\frac{\pi^2}{4}=\frac{\pi^2}{6}.$$

Ahora para obtener la otra identidad de Euler, notemos que

\begin{align*}
\sum_{n=0}^\infty \frac{1}{(2n+1)^2} &= \sum_{n=1}^\infty \frac{1}{n^2} – \sum_{n=1}^\infty \frac{1}{(2n)^2} \\
&= \frac{\pi^2}{6}-\frac{\pi^2}{4\cdot6}= \frac{\pi^2}{8}.
\end{align*}

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Seminario de Resolución de Problemas: Coeficientes binomiales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Los coeficientes binomiales aparecen en muchos problemas de matemáticas, y por ello es útil conocerlos bien y saber sus propiedades básicas. En esta entrada hablaremos de varios aspectos de los coeficientes binomiales: algebraicos, combinatorios y de teoría de números. Aunque resolvamos un problema con una técnica en particular, te recomendamos intentar usar las distintas herramientas en otros problemas, para conocer sus alcances y limitaciones.

Antes de empezar, ponemos una figura con un hecho curioso acerca de los coeficientes binomiales:

Coeficientes binomiales, Pascal y Fibonacci
«Las sumas de las diagonales del triángulo de Pascal dan los números de Fibonacci»

Definición algebraica de coeficientes binomiales

Como recordatorio, para $n\geq 0$ un entero, definimos $n!$ recursivamente como $0!=1$ y $n!=n(n-1)!$. En otras palabras, para $n\geq 1$ tenemos $$n!=1\cdot 2\cdot \ldots \cdot n.$$

Definimos para $n\geq 0$ un entero y $k$ un entero en $\{0,\ldots,n\}$al coeficiente binomial $n$ en $k$ como $$\binom{n}{k}:=\frac{n!}{k!(n-k)!}.$$ Si $n$ es un entero negativo o $k$ es un entero fuera del rango $\{0,\ldots,n\}$ es conveniente definir $\binom{n}{k}=0$.

A partir de la definición, es claro que $\binom{n}{n}=\binom{n}{0}=1$ para todo entero positivo $n$. Lo que no es inmediato a partir de la definición es que $\binom{n}{k}$ siempre sea un entero. Veremos eso en la siguiente sección.

Mientras tanto, veamos algunas propiedades de los coeficientes binomiales que se pueden verificar sin mostrar que $\binom{n}{k}$ es entero.

Propiedad (simetría). $\binom{n}{k}=\binom{n}{n-k}.$

Propiedad (fórmula de Pascal). $\binom{n+1}{k+1}=\binom{n}{k}+\binom{n}{k+1}.$

Propiedad (propiedad de entrada-salida). $\binom{n+1}{k+1}=\frac{n+1}{k+1}\binom{n}{k}.$

El siguiente problema se puede resolver usando estas identidades.

Propiedad (suma cambiando arriba). Muestra que para $n$ y $k$ enteros positivos se tiene que $$\sum_{j=0}^k \binom{n+j}{n} = \binom{n+k+1}{n+1}.$$

Sugerencia pre-solución. Primero, formula un problema equivalente usando la propiedad de simetría. Luego, procede por inducción y usa otra de las propiedades de coeficientes binomiales mencionada arriba.

Solución. Usando la propiedad de simetría de coeficientes binomiales, el problema es equivalente a demostrar que $$\sum_{j=0}^k \binom{n+j}{j} = \binom{n+k+1}{k}.$$ Fijemos un entero $n\geq 0$ y hagamos inducción sobre $k$. Para $k=0$, la identidad es cierta pues $$\binom{n}{0}=1=\binom{n+1}{0}.$$

Para $k=1$, tenemos que mostrar que $\binom{n}{0}+\binom{n+1}{1}=\binom{n+2}{1}$. El primer término se puede escribir como $\binom{n+1}{0}$, pues ambos son $1$. Así, lo que hay que mostrar es $$\binom{n+1}{0}+\binom{n+1}{1}=\binom{n+2}{1},$$ que es cierto por la fórmula de Pascal.

Suponiendo el resultado cierto para una $k$ dada, mostraremos que es cierto para $k+1$. Esto se sigue de la siguiente cadena de igualdades, en donde en la segunda igualdad usamos la hipótesis inductiva, y en la tercera la fórmula de Pascal:

\begin{align*}
\sum_{j=0}^{k+1} \binom{n+j}{j} &= \sum_{j=0}^{k} \binom{n+j}{j}+\binom{n+k+1}{k+1}\\
&=\binom{n+k+1}{k}+\binom{n+k+1}{k+1}\\
&=\binom{n+k+2}{k+1}.
\end{align*}

Esto termina la inducción.

$\square$

Existen otras formas de demostrar identidades con coeficientes binomiales, y de hecho una misma identidad se puede mostrar de varias formas. Veamos más técnicas.

Aspectos combinatorios de los coeficientes binomiales

El coeficiente binomial $\binom{n}{k}$ cuenta la cantidad de subconjuntos de tamaño $k$ de un conjunto de tamaño $n$. Argumentar esto es relativamente fácil, usando un argumento de doble conteo. Supongamos que dicha cantidad de subconjuntos es igual a $A$.

Respondamos la pregunta, ¿cuántos vectores de $k$ entradas existen, tales que las entradas son distintas y vienen de un conjunto de $n$ elementos? La pregunta es un poco distinta, pues como tenemos vectores, aquí sí importa el orden de los elementos. Supongamos que la respuesta es $B$.

Una forma de responder la pregunta es la siguiente. Primero, elegimos cuál subconjunto de tamaño $k$ conformará las entradas. Esto se puede hacer de $A$ formas (que aunque no sepamos cuánto vale, lo podemos usar). Luego, hay que ordenar las $k$ entradas elegidas, que se puede hacer de $k!$ maneras. Así, esto muestra que $B=k! A$.

Otra forma de responder la pregunta es la siguiente. Elegimos el primer elemento, que se puede hacer de $n$ formas. Luego el segundo, de entre los $n-1$ restantes, que se puede hacer de $n-1$ formas. Siguiendo de esta manera, el último de los $k$ hay que elegirlo entre $n-k+1$ restantes. Así, esta otra forma de contar dice que $$B=n\cdot(n-1)\cdot\ldots\cdot (n-k+1)=\frac{n!}{(n-k)!}.$$

Como ambas formas de contar son válidas, tenemos que $k!A=B=\frac{n!}{(n-k)!}$, de donde $A=\frac{n!}{k!(n-k)!}=\binom{n}{k}$.

Hay problemas que de lejos parecen preguntar algo de álgebra, pero que pueden ser interpretados en términos combinatorios para dar una solución.

Problema. Para $n$ un entero positivo, muestra que $$\sum_{k=1}^n k \binom{n}{k} = n 2^{n-1}.$$

Sugerencia pre-solución. Construye un problema de conteo cuya respuesta se pueda poner tanto en términos del lado izquierdo, como en términos del lado derecho.

Solución. Preguntémonos, ¿de cuántas formas se puede elegir un subconjunto de un conjunto de $n$ elementos en el que uno de sus elementos está pintado de azul?

Por un lado, primero se puede elegir qué elemento va a ser el azul. Hay $n$ formas de hacer esta elección, y ésta forza a que el elemento en azul esté en el subconjunto. Luego, de los $n-1$ elementos restantes hay que elegir un subconjunto para completar la elección, lo cual se puede hacer de $2^{n-1}$ formas posibles. Así, una forma de contar da $n2^{n-1}$.

Por otro lado, primero se puede decidir de qué tamaño $k$ va a ser el subconjunto. Como hay un elemento especial, el tamaño $k$ va de $1$ a $n$. Ya elegido $k$, hay $\binom{n}{k}$ formas de elegir cuál será el subconjunto. Ya elegido el subconjunto, hay $k$ formas de elegir cuál será el elemento pintado de azul. Así, otra posible respuesta, también correcta, es $\sum_{k=1}^n k \binom {n}{k}$.

Como estamos contando lo mismo con ambas expresiones, concluimos la igualdad del problema.

$\square$

A este método de resolver problemas se le conoce como contar de dos formas distintas y funciona no sólo con coeficientes binomiales, sino también con cualquier otra expresión algebraica que tenga términos que se puedan interpretar de manera combinatoria. Hay otro ejemplo en el blog, en donde vemos cómo aparecen los números de Fibonacci en el triángulo de Pascal. En esa entrada también hablamos de cómo aparecen los coeficientes binomiales en el triángulo de Pascal.

Coeficientes binomiales y binomio de Newton

La interpretación combinatoria de los coeficientes binomiales nos da una demostración para la fórmula del binomio de Newton, que ya vimos en una entrada anterior. Aquí enunciamos la fómula como recordatorio.

Teorema (binomio de Newton). Para $a$ y $b$ números reales y $n$ un entero no negativo, se tiene que
\begin{align*}
(a+b)^n=\sum_{j=0}^n \binom{n}{j}a^{n-j}b^j.
\end{align*}

Si en el binomio de Newton ponemos $a=b=1$, obtenemos $$\binom{n}{0}+\binom{n}{1}+\ldots+\binom{n}{n}=(1+1)^n=2^n.$$ Otra forma de probar esta identidad es simplemente notar que tanto la suma de la izquierda como el término de la derecha cuentan la cantidad de subconjuntos de un conjunto de $n$ elementos: la de la izquierda los cuenta por tamaño, y el de la derecha decidiendo para cada elemento si está o no.

Si ponemos $a=1$, $b=-1$, obtenemos que $$\binom{n}{0}-\binom{n}{1}+\ldots+(-1)^n\binom{n}{n} = 0,$$ o bien $$\binom{n}{0}+\binom{n}{2}+\ldots = \binom{n}{1}+\binom{n}{3}+\ldots.$$

Se obtienen otras identidades de coeficientes binomiales interesantes si se usan raíces $n$-ésimas de la unidad, como ya vimos en la entrada de aritmética compleja.

Hay otras formas de usar el binomio de Newton para probar identidades de coeficientes binomiales.

Problema. Muestra que $$\binom{n}{0}^2+\binom{n}{1}^2+\ldots+\binom{n}{n}^2=\binom{2n}{n}.$$

Sugerencia pre-solución. Considera el polinomio $(1+x)^{2n}$.

Solución. Consideremos el polinomio $(1+x)^{2n}$ y determinemos el coeficiente de su término $x^n$.

Usando el binomio de Newton directamente, tenemos que $$(1+x)^{2n}=\sum_{j=0}^{2n} \binom{2n}{j}x^j,$$ de modo que el coeficiente de $x^n$ es $\binom{2n}{n}$.

Por otro lado, podemos escribir $(1+x)^{2n}=(1+x)^n(1+x)^n$. Usando el binomio de Newton, tenemos $$(1+x)^n=\sum_{j=0}^n \binom{n}{j} x^j.$$ Al multiplicar esta expresión consigo misma, los términos que quedan de grado $n$ son cuando, para cada $j$, elegimos en un paréntesis al término que tiene $x^j$ (que tiene coeficiente $\binom{n}{j}$) y en el otro al que tiene a $x^{n-j}$ (que tiene coeficiente $\binom{n}{n-j}$).

De esta forma, el coeficiente del término de grado $n$ es $$\sum_{j=0}^n \binom{n}{j} \binom{n}{n-j}.$$ Usando la identidad de simetría, podemos cambiar $\binom{n}{n-j}$ por $\binom{n}{j}$, para obtener $$\sum_{j=0}^n \binom{n}{j}^2.$$ Igualando ambas formas de encontrar el coeficiente, obtenemos la identidad deseada.

$\square$

Hay otras técnicas que usan herramientas de integrales o derivadas. Vimos un ejemplo de esto en una entrada anterior.

Coeficientes binomiales y teoría de números

El hecho de que los coeficientes binomiales son la respuesta a un problema de conteo, implica que son enteros no negativos. Alternativamente, esto se puede demostrar por inducción usando la identidad de Pascal.

Este hecho nos puede ayudar a resolver problemas de teoría de números. Veamos un ejemplo clásico.

Problema. Muestra que el producto de $n$ enteros consecutivos siempre es divisible entre $n!$.

Sugerencia pre-solución. Haz una división en casos para ver si se incluye al cero, si son sólo negativos o sólo positivos. Reduce el caso de negativos a positivos y usa notación adecuada para escribir al producto de dichos enteros usando un coeficiente binomial.

Solución. Si alguno de los enteros es $0$, entonces el producto es $0$, que es divisible entre cualquier número. Si son $n$ enteros negativos, entonces podemos cambiar el signo a todos y su producto diferirá, quizás, en un factor $-1$ que no afecta la divisibilidad, y habremos obtenido un problema con $n$ enteros positivos consecutivos. De esta manera, podemos enfocarnos en el caso de $n$ enteros positivos consecutivos.

Llamemos al primero $k+1$, para $k\geq 0$. Los demás son entonces $k+2,\ldots,k+n$. Su producto es
\begin{align*}
(k+1)(k+2)\ldots(k+n)&=\frac{k!}{k!}(k+1)(k+2)\ldots(k+n)\\
&=\frac{(n+k)!}{k!}\\
&=n!\binom{n+k}{k}.
\end{align*}

Como $\binom{n+k}{k}$ es un entero, tenemos que el lado derecho es un múltiplo de $n!$, como queríamos.

$\square$

Otro tipo de técnicas hablan de la divisibilidad de un coeficiente binomial. Por ejemplo si tenemos un primo $p$, sabemos que todos los siguiente coeficientes binomiales son enteros $$\binom{p}{1}, \binom{p}{2},\ldots,\binom{p}{p}.$$ Por su expresión en términos de factoriales, todos tienen a $p$ en el numerador, pero no tienen ningún divisor de $p$ distinto de $1$ en el denominador, pues $p$ es primo. Así, todos ellos son enteros divisibles entre $p$. Eso puede ayudar en problemas como el siguiente.

Problema. Muestra que si $p$ es un número primo, entonces $p^2$ divide a $\binom{2p}{p} -2$.

Sugerencia pre-solución. Formula un problema equivalente usando un resultado anterior.

Solución. Por un problema anterior, $$\binom{2p}{p}=\binom{p}{0}^2+\binom{p}{1}^2+\ldots+\binom{p}{p}^2.$$

Por la discusión previa, para $j=1,\ldots,p-1$ tenemos que $p\mid \binom{p}{j}$, así que $p^2\mid \binom{p}{j}^2$. De esta forma, trabajando módulo $2p$ tenemos \begin{align*}
\binom{2p}{p}&\equiv \binom{p}{0}^2+\binom{p}{p}^2 \\
&\equiv 1+1\equiv 2 \pmod{p^2}.
\end{align*}

Esto es justo lo que queríamos mostrar.

$\square$

Más problemas

Puedes encontrar más problemas de coeficientes binomiales en la sección 5.1 del libro Problem Solving through Problems de Loren Larson.

Álgebra Superior II: El anillo de polinomios con coeficientes reales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Estamos listos para la cuarta y última parte del curso, en donde construiremos el anillo de polinomios con coeficientes reales. Los elementos de este anillo son polinomios, los cuales aparecen en numerosas áreas de las matemáticas. Tras su construcción, aprenderemos varias herramientas para trabajar con ellos.

En las tres primeras partes del curso ya trabajamos con otras estructuras algebraicas. Hasta ahora, hemos hablado de lo siguiente:

  • Naturales: Construimos a partir de teoría de conjuntos al conjunto $\mathbb{N}$ de números naturales, sus operaciones y orden. De lo más relevante es que dentro de los naturales podemos hacer definiciones por recursión y pruebas por inducción.
  • Enteros: Con $\mathbb{N}$ construimos a los enteros $\mathbb{Z}$, sus operaciones y orden. Hablamos de divisibilidad y factorización. Esto dio pie a construir $\mathbb{Z}_n$, los enteros módulo $n$, junto con su aritmética. Aprendimos a resolver ecuaciones en $\mathbb{Z}$ y sistemas de congruencias.
  • Racionales y reales: Mencionamos brevemente cómo se construye $\mathbb{Q}$ a partir de $\mathbb{Z}$ y cómo se construye $\mathbb{R}$ a partir de $\mathbb{Q}$. Tanto $\mathbb{R}$ como $\mathbb{Q}$ son campos, así que ahí se pueden hacer sumas, restas, multiplicaciones y divisiones.
  • Complejos: A partir de $\mathbb{R}$ construimos el campo $\mathbb{C}$ de los números complejos. Definimos suma, multiplicación, inversos, norma y conjugados. Luego, desarrollamos herramientas para resolver varios tipos de ecuaciones en $\mathbb{C}$. Finalmente, construimos las funciones exponenciales, logarítmicas y trigonométricas.

Quizás a estas alturas del curso ya veas un patrón de cómo estamos trabajando. Aunque varias de estas estructuras ya las conocías desde antes, hay una primer parte importante que consiste en formalizar cómo se construyen. Luego, vimos cómo se definen las operaciones en cada estructura y qué propiedades tienen. Haremos algo muy parecido con los polinomios.

Intuición de los polinomios

La idea de esta entrada es llegar a los polinomios que ya conocemos, es decir, a expresiones como la siguiente: $$4+5x+\frac{7}{2}x^2-x^4+3x^5.$$ Lo que tenemos que formalizar es qué significa esa «x», y cómo le hacemos para sumar y multiplicar expresiones de este tipo.

Intuitivamente, lo que queremos ese que en la suma «se sumen términos del mismo grado» y que en el producto «se haga la distribución y se agrupen términos del mismo grado». Por ejemplo, queremos que la suma funcione así

\begin{align*}
(1+&x-x^2+3x^3)+(-7+3x+x^2+2x^3+x^4)\\
&=(1-7)+(1+3)x+(-1+1)x^2+(3+2)x^3+(0+1)x^4\\
&=-6+4x+0x^2+5x^3+x^4\\
&=-6+4x+5x^3+x^4,
\end{align*}

y que la multiplicación funcione así

\begin{align*}
(2&+3x)(5+x+x^2)\\
&=2(5+x+x^2)+3x(5+x+x^2)\\
&=(10+2x+2x^2)+(15x+3x^2+3x^3)\\
&=10+(2+15)x+(2+3)x^2+3x^3\\
&=10+17x+5x^2+3x^3.
\end{align*}

El exponente más grande de una $x$ puede ser tan grande como queramos, pero no se vale que los polinomios tengan una infinidad de términos. Así, queremos descartar cosas del estilo $$1+x+x^2+x^3+x^4+\ldots,$$ en donde sumamos indefinidamente.

Construcción de polinomios

Para construir polinomios formalmente, tenemos que elegir de dónde van a venir sus coeficientes. Puede ser $\mathbb{Q}$, $\mathbb{R}$, $\mathbb{Z}$ o incluso $\mathbb{Z}_7$, digamos. Nosotros nos enfocaremos en construir los polinomios con coeficientes en $\mathbb{R}$, que tiene la ventaja de ser un campo. Algunas de las propiedades que probaremos se valen para cualquier elección de coeficientes, pero otras no. No profundizaremos en estas diferencias, pero es bueno que lo tengas en mente para tu formación matemática posterior.

Una buena idea para formalizar el concepto de polinomio, es notar que un polinomio está determinado por la lista de sus coeficientes, con esta idea en mente, podemos relacionar nuestra búsqueda con un concepto conocido de Cálculo.

Definición. Dado un conjunto $X$, una sucesión de elementos de $X$ es una función $a:\mathbb{N}\to X$. Para $n$ en $\mathbb{N}$, a $a(n)$ usualmente lo denotamos simplemente por $a_n$, y a la sucesión $a$ por $\{a_n\}$.

Definición. El soporte de una sucesión es el conjunto de naturales $n$ tales que $a_n\neq 0$.

Podemos «visualizar» los primeros términos de una sucesión así: $$(a_0, a_1, a_2, a_3, a_4, a_5, \ldots),$$ en donde podemos poner tantos términos como queramos y los puntos suspensivos indican que «sigue y sigue». Por supuesto, usualmente esta visualización no puede guardar toda la información de la sucesión, pero puede ayudarnos a entenderla un poco mejor.

Ejemplo 1. Si tomamos la función identidad $\text{id}:\mathbb{N}\to \mathbb{N}$, obtenemos la sucesión $$(0,1,2,3,4,5,6,7,\ldots).$$

Al tomar la función $a:\mathbb{N}\to \mathbb{Z}$ tal que $a_n=(-1)^n$, obtenemos la sucesión $$(1,-1,1,-1,1,-1,\ldots).$$

$\triangle$

Los polinomios son aquellas sucesiones de reales que «después de un punto tienen puros ceros».

Definición. Un polinomio con coeficientes reales es una sucesión $\{a_n\}$ de reales tal que $a_n\neq 0$ sólo para una cantidad finita de naturales $n$.

En otras palabras, un polinomio es una sucesión con soporte finito. Si visualizamos a un polinomio como una sucesión, entonces es de la forma $$(a_0,a_1,a_2,a_3,a_4,a_5,\ldots),$$ en donde a partir de un punto ya tenemos puros ceros a la derecha. Por conveniencia, marcaremos ese punto con un $\overline{0}$.

Ejemplo 2. La sucesión $$\left(5,7,\frac{7}{2},0,-1,3,0,0,0,\ldots\right),$$ en la que después del $3$ ya todos los términos son ceros, representa a un polinomio. Con la convención de arriba, podemos escribirlo como $$\left(5,7,\frac{7}{2},0,-1,3,\overline{0}\right).$$ Su soporte consiste de aquellas posiciones en las que la sucesión no es cero, que son $0,1,2,4,5$.

La sucesión $$(1,-1,1,-1,1,-1,\ldots)$$ dada por $a_n=(-1)^n$ no es un polinomio, pues podemos encontrar una infinidad de términos no cero.

$\triangle$

Para que las definiciones de la siguiente sección te hagan sentido, puedes pensar de manera informal que la sucesión $$(a_0, a_1, a_2, a_3, a_4, a_5, \ldots),$$ representa al polinomio $$a_0+a_1x+a_2x^2+a_3x^3+a_4x^4+a_5x^5+\ldots.$$ La última condición en la definición de polinomio es la que garantiza que «tenemos un número finito de sumandos».

Definición. Definimos al conjunto de polinomios con coeficientes reales como $$\mathbb{R}[x]:=\{ p: p \text{ es polinomio con coeficientes reales}\}.$$

La igualdad de polinomios de define término a término, es decir.

Definición. Sean $a=\{a_n\}$ y $b=\{b_n\}$ en $\mathbb{R}[x]$. Decimos que $a=b$ si para todo natural se tiene $a_n=b_n$.

En las siguientes secciones definiremos las operaciones de suma y producto en $\mathbb{R}[x]$.

Suma y producto de polinomios

Los polinomios se suman «entrada a entrada».

Definición. Dados dos polinomios $a=\{a_n\}$ y $b=\{b_n\}$ en $\mathbb{R}[x]$, definimos su suma como el polinomio $$a+b:=\{a_n+b_n\},$$ o bien, en términos de sucesiones, como la sucesión $a+b:\mathbb{N}\to \mathbb{R}$ tal que $(a+b)(n)=a(n)+b(n)$.

Observa que nos estamos apoyando en la suma en $\mathbb{R}$ para esta definición.

Ejemplo 1. Los polinomios $$\left(0,2,0,4,-1,\frac{2}{3},\overline{0}\right)$$ y $$\left(1,-2,-1,-4,-2,\overline{0}\right)$$ tienen como suma al polinomio $$\left(0+1,2-2,0-1,4-4,-1-2,\frac{2}{3}+0,0+0,\ldots\right),$$ que es $$\left(1,0,-1,0,-3,\frac{2}{3},\overline{0}\right).$$

$\triangle$

La suma de dos polinomios sí es un polinomio pues claramente es una sucesión, y su soporte se queda contenido en la unión de los soportes de los sumandos.

La siguiente definición guarda la idea de que para multiplicar queremos distribuir sumandos y agrupar términos del mismo grado. Tiene sentido si piensas en la asociación intuitiva informal que discutimos al final de la sección anterior.

Definición. Dados dos polinomios $a=\{a_n\}$ y $b=\{b_n\}$ en $\mathbb{R}[x]$, definimos su producto como el polinomio $$ab:=\{c_n\},$$ en donde $c_n$ está dado por $$c_n:=\sum_{i+j=n} a_ib_j,$$ en otras palabras, $$c_n=a_0b_n+a_1b_{n-1}+\ldots+a_{n-1}b_1+a_nb_0.$$

Aquí nos estamos apoyando en la suma y producto en $\mathbb{R}$ para definir la multiplicación de polinomios.

Una forma práctica de hacer el producto es mediante una tabla. En la primer fila ponemos al primer polinomio y en la primer columna al segundo. Las entradas interiores son el producto de la fila y columna correspondiente. Una vez que hacemos esto, la entrada $c_j$ del producto es la suma de los elementos en la $j$-ésima «diagonal».

Ejemplo 2. Multipliquemos a los polinomios $$a=(3,-2,0,1,\overline{0})$$ y $$b=(0,2,7,\overline{0}).$$

Ponemos a $a$ y $b$ en la primer fila y columna respectivamente de la siguiente tabla:

$3$$-2$$0$$1$
$0$
$2$
$7$

Luego, en cada entrada interior de la tabla ponemos el producto de los coeficientes correspondientes:

$3$$-2$$0$$1$
$0$$3 \cdot 0$$-2 \cdot 0$$0\cdot 0$$1\cdot 0$
$2$$3 \cdot 2$$-2 \cdot 2$$0\cdot 2$$1\cdot 2$
$7$$3 \cdot 7$$-2 \cdot 7$$0\cdot 7$$1\cdot 7$

Después, hacemos las operaciones:

$3$$-2$$0$$1$
$0$$0$$0$$0$$0$
$2$$6$$-4$$0$$2$
$3$$21$$-14$$0$$7$

Finalmente, para encontrar el coeficiente $c_j$ del producto, hacemos la suma de las entradas en la $j$-ésima diagonal dentro de la tabla, es decir:
\begin{align*}
c_0&=0\\
c_1&=6+0=6\\
c_2&=21-4+0=17\\
c_3&=-14+0+0=-14\\
c_4&=0+2=2\\
c_5&=7.
\end{align*}

De esta forma, el polinomio producto es $$(0,6,17,-14,2,7,\overline{0}).$$ Es muy recomendable que notes que esto coincide con el producto (por ahora informal) \begin{align*}(3-&2x+x^3)(2x+7x^2)\\&=6x+17x^2-14x^3+2x^4+7x^5.\end{align*}

$\triangle$

El anillo de polinomios con coeficientes reales

Los polinomios y los enteros se parecen, en el sentido de que como estructura algebraica comparten muchas propiedades. La idea de esta sección es formalizar esta afirmación.

Teorema. El conjunto $\mathbb{R}[x]$ con las operaciones de suma y producto arriba definidos forman un anillo.

Demostración. Por una parte, tenemos que mostrar que la suma es asociativa, conmutativa, que tiene neutro e inversos aditivos. Por otra parte, tenemos que mostrar que el producto es asociativo. Finalmente, tenemos que mostrar que se vale la ley distributiva.

Tomemos dos polinomios $a=\{a_n\}$, $b=\{b_n\}$ y un natural $n$. El término $n$ de $a+b$ es $a_n+b_n$ y el de $b+a$ es $b_n+a_n$, que son iguales por la conmutatividad de la suma en $\mathbb{R}$. De manera similar, se muestra que la suma es asociativa.

El polinomio $(\overline{0})$ es la identidad de la suma. Esto es sencillo de mostrar y se queda como tarea moral. Además, si $a=\{a_n\}$ es un polinomio, entonces $\{-a_n\}$ es una sucesión con el mismo soporte (y por lo tanto finito), que cumple que $$\{a_n\}+\{-a_n\}=(0,0,0,\ldots)=(\overline{0}),$$ así que la suma tiene inversos aditivos.

Ahora probemos la asociatividad del producto. Tomemos tres polinomios $a=\{a_n\}$, $b=\{b_n\}$, $c=\{c_n\}$ y un natural $n$. Hagamos el producto $(ab)c$. Para cada $i$, el $i$-ésimo término de $ab$ es un cierto $d_i$ dado por $$d_i = \sum_{k+l=i} a_k b_l.$$ El $n$-ésimo término de $(ab)c$ es entonces
\begin{align*}
\sum_{i+j=n}d_ic_j &= \sum_{i+j=n}\sum_{k+l=i} a_kb_lc_j\\
&=\sum_{k+l+j=n}a_kb_lc_j.
\end{align*}

Un argumento análogo muestra que el $n$-esimo término de $a(bc)$ es también \begin{align*}
\sum_{k+l+j=n}a_kb_lc_j,
\end{align*}

lo cual muestra que la multiplicación es asociativa.

Lo último que nos queda por probar es la ley distributiva. Tomemos tres polinomios $a=\{a_n\}$, $b=\{b_n\}$, $c=\{c_n\}$ y un natural $n$. Usamos las propiedades de las operaciones en $\mathbb{R}$ para ver que el $n$-ésimo término de $a(b+c)$ es
\begin{align*}
\sum_{i+j=n} a_i(b_j+c_j)&=\sum_{i+j=n} (a_ib_j+ a_i c_j)\\
&=\sum_{i+j=n} a_ib_j + \sum_{i+j=n} a_ic_j.
\end{align*}

A la derecha tenemos el $n$-ésimo término de $ab$ sumado con el $n$-ésimo término de $ac$, así que coincide con el $n$-ésimo término de la suma $ab+ac$. Esto muestra que $a(b+c)$ y $ab+ac$ son iguales término a término y por lo tanto son iguales como polinomios.

$\square$

Como de costumbre, al inverso aditivo de un polinomio $a$ le llamamos $-a$, y definimos $a-b:=a+(-b)$.

Proposición. La multiplicación en $\mathbb{R}[x]$ es conmutativa.

Demostración. Tomemos dos polinomios $a=\{a_n\}$ y $b=\{b_n\}$. Tenemos que ver que $ab$ y $ba$ son iguales término a término. Tomemos entonces un natural $n$. El término $c_n$ de $ab$ es $$c_n=\sum_{i+j=n} a_ib_j,$$ y el término $d_n$ de $ba$ es $$d_n=\sum_{i+j=n} b_ia_j.$$ Por la conmutatividad de la suma y el producto en $\mathbb{R}$, tenemos que $c_n=d_n$.

$\square$

Proposición. La multiplicación en $\mathbb{R}[x]$ tiene identidad.

Demostración. El polinomio $(1,\overline{0})$ es la identidad multiplicativa. Esto es sencillo de mostrar y se queda como tarea moral.

$\square$

Proposición. Si $a$ y $b$ son polinomios en $\mathbb{R}[x]$ distintos del polinomio $(\overline{0})$, entonces su producto también.

Demostración. Para ello, tomemos el mayor natural $m$ tal que $a_m\neq 0$ y el mayor natural $n$ tal que $b_n\neq 0$. Estos existen pues $a$ y $b$ no son el polinomio $(\overline{0})$, y su soporte es finito.

Cualquier pareja de naturales $k$ y $l$ tales que $k+l=m+n$ con $k\leq m-1$ cumple $l\geq n+1.$ Así, si $k+l=m+n$ tenemos que:

  • Si $k\leq m-1$, entonces $b_l=0$ y por lo tanto $a_kb_l=0$.
  • Si $k\geq m+1$, entonces $a_k=0$ y por lo tanto $a_kb_l=0$.
  • Finalmente, si $k=m$, entonces $l=n$ y $$a_kb_l=a_mb_n\neq 0.$$

De esta forma, el $(m+n)$-ésimo término de $ab$ es $$\sum_{k+l=m+n} a_k b_l=a_mb_n\neq 0,$$ de modo que $ab$ no es el polinomio $(\overline{0})$.

$\square$

Corolario. En $\mathbb{R}[x]$ se vale la regla de cancelación, es decir, si $a,b,c$ son polinomios, $a\neq 0$ y $ab=ac$, entonces $b=c$.

Demostración. De la igualdad $ab=ac$ obtenemos la igualdad $a(b-c)=0$. Como $a\neq 0$, por la proposición anterior debemos tener $b-c=0$, es decir, $b=c$.

$\square$

A un anillo conmutativo cuya multiplicación tiene identidad y en donde se vale la regla de cancelación se le conoce como un dominio entero.

Teorema. El anillo $\mathbb{R}[x]$ es un dominio entero.

Con esto terminamos la construcción de $\mathbb{R}[x]$ y de sus operaciones. Cuando trabajamos con los polinomios de manera práctica resulta engorroso mantener esta notación de sucesiones. En la siguiente entrada justificaremos el uso de la notación «usual» de los polinomios, en la que usamos la letra «x» y exponentes.

Más adelante…

Ya que definimos el anillo de polinomios con coeficientes en los reales, y sus operaciones, el siguiente paso que haremos será practicar como operar polinomios.

Después de esto empezaremos a desarrollar la teoría sobre los polinomios. Como ya hemos mencionado, y como te podrás dar cuenta en las siguientes entradas, esta teoría será muy similar a la que desarrollamos para los números enteros cuando vimos los temas de teoría de números.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Justifica por qué el soporte del producto de dos polinomios es finito.
  2. Muestra que la suma en $\mathbb{R}[x]$ es asociativa.
  3. Verifica que el polinomio $(\overline{0})$ es la identidad aditiva en $\mathbb{R}[x]$.
  4. Verifica que el polinomio $(1,\overline{0})$ es la identidad multiplicativa en $\mathbb{R}[x]$.
  5. Considera los polinomios $a=\left(\frac{1}{3},4,\frac{5}{7},8,\overline{0}\right)$ y $b=\left(0,0,\frac{2}{5},\frac{3}{4},\overline{0}\right)$. Determina $a+b$ y $a\cdot b$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Transformaciones multilineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Con esta entrada empieza el cuarto y último bloque del curso de Lineal I. En este último bloque hablaremos de determinantes de matrices, de eigenvectores, eigenvalores y de polinomios característicos. Además, probaremos el teorema espectral para matrices simétricas reales. Nuestro cimiento teórico para definir a los determinantes y probar sus propiedades fácilmente serán las transformaciones multilineales, que generalizan a las formas bilineales de las que ya hemos hablado.

Antes de empezar, vale la pena recapitular lo que hemos aprendido en los bloques anteriores:

  • Bloque 1: Primero, hablamos de vectores y matrices con entradas reales, y sus operaciones básicas. Luego, vimos que nos ayudan a plantear y resolver sistemas de ecuaciones lineales. Aquí hablamos de varias equivalencias de matrices invertibles. Al final de este bloque, definimos espacios vectoriales en general. En ellos hablamos de conjuntos generadores, independientes y bases. Mediante el lema de Steinitz definimos y probamos propiedades de espacios de dimensión finita.
  • Bloque 2: Vimos la teoría básica de transformaciones lineales. Hablamos de imágenes y kernels de transformaciones. Vimos cómo se comportan con independientes y bases. Luego hablamos de cómo representar transformaciones lineales entre espacios de dimensión finita usando matrices, y en particular cómo hacer cambios de base.
  • Bloque 3: Este bloque fue más «geométrico». Primero, vimos formas lineales y la teoría de dualidad y la aplicamos para ver que todo subespacio es intersección de hiperplanos. Luego, definimos formas bilineales y cuadráticas. De ahí salió la noción de producto interior, que nos permite «hacer geometría» en espacios vectoriales. Hablamos de desigualdades vectoriales, de bases ortogonales, para qué sirven y cómo encontrarlas.

La intuición que obtuvimos de formas bilineales nos ayudará a entender formas multilineales. Pero antes de entrar en este tema, que es un poco técnico, veamos un ejemplo que nos ayudará a entender lo que nos espera en este bloque.

Elevando una matriz a la 100

Considera la matriz $$A=\begin{pmatrix}-4&-10\\3&7\end{pmatrix}.$$ Imagina que para alguna aplicación queremos elevarla a la $100$. Esto probablemente lo puedas hacer a mano, y mejor aún, a computadora. Pero en aplicaciones en la vida real, puede que hacer los cálculos matriciales sea mucho incluso para una computadora. ¿Habrá una forma de que sea más fácil hacer $A^{100}$?

Resulta que para este caso en particular, sí. Considera las matrices $$B=\begin{pmatrix}3 & 5\\ 1& 2\end{pmatrix}$$ y $$D=\begin{pmatrix}1&0\\0&2\end{pmatrix}.$$ La matriz $B$ es invertible, con inversa $$B^{-1}=\begin{pmatrix}2&-5 \\-1&3\end{pmatrix},$$ como puedes verificar. Además, la matriz $A$ se puede «factorizar» así: $$A=B^{-1}DB.$$

Esto es muy útil para nuestros fines. Nota que
\begin{align*}
A^2&=(B^{-1}DB)(B^{-1}DB)\\
&=B^{-1}D^2B,
\end{align*}

y que de hecho inductivamente $A^n=B^{-1}D^n B$ para cualquier entero positivo $n$.

Por otro lado, como la matriz $D$ es diagonal, sus potencias son muy sencillas, de hecho, se puede probar inductivamente que $D^n=\begin{pmatrix}1&0\\0&2^{n}\end{pmatrix}$ para cualquier entero positivo $n$. De esta forma, podemos hacer $A^n$ con tan solo dos multiplicaciones de matrices:
\begin{align*}
A^n&=B^{-1}D^nB\\
&=\begin{pmatrix}2&-5 \\ -1&3\end{pmatrix}\begin{pmatrix}1&0\\ 0&2^{n}\end{pmatrix}\begin{pmatrix}3 & 5\\ 1& 2\end{pmatrix}\\
&=\begin{pmatrix}2&-5 \\ -1&3\end{pmatrix}\begin{pmatrix}3&5 \\ 2^n&2^{n+1}\end{pmatrix}\\
&=\begin{pmatrix}6-5\cdot 2^n& 10-5\cdot 2^{n+1}\\ -3+3\cdot 2^n & -5+3\cdot 2^{n+1}\end{pmatrix}
\end{align*}

Así, el problema que queremos resolver es sencillo ahora. Basta tomar $n=100$ para obtener $$A^{100}=\begin{pmatrix}6-5\cdot 2^{100} & 10-5\cdot 2^{101}\\ -3+3\cdot 2^{100} & -5+3\cdot 2^{101}\end{pmatrix}.$$

Si podemos escribir una matriz $A$ como $B^{-1}DB$ con $B$ invertible y $D$ diagonal, decimos que es diagonalizable. La conclusión anterior es que una matriz diagonalizable se puede elevar fácilmente a potencias.

Todo esto está muy bien pero, ¿de dónde salen las matrices $B$ y $D$? ¿toda matriz es diagonalizable? ¿qué otras ventajas tiene diagonalizar una matriz? Este tipo de preguntas son las que estudiaremos en este bloque.

Diagonalizar matrices de 2×2

El determinante de una matriz $A=\begin{pmatrix}a&b\\c&d\end{pmatrix}$ en $M_2(\mathbb{R})$, como quizás hayas visto antes, está dado por $ad-bc$. Resulta que una forma sistemática para encontrar matrices $B$ y $D$ como las del ejemplo de arriba es la siguiente:

  • Tomar una matriz $A$.
  • Considerar el polinomio $P(\lambda)=\det(\lambda I – A)$. A este polinomio se le conoce como el polinomio característico de $A$.
  • Encontrar las raíces $\lambda_1$ y $\lambda_2$ de $P(\lambda)$. A estos valores se les llama los eigenvalores de $A$.
  • Encontrar vectores $v_1$ y $v_2$ no cero tales que $(A-\lambda_1I) v_1 =0$ y $(A-\lambda_2 I)v_2 = 0$. Estos simplemente son sistemas lineales homogéneos, que ya sabemos resolver con reducción gaussiana. A estos vectores se les llama eigenvectores de $A$.
  • Usar a $\lambda_1$ y $\lambda_2$ como las entradas de la matriz diagonal $D$.
  • Usar a $v_1$ y $v_2$ como columnas de la matriz $B^{-1}$. Encontrar la inversa de $B^{-1}$ para encontrar a $B$.

¿Cómo se hace en dimensiones más altas? ¿Siempre podemos seguir este proceso esto? ¿Hay algunos tipos de matrices para los que siempre funcione? Estas son otras preguntas que responderemos en el transcurso de estas semanas.

Mientras tanto, veamos qué sucede si aplicamos este método para la matriz $A=\begin{pmatrix}-4&-10\\3&7\end{pmatrix}$ del ejemplo. Tenemos que el determinante de $\lambda I-A = \begin{pmatrix}\lambda+4&10\\-3&\lambda – 7\end{pmatrix}$ es el polinomio \begin{align*}P(\lambda)&= (\lambda+4)(\lambda-7)+30\\ &=\lambda^2-3\lambda-28+30\\ &=\lambda^2-3\lambda+2,\end{align*} cuyas raíces son $1$ y $2$. De aquí construimos $$D=\begin{pmatrix}1&0\\0&2\end{pmatrix}.$$

Busquemos los eigenvectores. Por un lado, si queremos que suceda que $Av=v$ para un vector $v=(x,y)$, necesitamos que $$(-4x-10y, 3x+7y)=(x,y),$$ y una de las soluciones es $(x,y)=(2,-1)$. Por otro lado, si queremos que suceda que $Av=2v$ para un vector $v=(x,y)$, necesitamos que $$(-4x-10y,3x+7y)=(2x,2y),$$ y una de las soluciones es $(x,y)=(-5,3)$. De aquí construimos $$B^{-1}=\begin{pmatrix}2&-5 \\-1&3\end{pmatrix},$$ y podemos hacer reducción gaussiana para encontrar $B$. Observa que obtenemos exactamente las mismas matrices que propusimos en el ejemplo.

Nos gustaría poder hacer esto mismo en dimensiones más altas y entender cuándo y por qué funciona. Para ello, lo primero que necesitamos hacer es entender muy bien el concepto de determinante y aprender a manejar hábilmente sus propiedades principales.

Hay varias formas de definir determinante y quizás ya hayas visto algunas en cursos anteriores. En este curso definiremos determinante mediante transformaciones multilineales. Es un poco más abstracto, pero ayuda a que sea más fácil probar técnicas para trabajar con determinantes y entender por qué funcionan.

Transformaciones multilineales

En el bloque anterior ya hablamos de formas bilineales. Como recordatorio, tomábamos un espacio vectorial real $V$ y una forma bilineal era una función $b:V\times V\to \mathbb{R}$ tal que cada que fijábamos una entrada, la función era lineal en la otra. La palabra «forma» la usábamos porque la imagen caía en el campo.

Generalizaremos esta idea para más entradas, y para cuando la imagen cae en cualquier espacio vectorial. Trabajaremos en espacios vectoriales sobre un campo $F$, que puedes pensar que es $\mathbb{R}$ o $\mathbb{C}$.

Definición. Sean $V_1,\ldots, V_d$ y $W$ espacios vectoriales sobre $F$. Una función $f:V_1\times \ldots \times V_d\to W$ es multilineal si cada que fijamos una $i$ y para cada $j\neq i$ fijamos vectores $v_j$ en $V_j$, la transformación $$V_i\to W$$ dada por $$v_i\mapsto f(v_1,v_2,\ldots,v_d)$$ es lineal.

Aclaración. De nuevo, es muy importante no confundir una transformación multilineal con una transformación lineal del espacio vectorial $V_1\times \ldots \times V_d$ a $W$.

Ejemplo 1. Consideremos $\mathbb{R}^3=\mathbb{R}\times \mathbb{R} \times \mathbb{R}$ y consideramos la transformación $T:\mathbb{R}^3\to \mathbb{R}$ dada por $T(x,y,z)=xyz.$ Afirmamos que esta es una transformación multilineal.

Si fijamos $y$ y $z$, tenemos que mostrar que la transformación $x\mapsto xyz$ es lineal, lo cual es cierto pues para $x_1,x_2$ reales y $r$ real se cumple que
\begin{align*}
T(x_1+rx_2,y,z)&=(x_1+rx_2)yz\\
&=x_1yz + rx_2yz\\
&=T(x_1,y,z)+rT(x_2,y,z).
\end{align*}

De manera similar se prueba para las otras entradas.

Sin embargo, $T$ no es una transformación lineal. Por ejemplo, no saca escalares ya que $T(1,1,1)=1\cdot 1\cdot 1=1$ y $$T(2,2,2)=8\neq 2 = 2T(1,1,1).$$

$\square$

Las transformaciones multilineales son muy generales, y ayudan a crear algo que se llama el producto tensorial. Sin embargo, para los fines que necesitamos ahora, no hace falta tanta generalidad. Sólo nos enfocaremos en las transformaciones multilineales cuando $V_1=V_2=\ldots=V_d$, es decir, en transformaciones $f:V^d\to W$.

Definición. Para $d$ un entero positivo y $V$, $W$ espacios vectoriales, una transformación $d$-lineal es una transformación multilineal de $V^d$ a $W$.

Ejemplo 2. Si $V$ es un espacio vectorial real y $W=\mathbb{R}$, entonces toda forma bilineal $b:V\times V\to \mathbb{R}$ es una transformación $2$-lineal.

Ejemplo 3. Tomemos $V=\mathbb{R}^3$ y $d=4$. Tomemos las siguientes formas lineales en $V$:
\begin{align*}
l_1(x,y,z)&=x+y+z\\
l_2(x,y,z)&=3x-2y+z\\
l_3(x,y,z)&=y\\
l_4(x,y,z)&=x+z.
\end{align*}

Consideremos la transformación $T:V^4\to \mathbb{R}$ dada por $$T(v_1,v_2,v_3,v_4)=l_1(v_1)l_2(v_2)l_3(v_3)l_4(v_4),$$ por ejemplo, si $v_1=(1,0,0)$, $v_2=(0,1,0)$, $v_3=(0,1,1)$ y $v_4=(1,1,1)$, tenemos que

\begin{align*}
l_1(v_1)&=l_1(1,0,0)=1+0+0=1\\
l_2(v_2)&=l_2(0,1,0)=0-2+0=-2\\
l_3(v_3)&=l_3(0,1,1)=1\\
l_4(v_4)&=l_4(1,1,1)=1+1=2,
\end{align*}

y por lo tanto $$T(v_1,v_2,v_3,v_4)=(1)(-2)(1)(2)=-4.$$

Tenemos que $T$ es $4$-lineal pues para cada $i$, al fijar las tres entradas $v_j$ con $j\neq i$ tenemos que $T(v_1,v_2,v_3,v_4)$ es de la forma $cl_i(v_i)$ con $c$ un escalar. Como $l_i$ es una forma lineal, $cl_i$ también.

$\triangle$

Nos interesan un tipo todavía más restringido de transformaciones multilineales. Para definirlas, tenemos que hacer una pequeña desviación hacia el tema de permutaciones.

Permutaciones y signos

Tomemos un entero positivo y usemos $[n]$ para hablar del conjunto de los enteros de $1$ a $n$, es decir, $[n]:=\{1,2,\ldots,n\}$.

Definicion. Una permutación de $[n]$ es una función biyectiva $\sigma: [n]\to [n]$.

En otras palabras, una permutación básicamente «revuelve los elementos» de $[n]$. Usualmente expresamos a la permutación con la notación $$\begin{pmatrix} 1 & 2 & \ldots & n\\ \sigma(1) & \sigma(2) & \ldots & \sigma(n)\end{pmatrix}$$

Ejemplo 1. La función $\sigma:[3]\to [3]$ tal que $\sigma(1)=2$, $\sigma(2)=3$ y $\sigma(3)=1$ es una permutación que manda al conjunto ordenado $(1,2,3)$ al conjunto ordenado $(2,3,1)$. La expresamos como $$\begin{pmatrix} 1& 2 & 3\\ 2 & 3 & 1\end{pmatrix}.$$

$\triangle$

Como las permutaciones son funciones, entonces podemos componerlas. Para evitar complicar la notación, no pondremos el signo de composición $\circ$, sino simplemente permutaciones adyacentes. La composición usualmente no es conmutativa.

Ejemplo 2. Tomemos la permutación $\sigma_1:[4]\to [4]$ representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 3 & 2 & 1 & 4\end{pmatrix}$$ y la permutación $\sigma_2:[4]\to [4]$ representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 4 & 2 & 3 & 1\end{pmatrix}.$$

¿Qué hace la función $\sigma_1 \sigma_2$? Es una función de $[4]$ a $[4]$ y cumple lo siguiente:
\begin{align*}
\sigma_1(\sigma_2(1))&=\sigma_1(4)=4,\\
\sigma_1(\sigma_2(2))&=\sigma_1(2)=2,\\
\sigma_1(\sigma_2(3))&=\sigma_1(3)=1,\\
\sigma_1(\sigma_2(4))&=\sigma_1(1)=3,
\end{align*}

es decir, la composición es la permutación representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 4 & 2 & 1 & 3\end{pmatrix}.$$

Por otro lado, la función $\sigma_2\sigma_1$ hace algo un poco diferente. También es una función de $[4]$ a $[4]$ y cumple lo siguiente:
\begin{align*}
\sigma_2(\sigma_1(1))&=\sigma_2(3)=3,\\
\sigma_2(\sigma_1(2))&=\sigma_2(2)=2,\\
\sigma_2(\sigma_1(3))&=\sigma_2(1)=4,\\
\sigma_2(\sigma_1(4))&=\sigma_2(4)=1,
\end{align*}

así que es la permutación representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 3 & 2 & 4 & 1\end{pmatrix}.$$

$\triangle$

Al conjunto de permutaciones de $[n]$ le llamamos $S_n$. Tomemos una permutación $\sigma$ en $S_n$. Para dos elementos $i<j$ en $[n]$, decimos que $\sigma$ los invierte si $\sigma(i)>\sigma(j)$.

Definición. Sea $\sigma$ un elemento de $S_n$. Decimos que el signo de $\sigma$ es $1$ si invierte una cantidad par de parejas, y es $-1$ si invierte una cantidad impar de parejas. Al signo de $\sigma$ lo denotamos $\text{sign}(\sigma)$.

Ejemplo 3. La permutación $$\begin{pmatrix}1& 2 & 3 & 4 & 5\\ 5 & 2 & 1 & 4 & 3\end{pmatrix}$$ invierte a la pareja $(1,2)$ pues $\sigma(1)=5>2=\sigma(2)$. Todas las parejas que invierte son $(1,2)$, $(1,3)$, $(1,4)$, $(1,5)$, $(2,3)$, $(4,5)$. Estas son $6$ parejas, que son una cantidad par, así que la permutación tiene signo $1$.

La permutación identidad en $S_n$ no invierte ninguna pareja, así que tiene signo $1$.

$\triangle$

En la siguiente entrada combinaremos estas nociones de permutaciones y de transformaciones multilineales para hablar de antisimetría y alternancia. Por el momento, reflexiona en lo siguiente: si $\sigma$ es una permutación en $S_n$ y $f:V^n\to W$ es una transformación $n$-lineal, entonces la transformación $\sigma f:V^n \to W$ definida por $$(\sigma f)(x_1,x_2,\ldots,x_n) = f(x_{\sigma(1)},x_{\sigma(2)},\ldots,x_{\sigma(n)})$$ también es una transformación $n$-lineal.

Más adelante…

En esta primera entrada de la cuarta unidad hemos visto cómo la intuición que obtuvimos cuando estudiamos formas bilineales, nos ha ayudado a entender el concepto de formas multilineales. En las siguientes entradas del blog, abordaremos el concepto de determinante y aprenderemos cómo se usa.

Para la definición de determinante y para demostrar algunas de sus propiedades , usaremos lo que aprendimos en esta entrada sobre las transformaciones multilineales. Veremos que es una herramienta del álgebra lineal bastante útil y entender detalladamente cómo funciona será fundamental para abordar uno de los teoremas más importantes del curso: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Toma $T:V^d\to W$ una transformación $d$-lineal. Muestra que si de entre $x_1,\ldots,x_d$ elementos de $V$ alguno de ellos es el vector $0$, entonces $T(x_1,\ldots,x_d)=0$.
  • Muestra que la transformación del ejemplo de transformaciones multilineales también es lineal en la segunda y tercera entradas.
  • Supón que $l_1,\ldots,l_d$ son formas lineales de $V$ al campo $F$. Muestra que $f:V^d\to F$ dada por $$f(x_1,\ldots,x_d)=l_1(x_1)\ldots l_d(x_d)$$ es una transformación $d$-lineal.
  • Encuentra una transformación lineal $T:\mathbb{R}^3\to \mathbb{R}$ que no sea una transformación multilineal.
  • Muestra que la composición de dos permutaciones siempre es una permutación.
  • Muestra que para dos permutaciones $\sigma_1$ y $\sigma_2$ se tiene que $$\text{sign}(\sigma_1\sigma_2)=\text{sign}(\sigma_1)\text{sign}(\sigma_2).$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»