Archivo de la etiqueta: álgebra lineal

Álgebra Lineal I: Determinantes de matrices y transformaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior dimos la definición de determinante para ciertos vectores con respecto a una base. En esta entrada continuamos con la construcción de determinantes. Primero, basados en la teoría que desarrollamos anteriormente, definiremos determinantes de transformaciones lineales. Luego, mediante la cercanía entre transformaciones lineales y matrices, definimos determinantes de matrices.

Determinantes de transformaciones lineales

Ahora definiremos el determinante para transformaciones lineales. Antes de esto, necesitamos hacer algunas observaciones iniciales y demostrar un resultado.

Si tomamos un espacio vectorial $V$ de dimensión finita $n\geq 1$ sobre un campo $F$, una transformación lineal $T:V\to V$ y una forma $n$-lineal $f:V^n\to F$, se puede mostrar que la transformación $$T_f:V^n\to F$$ dada por $$T_f(x_1,\ldots,x_n)=f(T(x_1),\ldots,T(x_n))$$ también es una forma $n$-lineal. Además, se puede mostrar que si $f$ es alternante, entonces $T_f$ también lo es. Mostrar ambas cosas es relativamente sencillo y queda como tarea moral.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n\geq 1$ sobre el campo $F$. Para cualquier transformación lineal $T:V\to V$ existe un único escalar $\det T$ en $F$ tal que $$f(T(x_1),\ldots,T(x_n))=\det T\cdot f(x_1,\ldots, x_n)$$ para cualquier forma $n$-lineal alternante $f:V^n\to F$ y cualquier elección $x_1,\ldots,x_n$ de vectores en $V$.

Demostración. Fijemos una base $B=(b_1,\ldots,b_n)$ cualquiera de $V$. Llamemos $g$ a la forma $n$-lineal alternante $\det_{(b_1,\ldots,b_n)}$. Por la discusión de arriba, la asignación $T_g:V^n\to F$ dada por $$(x_1,\ldots,x_n)\mapsto g(T(x_1),\ldots,T(x_n))$$ es una forma $n$-lineal y alternante.

Por el teorema que mostramos en la entrada de determinantes de vectores, se debe cumplir que $$T_g = T_g(b_1,\ldots,b_n) \cdot g.$$ Afirmamos que $\det T:= T_g(b_1,\ldots, b_n)$ es el escalar que estamos buscando.

En efecto, para cualquier otra forma $n$-lineal alternante $f$, tenemos por el mismo teorema que $$f=f(b_1,\ldots,b_n) \cdot g.$$ Usando la linealidad de $T$ y la igualdad anterior, se tiene que

\begin{align*}
T_f &= f(b_1,\ldots,b_n)\cdot T_g\\
&=f(b_1,\ldots,b_n) \cdot \det T \cdot g\\
&= \det T \cdot f.
\end{align*}

Con esto se prueba que $\det T$ funciona para cualquier forma lineal $f$. La unicidad sale eligiendo $(x_1,\ldots,x_n)=(b_1,\ldots,b_n)$ y $f=g$ en el enunciado del teorema, pues esto forza a que $$\det T = g(T(b_1),\ldots,T(b_n)).$$

$\square$

Ahora sí, estamos listos para definir el determinante de una transformación lineal.

Definición. El escalar $\det T$ del teorema anterior es el determinante de la transformación lineal $T$.

Para obtener el valor de $\det T$, podemos entonces simplemente fijar una base $B=(b_1,\ldots,b_n)$ y el determinante estará dado por $$\det T = \det_{(b_1,\ldots,b_n)}(T(b_1),\ldots, T(b_n)).$$ Como el teorema también prueba unicidad, sin importar que base $B$ elijamos este número siempre será el mismo.

Ejemplo 1. Vamos a encontrar el determinante de la transformación lineal $T:\mathbb{R}^3 \to \mathbb{R}^3$ dada por $$T(x,y,z)=(2z,2y,2x).$$ Para ello, usaremos la base canónica de $\mathbb{R}^3$. Tenemos que
\begin{align*}
T(1,0,0)&=(0,0,2)=2e_3\\
T(0,1,0)&=(0,2,0)=2e_2\\
T(0,0,1)&=(2,0,0)=2e_1.
\end{align*}

De acuerdo al teorema anterior, podemos encontrar al determinante de $T$ como $$\det T = \det_{(e_1,e_2,e_3)}(2e_3,2e_2,2e_1).$$

Como el determinante (para vectores) es antisimétrico, al intercambiar las entradas $1$ y $3$ su signo cambia en $-1$. Usando la $3$-linealidad en cada entrada, podemos sacar un factor $2$ de cada una. Así, tenemos:
\begin{align*}
\det T &= \det_{(e_1,e_2,e_3)}(2e_3,2e_2,2e_1)\\
&= -\det_{(e_1,e_2,e_3)}(2e_1,2e_2,2e_3)\\
&=-8\det_{(e_1,e_2,e_3)}(e_1,e_2,e_3)\\
&=-8.
\end{align*}

Concluimos entonces que el determinante de $T$ es $-8$.

$\triangle$

Ejemplo 2. Vamos ahora a encontrar el determinante de la transformación $T:\mathbb{R}_n[x]\to \mathbb{R}_n[x]$ que deriva polinomios, es decir, tal que $T(p)=p’$. Tomemos $q_0=1,q_1=x,\ldots,q_n=x^n$ la base canónica de $\mathbb{R}_n[x]$.

Notemos que, $T(1)=0$, de modo que los vectores $T(1),\ldots,T(x^n)$ son linealmente dependientes. Así, sin tener que hacer el resto de los cálculos, podemos deducir ya que $$\det_{(q_0,\ldots,q_n)}(T(q_0),\ldots,T(q_n))=0.$$ Concluimos entonces que $\det T = 0$.

$\triangle$

Determinantes de matrices

La expresión $$\det T = \det_{(b_1,\ldots,b_n)}(T(b_1),\ldots, T(b_n))$$ para una transformación lineal $T$ también nos permite poner al determinante en términos de las entradas de la matriz de $T$ con respecto a la base $B$. Recordemos que dicha matriz $A_T=[a_{ij}]$ tiene en la columna $i$ las coordenadas de $b_i$ en la base $B$. En otras palabras, para cada $i$ se cumple que $$T(b_i)=\sum_{j=1}^n a_{ji}b_i.$$

Usando esta notación, obtenemos que $$\det T = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},$$ de manera que podemos expresar a $\det T$ en términos únicamente de su matriz en la base $B$.

Esto nos motiva a definir el determinante de una matriz en general.

Definición. Para una matriz $A$ en $M_n(F)$ de entradas $A=[a_{ij}]$, el determinante de $A$ es $$\det A = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$ A $\det A$ también lo escribimos a veces en notación de «matriz con barras verticales» como sigue:

\begin{align*}
\det A = \begin{vmatrix}
a_{11} & a_{12} & \ldots & a_{1n}\\
a_{21} & a_{22} & \ldots & a_{2n}\\
\vdots & & \ddots & \vdots\\
a_{n1} & a_{n2} & \ldots & a_{nn}.
\end{vmatrix}
\end{align*}

Ejemplo. Si queremos calcular el determinante de una matriz en $M_2(F)$, digamos $$A=\begin{pmatrix} a & b \\ c & d \end{pmatrix},$$ debemos considerar dos permutaciones: la identidad y la transposición $(1,2)$.

La identidad tiene signo $1$ y le corresponde el sumando $ad$. La transposición tiene signo $-1$ y le corresponde el sumando $bc$. Así, $$\begin{vmatrix} a & b \\ c & d \end{vmatrix} = ad-bc.$$

$\triangle$

Retomando la discusión antes de la definición, tenemos entonces que $\det T = \det A_T$, en donde a la izquierda hablamos de un determinante de transformaciones lineales y a la derecha de uno de matrices. La matriz de $T$ depende de la base elegida, pero como vimos, el determinante de $T$ no. Esta es una conclusión muy importante, y la enunciamos como teorema en términos de matrices.

Teorema. Sean $A$ y $P$ matrices en $M_n(F)$ con $P$ invertible. El determinante de $A$ y el de $P^{-1}AP$ son iguales.

Determinantes de matrices triangulares

Terminamos esta entrada con un problema que nos ayudará a repasar la definición y que más adelante servirá para calcular determinantes.

Problema. Muestra que el determinante de una matriz triangular superior o triangular inferior es igual al producto de las entradas de su diagonal.

Solución. En una matriz triangular superior tenemos que $a_{ij}=0$ si $i>j$. Vamos a estudiar la expresión $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$

Si una permutación $\sigma$ no es la identidad, entonces hay un entero $i$ que no deja fijo, digamos $\sigma(i)\neq i$. Tomemos a $i$ como el mayor entero que $\sigma$ no deja fijo. Notemos que $\sigma(i)$ tampoco queda fijo por $\sigma$ pues $\sigma(\sigma(i))=\sigma(i)$ implica $\sigma(i)=i$, ya que $\sigma$ es biyectiva, y estamos suponiendo $\sigma(i)\neq i$. Por la maximalidad de $i$, concluimos que $\sigma(i)<i$.Entonces el sumando correspondiente a $\sigma$ es $0$ pues tiene como factor a la entrada $a_{i\sigma(i)}=0$.

En otras palabras, la única permutación a la que le puede corresponder un sumando no cero es la identidad, cuyo signo es $1$. De esta forma,
\begin{align*}
\det(A) &= \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}\\
&=a_{11}\cdot \ldots \cdot a_{nn}.
\end{align*}

$\square$

Más adelante…

En esta entrada planteamos cómo se define el concepto de matriz para transformaciones lineales y cómo esta definición se extiende naturalmente a la definición del determinante de una matriz, recordando que a cada transformación lineal se le puede asociar una matriz y viceversa.

En las siguientes entradas vamos a ver qué propiedades que cumplen los determinantes y aprenderemos diferentes técnicas para calcularlos. A lo largo de la unidad, desarrollaremos bastante práctica en el cálculo y la manipulación de los determinantes, ya sea el determinante de un conjunto de vectores, de una transformación lineal o de una matriz.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que la transformación $T_f$ definida en la entrada es $n$-lineal y alternante.
  • Usando la definición de determinante para transformaciones lineales, encuentra el determinante de la transformación lineal $T:\mathbb{R}^n \to \mathbb{R}^n$ dada por $$T(x_1,x_2,\ldots,x_n)=(x_2,x_3,\ldots,x_1).$$
  • Calcula por definición el determinante de las matrices $$\begin{pmatrix} 3 & 2 \\ 4 & 1\end{pmatrix}$$ y $$\begin{pmatrix} 1 & 2 & 4 \\ 1 & 3 & 9 \\ 1 & 4 & 16 \end{pmatrix}.$$
  • Calcula por definición el determinante de la matriz $$\begin{pmatrix} 1 & 1 & 1 \\ 2 & 3 & 4 \\ 4 & 9 & 16\end{pmatrix}$$ y compáralo con el de la matriz de $3\times 3$ del inciso anterior. ¿Qué notas?
  • Completa el argumento para mostrar que el determinante de una matriz triangular inferior es el producto de las entradas en su diagonal.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Transformaciones multilineales antisimétricas y alternantes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior hablamos de la importancia que tiene poder diagonalizar una matriz: nos ayuda a elevarla a potencias y a encontrar varias de sus propiedades fácilmente. En esa entrada discutimos a grandes rasgos el caso de matrices en $M_2(\mathbb{R})$. Dijimos que para dimensiones más altas, lo primero que tenemos que hacer es generalizar la noción de determinante de una manera que nos permita probar varias de sus propiedades fácilmente. Es por eso que introdujimos a las funciones multilineales y dimos una introducción a permutaciones. Tras definir las clases de transformaciones multilineales alternantes y antisimétricas, podremos finalmente hablar de determinantes.

Antes de entrar con el tema, haremos un pequeño recordatorio. Para $d$ un entero positivo y $V$, $W$ espacios vectoriales sobre un mismo campo, una transformación $d$-lineal es una transformación multilineal de $V^d$ a $W$, es decir, una tal que al fijar cualesquiera $d-1$ coordenadas, la función que queda en la entrada restante es lineal.

Con $[n]$ nos referimos al conjunto $\{1,2,\ldots,n\}$. Una permutación en $S_n$ es una función biyectiva $\sigma:[n]\to [n]$. Una permutación invierte a la pareja $i<j$ si $\sigma(i)>\sigma(j)$. Si una permutación $\sigma$ invierte una cantidad impar de parejas, decimos que es impar y que tiene signo $\text{sign}(\sigma)=-1$. Si invierte a una cantidad par de parejas (tal vez cero), entonces es par y tiene signo $\text{sign}(\sigma)=1$.

Transformaciones $n$-lineales antisimétricas y alternantes

Tomemos $d$ un entero positivo, $V$, $W$ espacios vectoriales sobre el mismo campo y $\sigma$ una permutación en $S_d$. Si $T:V^d\to W$ es una transformación $d$-lineal, entonces la función $(\sigma T):V^d\to W$ dada por $$(\sigma T)(v_1,\ldots,v_d)=T(v_{\sigma(1)},v_{\sigma(2)},\ldots,v_{\sigma(d)})$$ también lo es. Esto es ya que sólo se cambia el lugar al que se lleva cada vector. Como $T$ es lineal en cualquier entrada (al fijar las demás), entonces $\sigma T$ también.

Definición. Decimos que $T$ es antisimétrica si $\sigma T = \text{sign}(\sigma) T$ para cualquier permutación $\sigma$ en $S_d$. En otras palabras, $T$ es antisimétrica si $\sigma T=T$ para las permutaciones pares y $\sigma T = -T$ para las permutaciones impares.

Definición. Decimos que $T$ es alternante si $T(v_1,\ldots,v_d)=0$ cuando hay dos $v_i$ que sean iguales.

Ejemplo. Consideremos la función $T:(\mathbb{R}^2)^2\to\mathbb{R}$ dada por $$T((a,b),(c,d))=ad-bc.$$ Afirmamos que ésta es una transformación $2$-lineal alternante y antisimétrica. La parte de mostrar que es $2$-lineal es sencilla y se queda como tarea moral.

Veamos primero que es una función alternante. Tenemos que mostrar que si $(a,b)=(c,d)$, entonces $T((a,b),(c,d))=0$. Para ello, basta usar la definición: $$T((a,b),(a,b))=ab-ab=0.$$

Ahora veamos que es una función antisimétrica. Afortunadamente, sólo hay dos permutaciones en $S_2$, la identidad $\text{id}$ y la permutación $\sigma$ que intercambia a $1$ y $2$. La primera tiene signo $1$ y la segunda signo $-1$.

Para la identidad, tenemos $(\text{id}T)((a,b),(c,d))=\sigma((a,b),(c,d))$, así que $(\text{id}T)=T=\text{sign}(\text{id})T$, como queremos.

Para $\sigma$, tenemos que $\sigma T$ es aplicar $T$ pero «con las entradas intercambiadas». De este modo:
\begin{align*}
(\sigma T)((a,b),(c,d))&=T((c,d),(a,b))\\
&=cb-da\\
&=-(ad-bc)\\
&=-T((a,b),(c,d)).
\end{align*}

Esto muestra que $(\sigma T) = -T = \text{sign}(\sigma)T$.

$\square$

Equivalencia entre alternancia y antisimetría

Resulta que ambas definiciones son prácticamente la misma. Las transformaciones alternantes siempre son antisimétricas. Lo único que necesitamos para que las transformaciones antisimétricas sean alternantes es que en el campo $F$ en el que estamos trabajando la ecuación $2x=0$ sólo tenga la solución $x=0$. Esto no pasa, por ejemplo, en $\mathbb{Z}_2$. Pero sí pasa en $\mathbb{Q}$, $\mathbb{R}$ y $\mathbb{C}$.

Proposición. Sean $V$ y $W$ espacios vectoriales sobre un campo donde $2x=0$ sólo tiene la solución $x=0$. Sea $d$ un entero positivo. Una transformación $d$-lineal $T:V^d\to W$ es antisimétrica si y sólo si es alternante.

Demostración. Supongamos primero que $T$ es antisimétrica. Mostremos que es alternante. Para ello, supongamos que para $i\neq j$ tenemos que $x_i=x_j$.

Tomemos la permutación $\sigma:[d]\to [d]$ tal que $\sigma(i)=j$, $\sigma(j)=i$ y $\sigma(k)=k$ para todo $k$ distinto de $i$ y $j$. A esta permutación se le llama la transposición $(i,j)$. Es fácil mostrar (y queda como tarea moral), que cualquier transposición tiene signo $-1$.

Usando la hipótesis de que $T$ es antisimétrica con la transposición $(i,j)$, tenemos que
\begin{align*}
T(x_1,&\ldots, x_i,\ldots,x_j,\ldots,x_n)\\
&=-T(x_1,\ldots, x_j,\ldots,x_i,\ldots,x_n)\\
&=-T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n),
\end{align*}

en donde en la segunda igualdad estamos usando que $x_i=x_j$. De este modo, $$2T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n)=0,$$ y por la hipótesis sobre el campo, tenemos que $$T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n)=0.$$ Así, cuando dos entradas son iguales, la imagen es $0$, de modo que la transformación es alternante.

Hagamos el otro lado de la demostración. Observa que este otro lado no usará la hipótesis del campo. Supongamos que $T$ es alternante.

Como toda permutación es producto de transposiciones y el signo de un producto de permutaciones es el producto de los signos de los factores, basta con mostrar la afirmación para transposiciones. Tomemos entonces $\sigma$ la transposición $(i,j)$. Tenemos que mostrar que $\sigma T = \text{sign}(\sigma) T = -T$.

Usemos que $T$ es alternante. Pondremos en las entradas $i$ y $j$ a la suma de vectores $x_i+x_j$, de modo que $$T(x_1,\ldots,x_i+x_j,\ldots,x_i+x_j,\ldots,x_n)=0.$$ Usando la $n$-linealidad de $T$ en las entradas $i$ y $j$ para abrir el término a la izquierda, tenemos que
\begin{align*}
0=T(x_1&,\ldots,x_i,\ldots,x_i,\ldots,x_n) + \\
&T(x_1,\ldots,x_i,\ldots,x_j,\ldots,x_n)+\\
&T(x_1,\ldots,x_j,\ldots,x_i,\ldots,x_n)+\\
&T(x_1,\ldots,x_j,\ldots,x_j,\ldots,x_n).
\end{align*}

Usando de nuevo que $T$ es alternante, el primero y último sumando son cero. Así, \begin{align*}
T(x_1&,\ldots, x_i,\ldots,x_j,\ldots,x_n)\\
&=-T(x_1,\ldots, x_j,\ldots,x_i,\ldots,x_n).
\end{align*}

En otras palabras, al intercambiar las entradas $i$ y $j$ se cambia el signo de $T$, que precisamente quiere decir que $(\sigma T) = \text{sign}(\sigma)T$.

$\square$

Las transformaciones alternantes se anulan en linealmente dependientes

Una propiedad bastante importante de las transformaciones alternantes es que ayudan a detectar a conjuntos de vectores linealmente dependientes.

Teorema. Sea $T:V^d\to W$ una transformación $d$-lineal y alternante. Supongamos que $v_1,\ldots,v_d$ son linealmente dependientes. Entonces $$T(v_1,v_2,\ldots,v_d)=0.$$

Demostración. Como los vectores son linealmente dependientes, hay uno que está generado por los demás. Sin perder generalidad, podemos suponer que es $v_d$ y que tenemos $$v_d=\alpha_1v_1+\ldots+\alpha_{d-1}v_{d-1}$$ para ciertos escalares $\alpha_1,\ldots, \alpha_{d-1}$.

Usando la $d$-linealidad de $T$, tenemos que
\begin{align*}
T\left(v_1,v_2,\ldots,v_{d-1},v_d\right)&=T\left(v_1,\ldots,v_{d-1},\sum_{i=1}^{d-1} \alpha_i v_i\right)\\
&=\sum_{i=1}^{d-1} \alpha_i T(v_1,\ldots,v_{d-1}, v_i).
\end{align*}

Usando que $T$ es alternante, cada uno de los sumandos del lado derecho es $0$, pues en el $i$-ésimo sumando tenemos que aparece dos veces el vector $v_i$ entre las entradas de $T$. Esto muestra que $$T(v_1,\ldots,v_d)=0,$$ como queríamos mostrar.

$\square$

Introducción a definiciones de determinantes

En la siguiente entrada daremos tres definiciones de determinante. Una es para un conjunto de vectores. Otra es para transformaciones lineales. La última es para matrices. Todas ellas se motivan entre sí, y las propiedades de una nos ayudan a probar propiedades de otras. En esa entrada daremos las definiciones formales. Por ahora sólo hablaremos de ellas de manera intuitiva.

Para definir el determinante para un conjunto de vectores, empezamos con un espacio vectorial $V$ de dimensión $n$ y tomamos una base $B=(b_1,\ldots,b_n)$. Definiremos el determinante con respecto a $B$ de un conjunto de vectores $(v_1,v_2,\ldots,v_n)$ , al cual denotaremos por $\det_{(b_1,\ldots,b_n)}(v_1,\ldots,v_n)$de $V$ de la manera siguiente.

A cada vector $v_i$ lo ponemos como combinación lineal de elementos de la base: $$v_i=\sum_{j=1}^n a_{ji}b_j.$$ El determinante $$\det_{(b_1,\ldots,b_n)}(v_1,\ldots,v_n)$$ es $$\sum_{\sigma \in S(n)} \text{sign}(\sigma) a_{1\sigma(1)} \cdot a_{2\sigma(1)}\cdot \ldots\cdot a_{n\sigma(n)}.$$

Observa que esta suma tiene tantos sumandos como elementos en $S_n$, es decir, como permutaciones de $[n]$. Hay $n!$ permutaciones, así que esta suma tiene muchos términos incluso si $n$ no es tan grande.

Veremos que para cualquier base $B$, el determinante con respecto a $B$ es una forma $d$-lineal alternante, y que de hecho las únicas formas $d$-lineales alternantes en $V$ «son determinantes», salvo una constante multiplicativa.

Luego, para una transformación $T:V\to V$ definiremos al determinante de $T$ como el determinante $$\det_{(b_1,\ldots,b_n)}(T(b_1),\ldots,T(b_n)),$$ y veremos que esta definición no depende de la elección de base.

Finalmente, para una matriz $A$ en $M_n(F)$, definiremos su determinante como el determinante de la transformación $T_A:F^n\to F^n$ tal que $T_A(X)=AX$. Veremos que se recupera una fórmula parecida a la de determinante para un conjunto de vectores.

Los teoremas que veremos en la siguiente entrada nos ayudarán a mostrar más adelante de manera muy sencilla que el determinante para funciones o para matrices es multiplicativo, es decir, que para $T:V\to V$, $S:V\to V$ y para matrices $A,B$ en $M_n(F)$ se tiene que

\begin{align*}
\det(T\circ S)&=\det(T)\cdot \det(S)\\
\det(AB)&=\det(A)\cdot \det(B).
\end{align*}

También mostraremos que los determinantes nos ayudan a caracterizar conjuntos linealmente independientes, matrices invertibles y transformaciones biyectivas.

Más Adelante…

En esta entrada hemos definido las clases de transformaciones lineales alternantes y antisimétricas; esto con la finalidad de introducir el concepto de determinantes. Además hemos dado una definición intuitiva del concepto de determinante.

En las siguientes entrada estudiaremos diferentes definiciones de determinante: para un conjunto de vectores, para una transformación lineal y finalmente para una matriz. Veremos cómo el uso de determinantes nos ayuda a determinar si un conjunto es linealmente independiente, si una matriz es invertible o si una transformación es biyectiva; además de otras aplicaciones.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Prueba que la función $T:(\mathbb{R}^2)^2\to\mathbb{R}$ dada por $$T((a,b),(c,d))=ad-bc$$ es $2$-lineal. Para esto, tienes que fijar $(a,b)$ y ver que es lineal en la segunda entrada, y luego fijar $(c,d)$ y ver que es lineal en la primera.
  • Muestra que las transposiciones tienen signo $-1$. Ojo: sólo se intercambia el par $(i,j)$, pero puede ser que eso haga que otros pares se inviertan.
  • Muestra que cualquier permutación se puede expresar como producto de transposiciones.
  • Muestra que la suma de dos transformaciones $n$-lineales es una transformación $n$-lineal. Muestra que al multiplicar por un escalar una transformación $n$-lineal, también se obtiene una transformación $n$-lineal.
  • ¿Es cierto que la suma de transformaciones $n$-lineales alternantes es alternante?

Al final del libro Essential Linear Algebra with Applications de Titu Andreescu hay un apéndice en el que se habla de permutaciones. Ahí puedes aprender o repasar este tema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de bases ortogonales, Fourier y proceso de Gram-Schmidt

Por Blanca Radillo

Introducción

Durante las últimas clases hemos visto problemas y teoremas que nos demuestran que las bases ortogonales son extremadamente útiles en la práctica, ya que podemos calcular fácilmente varias propiedades una vez que tengamos a nuestra disposición una base ortogonal del espacio que nos interesa. Veamos más problemas de bases ortogonales y otros resultados que nos permitirán reforzar estas ideas.

Problemas resueltos de bases ortogonales y proyecciones

Para continuar con este tema, veremos que las bases ortogonales nos permiten encontrar de manera sencilla la proyección de un vector sobre un subespacio. Primero, recordemos que si $V=W\oplus W_2$, para todo $v\in V$ podemos definir su proyección en $W$, que denotamos $\pi_W(v)$, como el único elemento en $W$ tal que $v-\pi_W(v) \in W_2$.

Debido a las discusiones sobre bases ortogonales, no es difícil ver que si $\langle w,u \rangle =0$ para todo $w\in W$, entonces $u\in W_2$. Como consecuencia de esto, tenemos el siguiente resultado:

Teorema. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interior $\langle \cdot , \cdot \rangle$, y sea $W$ un subespacio de $V$ de dimensión finita. Sea $v_1,\cdots,v_n$ una base ortogonal de $W$. Entonces para todo $v\in V$ tenemos que

$\pi_W(v)=\sum_{i=1}^n \frac{\langle v,v_i \rangle}{\norm{v_i}^2} v_i .$

Demostración. Escribimos $v$ como $v=\pi_W(v)+u$ con $u\in W_2$. Por la observación previa al teorema, $\langle u,v_i \rangle =0$ para todo $i$. Además existen $a_1,\cdots,a_n$ tales que $\pi_W(v)=a_1 v_1+\cdots+a_n v_n$. Entonces

\begin{align*}
0 &= \langle u,v_i \rangle =\langle v,v_i \rangle – \langle \pi_W(v),v_i \rangle \\
&= \langle v,v_i \rangle – \sum_{j=1}^n a_j \langle v_j,v_i \rangle \\
&= \langle v,v_i \rangle – a_i \langle v_i,v_i \rangle,
\end{align*}

porque $v_1,\cdots,v_n$ es una base ortogonal. Por lo tanto, para todo $i$, obtenemos

$a_i=\frac{\langle v,v_i \rangle}{\norm{v_i}^2}.$

$\square$

Distancia de un vector a un subespacio y desigualdad de Bessel

En la clase de ayer, vimos la definición de distancia entre dos vectores. También se puede definir la distancia entre un vector y un subconjunto como la distancia entre el vector y el vector «más cercano» del subconjunto, en símbolos:

$d(v,W)=\min_{x\in W} \norm{x-v}.$

Dado que $x\in W$, $x-\pi_W(v) \in W$, y por definición de proyección $v-\pi_W(v) \in W_2$, entonces

\begin{align*}
\norm{x-v}^2 &=\norm{(x-\pi_W(v))+(\pi_W(v)-v)}^2 \\
&= \norm{x-\pi_W(v)}^2+2\langle x-\pi_W(v),\pi_W(v)-v \rangle+\norm{\pi_W(v)-v}^2 \\
&= \norm{x-\pi_W(v)}^2+\norm{\pi_W(v)-v}^2\\
&\geq \norm{\pi_W(v)-v}^2.
\end{align*}

Y dado que la proyección pertenece a $W$, la desigualdad anterior muestra que la proyección es precisamente el vector en $W$ con el que $v$ alcanza la distancia a $W$. En conclusión, $$d(v,W)=\norm{\pi_W(v)-v}.$$

Teorema. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ con producto interior $\langle \cdot , \cdot \rangle$, y sea $W$ un subespacio de $V$ de dimensión finita. Sea $v_1,\ldots,v_n$ una base ortonormal de $W$. Entonces para todo $v\in V$ tenemos que

$\pi_W(v)=\sum_{i=1}^n \langle v,v_i \rangle v_i,$

y

\begin{align*}
d(v,W)^2&=\norm{v-\sum_{i=1}^n \langle v,v_i \rangle v_i }^2\\
&=\norm{v}^2-\sum_{i=1}^n \langle v,v_i \rangle^2.
\end{align*}

En particular

$\sum_{i=1}^n \langle v,v_i \rangle^2\leq \norm{v}^2.$

A esta última desigualdad se le conoce como desigualdad de Bessel.

Demostración. Por el teorema anterior y dado que $v_1,\cdots,v_n$ es una base ortonormal, obtenemos la primera ecuación. Ahora, por Pitágoras,

$d(v,W)^2=\norm{v-\pi_W(v)}^2=\norm{v}^2-\norm{\pi_W(v)}^2.$

Por otro lado, tenemos que

\begin{align*}
\norm{\pi_W(v)}^2 &=\norm{\sum_{i=1}^n \langle v,v_i \rangle v_i}^2 \\
&= \sum_{i,j=1}^n \langle \langle v,v_i \rangle v_i, \langle v,v_j \rangle v_j \rangle \\
&= \sum_{i,j=1}^n \langle v,v_i \rangle \langle v,v_j \rangle \langle v_i,v_j \rangle \\
&=\sum_{i=1}^n \langle v,v_i \rangle^2.
\end{align*}

Por lo tanto, se cumple la igualdad de la distancia. Finalmente como $d(v,W)^2 \geq 0$, inmediatamente tenemos la desigualdad de Bessel.

$\square$

Veamos ahora dos problemas más en los que usamos la teoría de bases ortonormales.

Aplicación del proceso de Gram-Schmidt

Primero, veremos un ejemplo más del uso del proceso de Gram-Schmidt.

Problema. Consideremos $V$ como el espacio vectorial de polinomios en $[0,1]$ de grado a lo más $2$, con producto interior definido por $$\langle p,q \rangle =\int_0^1 xp(x)q(x) dx.$$

Aplica el algoritmo de Gram-Schmidt a los vectores $1,x,x^2$.

Solución. Es fácil ver que ese sí es un producto interior en $V$ (tarea moral). Nombremos $v_1=1, v_2=x, v_3=x^2$. Entonces

$$e_1=\frac{v_1}{\norm{v_1}}=\sqrt{2}v_1=\sqrt{2},$$

ya que $$\norm{v_1}^2=\int_0^1 x \, dx=\frac{1}{2}.$$

Sea $z_2=v_2-\langle v_2,e_1 \rangle e_1$. Calculando, $$\langle v_2,e_1 \rangle=\int_0^1 \sqrt{2}x^2 dx=\frac{\sqrt{2}}{3}.$$ Entonces $z_2=x-\frac{\sqrt{2}}{3}\sqrt{2}=x-\frac{2}{3}.$ Esto implica que

$e_2=\frac{z_2}{\norm{z_2}}=6\left(x-\frac{2}{3}\right)=6x-4.$

Finalmente, sea $z_3=v_3-\langle v_3,e_1\rangle e_1 -\langle v_3,e_2 \rangle e_2$. Haciendo los cálculos obtenemos que

$z_3=x^2-\left(\frac{\sqrt{2}}{4}\right)\sqrt{2}-\left(\frac{1}{5}\right)(6x-4)$

$z_3=x^2-\frac{6}{5}x+\frac{3}{10}.$

Por lo tanto

$e_3=\frac{z_3}{\norm{z_3}}=10\sqrt{6}(x^2-\frac{6}{5}x+\frac{3}{10}).$

$\triangle$

El teorema de Plancherel y una fórmula con $\pi$

Finalmente, en este ejemplo, usaremos técnicas de la descomposición de Fourier para solucionar un problema bonito de series.

Problema. Consideremos la función $2\pi-$periódica $f:\mathbb{R}\rightarrow \mathbb{R}$ definida como $f(0)=f(\pi)=0,$ $f(x)=-1-\frac{x}{\pi}$ en el intervalo $(-\pi,0)$, y $f(x)=1-\frac{x}{\pi}$ en el intervalo $(0,\pi)$.

Problemas de bases ortogonales: Aplicando el teorema de Plancherel para una fórmula que involucra a pi.
Gráfica de la función $f$.

Usa el teorema de Plancherel para deducir las identidades de Euler

\begin{align*}
\sum_{n=1}^\infty \frac{1}{n^2} &= \frac{\pi^2}{6},\\
\sum_{n=0}^\infty \frac{1}{(2n+1)^2} & = \frac{\pi^2}{8}.
\end{align*}

Solución. Notemos que no sólo es $2\pi-$periódica, también es una función impar, es decir, $f(-x)=-f(x)$. Por lo visto en la clase del miércoles pasado tenemos que calcular

$a_0(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x) dx,$

$a_k(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x) cos(kx) dx,$

$b_k(f)=\frac{1}{\pi} \int_{-\pi}^{\pi} f(x)sen(kx) dx.$

Para no hacer más larga esta entrada, la obtención de los coeficientes de Fourier se los dejaremos como un buen ejercicio de cálculo. Para hacer las integrales hay que separar la integral en cada uno de los intervalos $[-\pi,0]$ y $[0,\pi]$ y en cada uno de ellos usar integración por partes.

El resultado es que para todo $k\geq 1$, $$a_0=0, a_k=0, b_k=\frac{2}{k\pi}.$$

Entonces por el teorema de Plancherel,

\begin{align*}
\sum_{k=1}^\infty \frac{4}{k^2\pi^2} &=\frac{1}{\pi} \int_{-\pi}^{\pi} f^2(x) dx \\
&= \frac{1}{\pi} \left( \int_{-\pi}^0 \left(1+\frac{x}{\pi}\right)^2 dx + \int_0^\pi \left(1-\frac{x}{\pi}\right)^2 dx \right) \\
&= \frac{2}{3},
\end{align*}

teniendo que $$\sum_{k=1}^\infty \frac{1}{k^2} =\frac{2}{3}\frac{\pi^2}{4}=\frac{\pi^2}{6}.$$

Ahora para obtener la otra identidad de Euler, notemos que

\begin{align*}
\sum_{n=0}^\infty \frac{1}{(2n+1)^2} &= \sum_{n=1}^\infty \frac{1}{n^2} – \sum_{n=1}^\infty \frac{1}{(2n)^2} \\
&= \frac{\pi^2}{6}-\frac{\pi^2}{4\cdot6}= \frac{\pi^2}{8}.
\end{align*}

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Proceso de Gram-Schmidt

Por Blanca Radillo

Introducción

Durante esta semana hemos introducido el concepto de bases ortogonales y ortonormales, así como algunas propiedades especiales. Para poder aplicar los resultados que hemos visto, es necesario insistir en que las bases sean de este tipo (ortonormales). Ahora veremos cómo encontrar bases ortonormales usando algo llamado el proceso de Gram-Schmidt.

Recordando todos los problemas anteriores de este curso, decíamos que una base es un conjunto de vectores linealmente independientes y que el número de vectores coincide con la dimensión del espacio. Pero hasta este momento no nos interesó determinar si las bases eran ortonormales o no. Si nos pusiéramos a ver si lo eran, es probable que muy pocas lo sean. Entonces surgen dos preguntas, ¿será difícil encontrar una base ortonormal de un espacio vectorial? y ¿habrá alguna manera de construir una base ortonormal?

Proceso de Gram-Schmidt

La respuesta a la primera pregunta es «no, no es difícil», y justo la respuesta de la segunda pregunta es la justificación. Dada una base cualquiera del espacio vectorial, podemos construir una base ortonormal de ese mismo espacio gracias al siguiente teorema.

Teorema (Gram-Schmidt). Sean $v_1,v_2,\cdots,v_d$ vectores linealmente independientes en un espacio vectorial $V$ sobre $\mathbb{R}$ (no necesariamente de dimensión finita), con producto interior $\langle \cdot , \cdot \rangle$. Entonces existe una única familia de vectores ortonormales $e_1,e_2,\ldots,e_d$ en $V$ con la propiedad de que para todo $k=1,2,\ldots,d$, tenemos que

\begin{align*}
\text{span}(e_1,e_2,\cdots,e_k)&=\text{span}(v_1,v_2,\cdots,v_k), \quad \text{y} \quad\\
\langle e_k,v_k \rangle&>0.
\end{align*}

Demostración. Lo haremos por inducción sobre $d$, la cantidad de vectores con la que empezamos.

La base inductiva es cuando $d=1$. Tomamos un vector $e_1\in \text{span}(v_1)$, entonces podemos escribirlo como $e_1=\lambda v_1$ para cierta $\lambda$. Si queremos que $0<\langle e_1,v_1 \rangle=\lambda\norm{v_1}^2$, entonces $\lambda>0$. Además queremos que $e_1$ tenga norma igual a 1, entonces $$1=\norm{e_1}^2=\langle e_1,e_1 \rangle=\lambda^2\norm{v_1}^2,$$ lo cual es posible si $\lambda=\frac{1}{\norm{v_1}}$. Como $e_1$ es un múltiplo escalar de $v_1$, se tiene que $\text{span}(e_1)=\text{span}(v_1)$. Además, la construcción forzó a que $e_1=\frac{1}{\norm{v_1}} v_1$ sea el único vector que satisface las condiciones del teorema.

Hagamos ahora el paso inductivo. Tomemos un entero $d\geq 2$, y supongamos que el teorema es cierto para $d-1$. Sean $v_1,v_2,\cdots,v_d$ vectores en $V$ linelmente independientes. Por hipótesis, sabemos que existe una única familia de vectores ortonormales $e_1,\cdots,e_{d-1}$ que satisfacen las condiciones del teorema respecto a la familia $v_1,\cdots,v_{d-1}$. Es suficiente con probar que existe un único vector $e_d$ tal que $e_1,\cdots,e_d$ satisface el teorema con respecto a $v_1,\cdots,v_d$, esto es
\begin{align*}
\norm{e_d}&=1,\\
\langle e_d,e_i \rangle&=0 \quad \forall 1\leq i\leq d-1,\\
\langle e_d, v_d \rangle &> 0,
\end{align*}

y

$\text{span}(e_1,\cdots,e_d)=\text{span}(v_1,\cdots,v_d),$

ya que, por hipótesis, los casos de $k<d$ se cumplen.

La idea para construir $e_d$ es tomarlo de $\text{span}(v_1,\cdots,v_d)$, expresarlo como combinación lineal de estos y encontrar condiciones necesarias y suficientes sobre los coeficientes de $e_d$ para que satisfaga las conclusiones del teorema. Hagamos esto.

Sea $e_d$ un vector tal que $e_d\in\text{span}(v_1,\cdots,v_d)$. Por ser linealmente independientes y por hipótesis $$\text{span}(v_1,\cdots,v_d)=\text{span}(e_1,\cdots,e_{d-1})+\text{span}(v_d),$$ entonces podemos escribir $e_d$ como

$e_d=\lambda v_d +\sum_{i=1}^{d-1} a_i e_i$

para algunos $\lambda,a_1,\cdots,a_{d-1}$. Si resulta que $\lambda\neq 0$, esto también implicará que $\text{span}(e_1,\cdots,e_d)=\text{span}(v_1,\cdots,v_d)$.

Ahora, dado que $e_d$ debe formar una familia ortonormal con el resto de los vectores, para todo $j=1,\cdots,d-1$, tenemos que


\begin{align*}
0&=\langle e_d,e_j \rangle\\
&=\lambda\langle v_d,e_j\rangle + \sum_{i=1}^{d-1} a_i\langle e_i,e_j \rangle\\
&=\lambda\langle v_d,e_j \rangle +a_j,
\end{align*}

entonces $a_j=-\lambda\langle v_d,e_j \rangle$. Si logramos mostrar que hay un único $\lambda$ con el que se pueda satisfacer la conclusión del teorema, el argumento anterior muestra que también hay únicos $a_1,\ldots,a_{d-1}$ y por lo tanto que hay un único vector $e_d$ que satisface el teorema.

Sustituyendo los coeficientes anteriores, obtenemos que

$e_d=\lambda\left(v_d-\sum_{i=1}^{d-1} \langle v_d,e_i\rangle e_i \right).$

Notemos que si $z:=v_d-\sum_{i=1}^{d-1} \langle v_d,e_i\rangle e_i$ es cero, $v_d$ estaría en $$\text{span}(e_1,\cdots,e_{d-1}) = \text{span}(v_1,\cdots,v_{d-1}),$$ contradiciendo que los vectores $v_i$’s son linealmente independientes, entonces $z\neq 0$.

Ahora como queremos que $1=\norm{e_d}=|\lambda| \norm{z}$, esto implica que $|\lambda|=\frac{1}{\norm{z}}$.

Como además queremos que $\langle e_d,v_d \rangle >0$ y

$\langle e_d,v_d\rangle =\left\langle e_d,\frac{e_d}{\lambda}+\sum_{i=1}^{d-1} \langle v_d,e_i\rangle e_i \right\rangle=\frac{1}{\lambda},$

se deduce que $\lambda$ es único y está determinado por $\lambda=\frac{1}{\norm{z}}.$ Por lo tanto existe (y es único) el vector $e_d$ que satisface el teorema.

$\square$

Este proceso de construcción es mejor conocido como el proceso de Gram-Schmidt. La demostración da a la vez un algoritmo que nos permite encontrar bases ortogonales (y de hecho ortonormales). Veremos ejemplos de esto en la siguiente sección. Antes de eso, enunciaremos formalmente una de las conclusiones más importantes del teorema anterior.

Recuerda que un espacio Euclideano es un espacio vectorial de dimensión finita sobre $\mathbb{R}$ y con un producto interior. Podemos aplicar el proceso de Gram-Schmidt a cualquier base $v_1,\ldots,v_d$ de un espacio Euclideano $V$ y al final obtendremos una familia $e_1,\ldots,e_d$ de vectores ortonormales. Como sabemos que las familias de vectores ortonormales son linealmente independientes, y tenemos $d$ vectores, concluimos que $e_1,\ldots,e_d$ es una base ortonormal. En resumen, tenemos el siguiente resultado.

Corolario. Todo espacio Euclideano tiene una base ortonormal.

Ejemplos de aplicación del proceso de Gram-Schmidt

A continuación veremos algunos ejemplos que nos ayuden a clarificar más este algoritmo.

Ejemplo 1. Sean $v_1,v_2,v_3$ vectores en $\mathbb{R}^3$ (con el producto interior estándar) definidos por

$v_1=(1, 1, 0), \quad v_2=( 1, 1, 1), \quad v_3=( 1, 0, 1)$.

Es fácil ver que estos vectores son linealmente independientes. Entonces construyamos según el proceso de Gram-Schmidt la familia ortonormal de vectores $e_1,e_2,e_3$. Tenemos que

$e_1=\frac{v_1}{\norm{v_1}}=\frac{v_1}{\sqrt{2}}=\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}},0\right)$.

Ahora, tomando $z_2=v_2-\langle v_2,e_1\rangle e_1$, tenemos que $e_2$ está definido como $\frac{z_2}{\norm{z_2}}$, entonces

\begin{align*}
z_2&=(1,1,1)-\left[(1,1,1)\cdot \left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}},0\right)\right]\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}},0\right) \\
&=(1,1,1)-\left[\frac{2}{\sqrt{2}}\right]\left(\frac{1}{\sqrt{2}},\frac{1}{\sqrt{2}},0\right) \\
&=(1,1,1)-(2/2,2/2,0)\\
&=(1,1,1)-(1,1,0)=(0,0,1).
\end{align*}

Esto implica que $e_2=\frac{1}{1}(0,0,1)=(0,0,1)$. Finalmente tomando $z_3=v_3-\langle v_3,e_1 \rangle e_1 – \langle v_3,e_2 \rangle e_2$, sabemos que $e_3=\frac{z_3}{\norm{z_3}}$. Entonces

\begin{align*}
z_3&=v_3-\langle v_3,e_1 \rangle e_1 – \langle v_3,e_2 \rangle e_2 \\
&=(1,0,1)-\left(\frac{1}{2},\frac{1}{2},0\right)-(0,0,1) \\
&=\left(\frac{1}{2},-\frac{1}{2},0\right).
\end{align*}

Por lo tanto

$e_3=\frac{1}{\sqrt{1/2}}\left(\frac{1}{2}, -\frac{1}{2},0\right)=\left(\frac{1}{\sqrt{2}},\frac{-1}{\sqrt{2}},0\right).$

$\triangle$

Ejemplo 2. Sea $V$ el espacio de polinomios en $[0,1]$ con coeficientes reales de grado a lo más 2, con el producto interior

$\langle p,q \rangle =\int_0^1 p(x)q(x) dx.$

Sean $v_1=1$, $v_2=1+x$, $v_3=1+x^2$ vectores en $V$ que claramente son linealmente independientes. Encontraremos los vectores que nos da el proceso de Gram-Schmidt.

Primero calculemos

$\norm{v_1}^2=\int_0^1 1 dx= 1$,

entonces $e_1=\frac{v_1}{\norm{v_1}}=v_1=1$. Ahora calculemos $z_2$:

\begin{align*}
z_2&=v_2-\langle v_2,e_1 \rangle e_1 \\
&=1+x- \int_0^1 (1+x)dx=1+x-\left(1+\frac{1}{2}\right) \\
&=x-\frac{1}{2}.
\end{align*}

Haciendo la integral $$\int_0^1 \left(x-\frac{1}{2}\right)^2 dx$$ se obtiene que $\norm{z_2}=\sqrt{\frac{1}{12}}$, entonces $e_2=\sqrt{12}\left(x-\frac{1}{2}\right)$.

Por último, hay que calcular $z_3$ así como su norma. Primero,

\begin{align*}
z_3&=v_3-\langle v_3,e_1 \rangle e_1 – \langle v_3,e_2 \rangle e_2 \\
&=(1+x^2)-\int_0^1 (1+x^2)dx – 12\left(x-\frac{1}{2}\right)\int_0^1 (1+x^2)\left(x-\frac{1}{2}\right)dx \\
&=1+x^2-\left(1+\frac{1}{3}\right)-12\left(x-\frac{1}{2}\right)\left(\frac{1}{12}\right) \\
&=x^2-\frac{1}{3}-x+\frac{1}{2} \\
&=x^2-x+\frac{1}{6},
\end{align*}

y luego, con la integral $$\int_0^1 \left(x^2-x+\frac{1}{6}\right)^2 dx$$ se calcula que $\norm{z_3}=\frac{1}{6\sqrt{5}}$, por lo tanto $e_3=6\sqrt{5}\left(x^2-x+\frac{1}{6}\right)$.

$\triangle$

Aunque no es un proceso muy eficiente, nos garantiza que podemos encontrar una base ortonormal para cualquier espacio vectorial (con producto interior). Ya con una base ortonormal, podemos usar la descomposición de Fourier de la cual hablamos la entrada anterior y con ella todas las consecuencias que tiene.

Si quieres ver muchos más ejemplos del proceso en $\mathbb{R}^n$, puedes usar una herramienta en línea que te permite ver el proceso paso a paso en el conjunto de vectores que tu elijas. Una posible página es el Gram-Schmid Calculator de eMathHelp.

Más adelante…

En esta última entrada teórica de la unidad 3, vimos el método de Gram-Schmidt para construir una base ortonormal, que es un proceso algorítmico que parte de tener una base de un espacio y al final calcula una base ortonormal. También se vieron algunos ejemplos de la aplicación de este proceso para espacios vectoriales finitos como $\mathbb{R}^3$ y el espacio de polinomios en [0,1] de grado a lo más 2. Aunque no es una manera muy eficaz para encontrar una base ortonormal, sí te garantiza que lo que construye es una.

En la próxima entrada veremos ejercicios resueltos de los temas que hemos estado estudiando a lo largo de esta semana. 

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica que con el valor $\lambda$ que se encontró en la demostración del teorema de Gram-Schmidt en efecto se obtiene un vector $e_d$ que satisface todas las conclusiones que se desean.
  • Revisa que los vectores que se obtuvieron en los ejemplos de aplicación del proceso de Gram-Schmidt en efecto son bases ortogonales de los espacios correspondientes.
  • Aplica el proceso de Gram-Schmidt a los polinomios $1$, $x$, $x^2$ en el espacio Euclideano de los polinomios reales de grado a lo más dos y producto interior $$\langle p, q \rangle = p(0)q(0)+p(1)q(1)+p(2)q(2).$$
  • Aplica el proceso de Gram-Schmidt a los vectores \begin{align*}(1,1,1,1)\\ (0,1,1,1)\\ (0,0,1,1)\\ (0,0,0,1)\end{align*} de $\mathbb{R}^4$ con el producto interior canónico (el producto punto).
  • Usa el Gram-Schmidt Calculator de eMathHelp para ver paso a paso cómo se aplica el proceso de Gram-Schmidt a los vectores \begin{align*}(1,2,1,1,-1)\\ (0,0,1,0,0)\\ (2,0,0,1,1)\\ (0,2,0,0,1)\\ (-3,0,0,1,0)\end{align*} de $\mathbb{R}^5$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Aplicaciones de bases ortogonales y descomposición de Fourier

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada continuamos hablando de bases ortogonales. Como recordatorio, para poder hablar de esto, necesitamos un espacio vectorial sobre $\mathbb{R}$ equipado con un producto interior, y por lo tanto podemos hablar de normas. Una base ortogonal de $V$ es una base en la cual cada par de vectores tiene producto interior $0$. Es ortonormal si además cada elemento es de norma $1$. Ahora veremos que dada una base ortonormal, podemos hacer una descomposición de Fourier de los vectores de $V$, que nos permite conocer varias de sus propiedades fácilmente.

La teoría que discutiremos está basada en el contenido de la Sección 10.5 del libro Essential Lineal Algebra with Applications de Titu Andreescu. Las últimas dos secciones de esta entrada son un poco abstractas, pero son la puerta a ideas matemáticas interesantes con muchas aplicaciones dentro de la matemática misma y en el mundo real.

Descomposición de Fourier

Es fácil conocer las coordenadas de un vector en términos de una base ortonormal.

Teorema. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortonormal con este producto interior, entonces para cualquier vector $v$, la coordenada de $v$ con respecto a $e_i$ es $\langle v, e_i \rangle$.

Demostración. Expresemos a $v$ en la base $B$ como $$v=\alpha_1e_1+\ldots+\alpha_n e_n.$$

Tomemos $j$ en $1,2,\ldots,n$. Usando la linealidad del producto interior, tenemos que
\begin{align*}
\langle v, e_j \rangle &= \left \langle \sum_{i=1}^n \alpha_i e_i, e_j \right \rangle\\
&=\sum_{i=1}^n \alpha_i \langle e_i,e_j \rangle.
\end{align*}

Como $B$ es base ortonormal, tenemos que en el lado derecho $\langle e_j,e_j\rangle = 1$ y que si $i\neq j$ entonces $\langle e_i, e_j\rangle=0$. De esta forma, el lado derecho de la expresión es $\alpha_j$, de donde concluimos que $$\langle v, e_j \rangle = \alpha_j,$$ como queríamos.

$\square$

Definición. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortonormal, a $$v=\sum_{i=1}^n \langle v, e_i \rangle e_i$$ le llamamos la descomposición de Fourier de $v$ con respecto a $B$.

Ejemplo. Trabajemos en el espacio vectorial $V=\mathbb{R}_2[x]$ de polinomios reales de grado a lo más $2$. Ya mostramos anteriormente (con más generalidad) que $$\langle p,q \rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1)$$ es un producto interior en $V$.

Los polinomios $\frac{1}{\sqrt{3}}$, $\frac{x}{\sqrt{2}}$ y $\frac{3x^2-2}{\sqrt{6}}$ forman una base ortonormal, lo cual se puede verificar haciendo las operaciones y queda de tarea moral. ¿Cómo expresaríamos a la base canónica $\{1,x,x^2\}$ en términos de esta base ortonormal? Los primeros dos son sencillos:
\begin{align}
1&=\sqrt{3}\cdot \frac{1}{\sqrt{3}}\\
x&=\sqrt{2}\cdot \frac{x}{\sqrt{2}}.
\end{align}

Para encontrar el tercero, usamos el teorema de descomposición de Fourier. Para ello, calculamos los siguientes productos interiores:

\begin{align*}
\left\langle x^2, \frac{1}{\sqrt{3}}\right\rangle &= \frac{2}{\sqrt{3}},\\
\left \langle x^2, \frac{x}{\sqrt{2}}\right\rangle &=0,\\
\left\langle x^2, \frac{3x^2-2}{\sqrt{6}} \right\rangle &=\frac{2}{\sqrt{6}}.
\end{align*}

De este modo, $$x^2= \frac{2}{\sqrt{3}} \cdot \frac{1}{\sqrt{3}} + \frac{2}{\sqrt{6}}\cdot \frac{3x^2-2}{\sqrt{6}}.$$

$\triangle$

Norma usando la descomposición de Fourier

Cuando tenemos bases ortogonales u ortonormales, también podemos calcular la norma de un vector fácilmente.

Teorema. Si $V$ es un espacio Euclideano de dimensión $n$ con producto interior $\langle\cdot, \cdot\rangle$ y $B=\{e_1,\ldots,e_n\}$ es una base ortogonal con este producto interior, entonces para cualquier vector $$v=\alpha_1e_1+\ldots+\alpha_ne_n,$$ tenemos que $$\norm{v}^2 = \sum_{i=1}^n \alpha_i^2 \norm{e_i}^2.$$

En particular, si $B$ es una base ortonormal, entonces $$\norm{v}^2 = \sum_{i=1}^n \langle v, e_i \rangle^2.$$

Demostración. Usando la definición de norma y la bilinealidad del producto interior, tenemos que
\begin{align*}
\norm{v}^2 &= \langle v,v \rangle\\
&=\sum_{i=1}^n \sum_{j=1}^n \alpha_i \alpha_j \langle e_i, e_j\rangle.
\end{align*}

Como $B$ es base ortogonal, los únicos sumandos que quedan a la derecha son aquellos en los que $i=j$, es decir,
\begin{align*}
\norm{v}^2&=\sum_{i=1}^n \alpha_i^2 \langle e_i, e_i\rangle\\
&=\sum_{i=1}^n \alpha_i^2 \norm{e_i}^2\\
\end{align*}

como queríamos mostrar.

Si $B$ es base ortonormal, cada $\norm{e_i}^2$ es $1$, y por el teorema anterior, $\alpha_i=\langle v, e_i\rangle$. Esto prueba la última afirmación.

$\square$

Ejemplo. Continuando con el ejemplo anterior, como ya escribimos a $x^2$ en términos de la base ortogonal, podemos encontrar fácilmente su norma. Tendríamos que
\begin{align*}
\norm{x^2}^2&=\left(\frac{2}{\sqrt{3}}\right)^2+\left(\frac{2}{\sqrt{6}}\right)^2\\
&=\frac{4}{3}+\frac{4}{6}\\
&=2.
\end{align*}

De esta forma, $\norm{x^2}=\sqrt{2}$. En efecto, esto es lo que obtendríamos si hubiéramos calculado la norma de $x^2$ con la definición.

$\triangle$

Aplicación de descomposición de Fourier a polinomios

Vamos a continuar con un ejemplo que vimos en la entrada anterior. Recordemos que estábamos trabajando en $V=\mathbb{R}_n[x]$, que habíamos elegido $n+1$ reales distintos $x_0,\ldots,x_n$, y que a partir de ellos definimos $$\langle P, Q\rangle = \sum_{i=0}^n P(x_i)Q(x_i).$$ Mostramos que $\langle \cdot , \cdot \rangle$ es un producto interior y que para $j=0,\ldots,n$ los polinomios $$L_i=\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}$$ forman una base ortonormal de $V$.

Por el teorema de descomposición de Fourier, tenemos que cualquier polinomio $P$ de grado a lo más $n+1$ con coeficientes reales satisface que $$P=\sum_{i=0}^n \langle P, L_i \rangle L_i,$$ lo cual en otras palabras podemos escribir como sigue.

Teorema (de interpolación de Lagrange). Para $P$ un polinomio con coeficientes en los reales de grado a lo más $n$ y $x_0,x_1,\ldots,x_n$ reales distintos, tenemos que $$P(x)=\sum_{i=0}^n P(x_i) \left(\prod_{0\leq j \leq n, j\neq i} \frac{x-x_j}{x_i-x_j}\right).$$

El teorema de interpolación de Lagrange nos permite decir cuánto vale un polinomio de grado $n$ en cualquier real $x$ conociendo sus valores en $n+1$ reales distintos. Ya habíamos mostrado este teorema antes con teoría de dualidad. Esta es una demostración alternativa con teoría de bases ortogonales y descomposición de Fourier.

Aplicación de ideas de Fourier en funciones periódicas

También ya habíamos visto que $$\langle f,g \rangle = \int_{-\pi}^\pi f(x)g(x)\, dx$$ define un producto interior en el espacio vectorial $V$ de funciones $f:\mathbb{R}\to \mathbb{R}$ continuas y periódicas de periodo $2\pi$.

En ese ejemplo, definimos \begin{align*}
C_n(x)&=\frac{\cos(nx)}{\sqrt{\pi}}\\
S_n(x)&=\frac{\sin(nx)}{\sqrt{\pi}}.
\end{align*} y $C_0(x)=\frac{1}{\sqrt{2\pi}}$, y mostramos que $$\mathcal{F}:=\{C_n:n\geq 0\}\cup \{S_n:n\geq 1\}$$ era un conjunto ortonormal.

No se puede mostrar que $\mathcal{F}$ sea una base ortonormal, pues el espacio $V$ es de dimensión infinita, y es bastante más complicado que los espacios de dimensión finita. Sin embargo, la teoría de Fourier se dedica a ver que, por ejemplo, la familia $\mathcal{F}$ es buena aproximando a elementos de $V$, es decir a funciones continuas y periódicas de periodo $2\pi$. No profundizaremos mucho en esto, pero daremos algunos resultados como invitación al área.

Para empezar, restringimos a la familia $\mathcal{F}$ a una familia más pequeña:

$$\mathcal{F}_n:=\{C_m:0\leq m \leq n\}\cup \{S_m:1\leq m \leq n\}$$

Motivados en la descomposición de Fourier para espacios Euclideanos, definimos a la $n$-ésima serie parcial de Fourier de una función $f$ en $V$ a la expresión $$S_n(f)=\sum_{g\in \mathcal{F}_n} \langle f, g \rangle g.$$ Haciendo las cuentas, se puede mostrar que $$S_n(f)=\frac{a_0(f)}{2}+\sum_{k=1}^n \left(a_k(f)\cos(kx)+b_k(f)\sin(kx)\right),$$ en donde para $k\geq 1$ tenemos $$a_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\cos(kx)\, dx$$ y $$b_k=\frac{1}{\pi}\int_{-\pi}^\pi f(x)\sin(kx)\, dx.$$

A los números $a_k$ y $b_k$ se les conoce como los $k$-ésimos coeficientes de Fourier. Aunque $\mathcal{F}$ no sea una base para $V$, sí es buena «aproximando» a elementos de $V$. Por ejemplo, un resultado lindo de Dirichlet dice que si $f$ y su derivada son continuas, entonces $$\lim_{n\to \infty} S_n(f)(x) = f(x).$$ Este tipo de teoremas de aproximación se estudian con más a detalle en un curso de análisis matemático avanzado o de análisis de Fourier.

Considera ahora $W_n$ el subespacio de $V$ generado por $\mathcal{F}_n$. Tomemos una función $f$ cualquiera en $V$. La $n$-ésima serie de Fourier de $f$ es un elemento de $W_n$. De hecho, es precisamente la proyección de $f$ en $W_n$. Por esta razón, $$\norm{f_n}^2\leq \norm{f}^2<\infty$$

Podemos calcular la norma de $f_n$, usando el resultado para espacios Euclideanos en el espacio (de dimensión finita) $W_n$. Haciendo esto, podemos reescribir la desigualdad anterior como sigue:

$$\frac{a_0(f)^2}{2}+\sum_{k=1}^n(a_k(f)^2+b_k(f)^2)\leq \frac{1}{\pi} \norm{f}^2.$$

El lado derecho es constante, y en el lado izquierdo tenemos una suma parcial de la serie $$\sum_{k\geq 1}(a_k(f)^2+b_k(f)^2).$$ Los términos son positivos y la sucesión de sumas parciales es acotada, así que la serie converge. Entonces, necesariamente la sucesión de términos debe converger a cero. Acabamos de esbozar la demostración del siguiente teorema.

Teorema (de Riemann-Lebesgue). Sea $f$ una función continua y de periodo $2\pi$. Si $a_n(f)$ y $b_n(f)$ son los coeficientes de Fourier de $f$, entonces $$\lim_{n\to \infty} a_n(f) = \lim_{n\to \infty} b_n(f) = 0.$$

De hecho, se puede mostrar que la desigualdad que mostramos se convierte en igualdad cuando $n\to \infty$. Este es un resultado bello, profundo y cuya demostración queda fuera del alcance de estas notas.

Teorema (de Plancherel). Sea $f$ una función continua y de periodo $2\pi$. Si $a_n(f)$ y $b_n(f)$ son los coeficientes de Fourier de $f$, entonces $$\frac{a_0(f)^2}{2}+\sum_{k=1}^\infty(a_k(f)^2+b_k(f)^2)= \frac{1}{\pi} \int_{-\pi}^\pi f(x)^2\, dx.$$

Aunque no daremos la demostración de este resultado, en una entrada posterior veremos cómo podemos aplicarlo.

Más adelante…

En esta entrada seguimos estudiando las bases ortogonales. Usamos este concepto para hacer una descomposición de Fourier, para conocer propiedades de V y obtener otra manera de calcular la norma de un vector. Así mismo, vimos aplicaciones de la descomposición a polinomios, viendo el teorema de la interpolación de Lagrange ya previamente demostrado mediante teoría de dualidad.

Hasta ahora solo hemos hablado de cómo ver si una base es ortonomal y algunas propiedades de estas bases y conjuntos, en la siguiente entrada hablaremos de un método pata encontrar estas bases ortonormales usando el proceso de Gram-Schmidt.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica que los tres polinomios del ejemplo de descomposición de Fourier en efecto forman una base ortogonal.
  • Calcula la norma de $x^2$ con el producto interior del ejemplo de descomposición de Fourier usando la definición, y verifica que en efecto es $\sqrt{2}$.
  • Con la misma base ortonormal $B$ de ese ejemplo, calcula las coordenadas y la norma del polinomio $1+x+x^2$.
  • Verifica que todo lo que mencionamos se cumple con el producto punto en $\mathbb{R}^n$ y con la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»