Archivo de la etiqueta: transformaciones lineales

Álgebra Lineal I: Determinantes de matrices y transformaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior dimos la definición de determinante para ciertos vectores con respecto a una base. En esta entrada continuamos con la construcción de determinantes. Primero, basados en la teoría que desarrollamos anteriormente, definiremos determinantes de transformaciones lineales. Luego, mediante la cercanía entre transformaciones lineales y matrices, definimos determinantes de matrices.

Determinantes de transformaciones lineales

Ahora definiremos el determinante para transformaciones lineales. Antes de esto, necesitamos hacer algunas observaciones iniciales y demostrar un resultado.

Si tomamos un espacio vectorial $V$ de dimensión finita $n\geq 1$ sobre un campo $F$, una transformación lineal $T:V\to V$ y una forma $n$-lineal $f:V^n\to F$, se puede mostrar que la transformación $$T_f:V^n\to F$$ dada por $$T_f(x_1,\ldots,x_n)=f(T(x_1),\ldots,T(x_n))$$ también es una forma $n$-lineal. Además, se puede mostrar que si $f$ es alternante, entonces $T_f$ también lo es. Mostrar ambas cosas es relativamente sencillo y queda como tarea moral.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n\geq 1$ sobre el campo $F$. Para cualquier transformación lineal $T:V\to V$ existe un único escalar $\det T$ en $F$ tal que $$f(T(x_1),\ldots,T(x_n))=\det T\cdot f(x_1,\ldots, x_n)$$ para cualquier forma $n$-lineal alternante $f:V^n\to F$ y cualquier elección $x_1,\ldots,x_n$ de vectores en $V$.

Demostración. Fijemos una base $B=(b_1,\ldots,b_n)$ cualquiera de $V$. Llamemos $g$ a la forma $n$-lineal alternante $\det_{(b_1,\ldots,b_n)}$. Por la discusión de arriba, la asignación $T_g:V^n\to F$ dada por $$(x_1,\ldots,x_n)\mapsto g(T(x_1),\ldots,T(x_n))$$ es una forma $n$-lineal y alternante.

Por el teorema que mostramos en la entrada de determinantes de vectores, se debe cumplir que $$T_g = T_g(b_1,\ldots,b_n) \cdot g.$$ Afirmamos que $\det T:= T_g(b_1,\ldots, b_n)$ es el escalar que estamos buscando.

En efecto, para cualquier otra forma $n$-lineal alternante $f$, tenemos por el mismo teorema que $$f=f(b_1,\ldots,b_n) \cdot g.$$ Usando la linealidad de $T$ y la igualdad anterior, se tiene que

\begin{align*}
T_f &= f(b_1,\ldots,b_n)\cdot T_g\\
&=f(b_1,\ldots,b_n) \cdot \det T \cdot g\\
&= \det T \cdot f.
\end{align*}

Con esto se prueba que $\det T$ funciona para cualquier forma lineal $f$. La unicidad sale eligiendo $(x_1,\ldots,x_n)=(b_1,\ldots,b_n)$ y $f=g$ en el enunciado del teorema, pues esto forza a que $$\det T = g(T(b_1),\ldots,T(b_n)).$$

$\square$

Ahora sí, estamos listos para definir el determinante de una transformación lineal.

Definición. El escalar $\det T$ del teorema anterior es el determinante de la transformación lineal $T$.

Para obtener el valor de $\det T$, podemos entonces simplemente fijar una base $B=(b_1,\ldots,b_n)$ y el determinante estará dado por $$\det T = \det_{(b_1,\ldots,b_n)}(T(b_1),\ldots, T(b_n)).$$ Como el teorema también prueba unicidad, sin importar que base $B$ elijamos este número siempre será el mismo.

Ejemplo 1. Vamos a encontrar el determinante de la transformación lineal $T:\mathbb{R}^3 \to \mathbb{R}^3$ dada por $$T(x,y,z)=(2z,2y,2x).$$ Para ello, usaremos la base canónica de $\mathbb{R}^3$. Tenemos que
\begin{align*}
T(1,0,0)&=(0,0,2)=2e_3\\
T(0,1,0)&=(0,2,0)=2e_2\\
T(0,0,1)&=(2,0,0)=2e_1.
\end{align*}

De acuerdo al teorema anterior, podemos encontrar al determinante de $T$ como $$\det T = \det_{(e_1,e_2,e_3)}(2e_3,2e_2,2e_1).$$

Como el determinante (para vectores) es antisimétrico, al intercambiar las entradas $1$ y $3$ su signo cambia en $-1$. Usando la $3$-linealidad en cada entrada, podemos sacar un factor $2$ de cada una. Así, tenemos:
\begin{align*}
\det T &= \det_{(e_1,e_2,e_3)}(2e_3,2e_2,2e_1)\\
&= -\det_{(e_1,e_2,e_3)}(2e_1,2e_2,2e_3)\\
&=-8\det_{(e_1,e_2,e_3)}(e_1,e_2,e_3)\\
&=-8.
\end{align*}

Concluimos entonces que el determinante de $T$ es $-8$.

$\triangle$

Ejemplo 2. Vamos ahora a encontrar el determinante de la transformación $T:\mathbb{R}_n[x]\to \mathbb{R}_n[x]$ que deriva polinomios, es decir, tal que $T(p)=p’$. Tomemos $q_0=1,q_1=x,\ldots,q_n=x^n$ la base canónica de $\mathbb{R}_n[x]$.

Notemos que, $T(1)=0$, de modo que los vectores $T(1),\ldots,T(x^n)$ son linealmente dependientes. Así, sin tener que hacer el resto de los cálculos, podemos deducir ya que $$\det_{(q_0,\ldots,q_n)}(T(q_0),\ldots,T(q_n))=0.$$ Concluimos entonces que $\det T = 0$.

$\triangle$

Determinantes de matrices

La expresión $$\det T = \det_{(b_1,\ldots,b_n)}(T(b_1),\ldots, T(b_n))$$ para una transformación lineal $T$ también nos permite poner al determinante en términos de las entradas de la matriz de $T$ con respecto a la base $B$. Recordemos que dicha matriz $A_T=[a_{ij}]$ tiene en la columna $i$ las coordenadas de $b_i$ en la base $B$. En otras palabras, para cada $i$ se cumple que $$T(b_i)=\sum_{j=1}^n a_{ji}b_i.$$

Usando esta notación, obtenemos que $$\det T = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},$$ de manera que podemos expresar a $\det T$ en términos únicamente de su matriz en la base $B$.

Esto nos motiva a definir el determinante de una matriz en general.

Definición. Para una matriz $A$ en $M_n(F)$ de entradas $A=[a_{ij}]$, el determinante de $A$ es $$\det A = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$ A $\det A$ también lo escribimos a veces en notación de «matriz con barras verticales» como sigue:

\begin{align*}
\det A = \begin{vmatrix}
a_{11} & a_{12} & \ldots & a_{1n}\\
a_{21} & a_{22} & \ldots & a_{2n}\\
\vdots & & \ddots & \vdots\\
a_{n1} & a_{n2} & \ldots & a_{nn}.
\end{vmatrix}
\end{align*}

Ejemplo. Si queremos calcular el determinante de una matriz en $M_2(F)$, digamos $$A=\begin{pmatrix} a & b \\ c & d \end{pmatrix},$$ debemos considerar dos permutaciones: la identidad y la transposición $(1,2)$.

La identidad tiene signo $1$ y le corresponde el sumando $ad$. La transposición tiene signo $-1$ y le corresponde el sumando $bc$. Así, $$\begin{vmatrix} a & b \\ c & d \end{vmatrix} = ad-bc.$$

$\triangle$

Retomando la discusión antes de la definición, tenemos entonces que $\det T = \det A_T$, en donde a la izquierda hablamos de un determinante de transformaciones lineales y a la derecha de uno de matrices. La matriz de $T$ depende de la base elegida, pero como vimos, el determinante de $T$ no. Esta es una conclusión muy importante, y la enunciamos como teorema en términos de matrices.

Teorema. Sean $A$ y $P$ matrices en $M_n(F)$ con $P$ invertible. El determinante de $A$ y el de $P^{-1}AP$ son iguales.

Determinantes de matrices triangulares

Terminamos esta entrada con un problema que nos ayudará a repasar la definición y que más adelante servirá para calcular determinantes.

Problema. Muestra que el determinante de una matriz triangular superior o triangular inferior es igual al producto de las entradas de su diagonal.

Solución. En una matriz triangular superior tenemos que $a_{ij}=0$ si $i>j$. Vamos a estudiar la expresión $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$

Si una permutación $\sigma$ no es la identidad, entonces hay un entero $i$ que no deja fijo, digamos $\sigma(i)\neq i$. Tomemos a $i$ como el mayor entero que $\sigma$ no deja fijo. Notemos que $\sigma(i)$ tampoco queda fijo por $\sigma$ pues $\sigma(\sigma(i))=\sigma(i)$ implica $\sigma(i)=i$, ya que $\sigma$ es biyectiva, y estamos suponiendo $\sigma(i)\neq i$. Por la maximalidad de $i$, concluimos que $\sigma(i)<i$.Entonces el sumando correspondiente a $\sigma$ es $0$ pues tiene como factor a la entrada $a_{i\sigma(i)}=0$.

En otras palabras, la única permutación a la que le puede corresponder un sumando no cero es la identidad, cuyo signo es $1$. De esta forma,
\begin{align*}
\det(A) &= \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}\\
&=a_{11}\cdot \ldots \cdot a_{nn}.
\end{align*}

$\square$

Más adelante…

En esta entrada planteamos cómo se define el concepto de matriz para transformaciones lineales y cómo esta definición se extiende naturalmente a la definición del determinante de una matriz, recordando que a cada transformación lineal se le puede asociar una matriz y viceversa.

En las siguientes entradas vamos a ver qué propiedades que cumplen los determinantes y aprenderemos diferentes técnicas para calcularlos. A lo largo de la unidad, desarrollaremos bastante práctica en el cálculo y la manipulación de los determinantes, ya sea el determinante de un conjunto de vectores, de una transformación lineal o de una matriz.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que la transformación $T_f$ definida en la entrada es $n$-lineal y alternante.
  • Usando la definición de determinante para transformaciones lineales, encuentra el determinante de la transformación lineal $T:\mathbb{R}^n \to \mathbb{R}^n$ dada por $$T(x_1,x_2,\ldots,x_n)=(x_2,x_3,\ldots,x_1).$$
  • Calcula por definición el determinante de las matrices $$\begin{pmatrix} 3 & 2 \\ 4 & 1\end{pmatrix}$$ y $$\begin{pmatrix} 1 & 2 & 4 \\ 1 & 3 & 9 \\ 1 & 4 & 16 \end{pmatrix}.$$
  • Calcula por definición el determinante de la matriz $$\begin{pmatrix} 1 & 1 & 1 \\ 2 & 3 & 4 \\ 4 & 9 & 16\end{pmatrix}$$ y compáralo con el de la matriz de $3\times 3$ del inciso anterior. ¿Qué notas?
  • Completa el argumento para mostrar que el determinante de una matriz triangular inferior es el producto de las entradas en su diagonal.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Propiedades de determinantes

Por Ayax Calderón

Introducción

Para esta entrada enunciaremos y demostraremos algunas de las propiedades más importantes de los determinantes tanto para transformaciones lineales como para matrices. Estas propiedades de determinantes y en general el concepto de determinante tiene numerosas aplicaciones en otras áreas de las matemáticas como el cálculo de volúmenes $n-$dimensionales o el wronskiano en ecuaciones diferenciales, sólo por mencionar algunos, por eso es importante analizar a detalle el determinante de los distintos tipos de matrices y transformaciones lineales que conocemos.

Como recordatorio, veamos qué hemos hecho antes de esta entrada. Primero, transformaciones multilineales. De ellas, nos enfocamos en las que son alternantes y antisimétricas. Definimos el determinante para un conjunto de vectores con respecto a una base, y vimos que, en cierto sentido, son las únicas formas $n$-lineal alternantes en un espacio vectorial de dimensión $n$. Gracias a esto, pudimos mostrar que los determinantes para transformaciones lineales están bien definidos, y con ellos motivar la definición de determinante para matrices.

El determinante es homogéneo

La primera de las propiedades de determinantes que enunciaremos tiene que ver con «sacar escalares» del determinante.

Teorema. Sea $A$ una matriz en $M_n(F)$.

  1. Si multiplicamos un renglón o una columna de $A$ por un escalar $\lambda$, entonces su determinante se multiplica por $\lambda$.
  2. Se tiene que $\det(\lambda A)=\lambda^n A$.

Demostración. 1. Sea $A_j$ la matriz obtenida me multiplicar el $j$-ésimo renglón por $\lambda$. Siguiendo la definición de determinante vista en la entrada de ayer (determinantes de matrices) vemos que
\begin{align*}
\det A_j&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\dots \lambda a_{j\sigma(j)}\dots a_{n\sigma(n)}\\
&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)\lambda a_{1\sigma(1)}\dots a_{n\sigma(n)}\\
&= \lambda \det A.
\end{align*}

La demostración para la $j$-ésima columna queda como tarea moral.

2. Sea $\lamda A=[\lambda a_{ij}]$, entonces por definición tenemos

\begin{align*}
\det (\lambda A)&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)(\lambda a_{1\sigma(1)})\dots (\lambda a_{n\sigma(n)})\\
&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)\lambda^n a_{1\sigma(1)}\dots a_{n\sigma(n)}\\
&=\lambda^n \cdot \det A
\end{align*}

De manera alternativa, podemos aplicar el primer inciso $n$ veces, una por cada renglón.

$\square$

Aquí arriba hicimos la prueba explícita a partir de la definición. Una forma alternativa de proceder es notar que el determinante de una matriz es precisamente el determinante $\det$ (de vectores) con respecto a la base canónica de $F^n$ evaluada en los renglones de $A$. Al multiplicar uno de los renglones por $\lambda$, el vector entrada de $\det$ se multiplica por $\lambda$. El resultado se sigue inmediatamente de que $\det$ es una forma $n$-lineal.

El determinante es multiplicativo

Quizás de entre las propiedades de determinantes, la más importante es que es multiplicativo. Mostraremos esto a continuación.

Teorema. Sea $V$ un espacio vectorial de dimensión finita y transformaciones lineales $T_1:V\to V$, $T_2:V\to V$. Se tiene que $$\det(T_1\circ T_2) = \det T_1\cdot \det T_2.$$

Demostración. Sea $(v_1,\dots , v_n)$ una base cualquiera de $V$. Del resultado visto en la entrada anterior y la definición de determinante, se sigue que
\begin{align*}
\det (T_1 \circ T_2)&= \det _{(v_1,\dots , v_n)}(T_1(T_2(v_1)),\dots , T_1(T_2(v_n)))\\
&=\det T_1 \cdot \det_{(v_1,\dots , v_n)}(T_2(v_1), \dots , T_2(v_n))\\
&= \det T_1 \cdot \det T_2.
\end{align*}

$\square$

Observa cómo la demostración es prácticamente inmediata, y no tenemos que hacer ningún cálculo explícito en términos de coordenadas. La demostración de que el determinante es multiplicativo para las matrices también es muy limpia.

Teorema. Sean $A$ y $B$ matrices en $M_n(F)$. Se tiene que $$\det(AB)=\det A \cdot \det B.$$

Demostración. Sean $V=F^n$, $T_1:V\to V$ la transformación lineal definida por $x\mapsto Ax$ y similarmente $T_2:V\to V$ la transformación lineal definida por $x\mapsto Bx$. Sabemos que $A, B, AB$ son las matrices asociadas a $T_1, T_2, T_1\circ T_2$ con respecto a la base canónica, respectivamente.

Recordemos que para una transformación lineal $T$ en $V$, $\det T = \det A_T$, para una matriz que la represente en cualquier base. Entonces

\begin{align*}
\det(AB)&=\det A_{T_1\circ T_2}\\
&= \det T_1\circ T_2\\
&=\det T_1 \cdot \det T_2\\
&=\det A_{T_1} \cdot \det A_{T_2} \\
&= \det A \cdot \det B.
\end{align*}

$\square$

Nota que hubiera sido muy complicado demostrar que el determinante es multiplicativo a partir de su definición en términos de permutaciones.

El determinante detecta matrices invertibles

Otra de las propiedades fundamentales del determinante es que nos ayuda a detectar cuándo una matriz es invertible. Esto nos permite agregar una equivalencia más a la lista de equivalencias de matrices invertibles que ya teníamos.

Teorema. Una matriz $A$ en $M_n(F)$ es invertible si y sólo si $\det A\neq 0$.

Demostración. Supongamos que $A$ es invertible, entonces existe $B\in M_n(F)$ tal que $AB=I_n=BA$.
Así,

$1=\det I_n = \det (AB) = \det A \cdot \det B$.

Como el lado izquierdo es $1$, ambos factores del lado derecho son distintos de $0$. Por lo tanto $\det A \neq 0.$ Nota que además esta parte de la prueba nos dice que $\det A^{-1}=(\det A)^{-1}$.

Ahora supongamos que $\det A \neq 0$. Sea $(e_1, \dots , e_n)$ la base canónica de $F^n$ y $C_1,\dots , C_n$ las columnas de $A$. Como $\det_{(e_1,\ldots,e_n)}$ es una forma lineal alternante, sabemos que si $C_1,\ldots,C_n$ fueran linealmente dependientes, la evaluación daría cero. Ya que la columna $C_i$ es la imagen bajo $A$ de $e_i$, entonces

$\det A =\det _{(e_1,\dots , e_n)}(C_1, \dots , C_n) \neq 0$.

Por lo tanto los vectores $C_1, \dots , C_n$ son linealmente independientes y así $\text{rank}(A)=n$. Se sigue que $A$ es una matriz invertible.

$\square$

Determinante de transformación y matriz transpuesta

Una cosa que no es totalmente evidente a partir de la definición de determinante para matrices es que el determinante no cambia si transponemos una matriz o una transformación lineal. Esta es la última de las propiedades de determinantes que probaremos ahora.

Teorema. Sea $A$ una matriz en $M_n(F)$. Se tiene que $$\det({^tA})=\det A.$$

Demostración. Por definición

$\det({^tA})=\displaystyle\sum_{\sigma \in S_n}\text{sign}(\sigma^{-1})a_{\sigma^{-1}(1)1 \dots a_{\sigma^{-1}(n)n}}.$

Luego, para cualquier permutación $\sigma$ se tiene

$$a_{\sigma(1)1}\dots a_{\sigma(n)n}=a_{1\sigma^{-1}(1)}\dots a_{n\sigma^{-1}(n)}$$

pues $a_{i\sigma^{-1}(i)}=a_{\sigma(j)j}$, donde $j=\sigma^{-1}(i)$.
También vale la pena notar que $$\text{sign}(\sigma^{-1})=\text{sign}(\sigma)^{-1}=\text{sign}(\sigma).$$

De lo anterior se sigue que

\begin{align*}
\det({^tA})&=\displaystyle\sum_{\sigma \in S_n} \text{sign}(\sigma^{-1})a_{1\sigma^{-1}(1)}\dots a_{n\sigma^{-1}(n)}\\
&=\displaystyle\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\dots a_{n\sigma(n)}\\
&=\det A.
\end{align*}

$\square$

Teorema. Sea $V$ un espacio vectorial de dimensión finita $T:V\to V$ una transformación lineal. Se tiene que $$\det(^t T) = \det T.$$

Demostración. Sea $A$ la matriz asociada a $T$, entonces $^tA$ es la matriz asociada a $^tT$. Luego $$\det (^tT)=\det (^tA)=\det A = \det T.$$

$\square$

Veamos un ejemplo de un problema en el que podemos aplicar algunas de las propiedades anteriores.

Problema. Sea $A\in M_n(F)$ una matriz antisimétrica para algún $n$ impar. Demuestra que $\det(A)=0$.

Demostración. Como $A=-A^t$, entonces $\det A = \det (- {^tA})$, pero $\det A = \det ({^tA})$.
Se sigue que
\begin{align*}
\det ({^tA}) &= \det (-{^tA})\\
&=(-1)^n \det ({^tA})\\
&=-\det ({^tA}).
\end{align*}

Concluimos $\det (^tA)=0$

$\square$

Más adelante…

En esta entrada enunciamos y demostramos varias propiedades de los determinantes. Ahora, vamos a ponerlas en práctica resolviendo algunos problemas.

En las siguientes entradas, que constituyen la parte final del curso, vamos a hablar de diferentes técnicas para calcular el determinante de una matriz y obtendremos sus eigenvalores y eigenvectores. Vamos a ver cómo esto nos conduce a uno de los teoremas más importantes del curso de Álgebra Lineal I: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que al multiplicar una columna de una matriz por $\lambda$, entonces su determinante se multiplica por $\lambda$.
  • Demuestra que si una matriz tiene dos columnas iguales, entonces su determinante es igual a cero.
  • Analiza cómo es el determinante de una matriz antisimétrica $A\in M_n(F)$ con $n$ par.
  • Formaliza la frase «el determinante detecta transformaciones invertibles» en un enunciado matemático. Demuéstralo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Transformaciones multilineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Con esta entrada empieza el cuarto y último bloque del curso de Lineal I. En este último bloque hablaremos de determinantes de matrices, de eigenvectores, eigenvalores y de polinomios característicos. Además, probaremos el teorema espectral para matrices simétricas reales. Nuestro cimiento teórico para definir a los determinantes y probar sus propiedades fácilmente serán las transformaciones multilineales, que generalizan a las formas bilineales de las que ya hemos hablado.

Antes de empezar, vale la pena recapitular lo que hemos aprendido en los bloques anteriores:

  • Bloque 1: Primero, hablamos de vectores y matrices con entradas reales, y sus operaciones básicas. Luego, vimos que nos ayudan a plantear y resolver sistemas de ecuaciones lineales. Aquí hablamos de varias equivalencias de matrices invertibles. Al final de este bloque, definimos espacios vectoriales en general. En ellos hablamos de conjuntos generadores, independientes y bases. Mediante el lema de Steinitz definimos y probamos propiedades de espacios de dimensión finita.
  • Bloque 2: Vimos la teoría básica de transformaciones lineales. Hablamos de imágenes y kernels de transformaciones. Vimos cómo se comportan con independientes y bases. Luego hablamos de cómo representar transformaciones lineales entre espacios de dimensión finita usando matrices, y en particular cómo hacer cambios de base.
  • Bloque 3: Este bloque fue más «geométrico». Primero, vimos formas lineales y la teoría de dualidad y la aplicamos para ver que todo subespacio es intersección de hiperplanos. Luego, definimos formas bilineales y cuadráticas. De ahí salió la noción de producto interior, que nos permite «hacer geometría» en espacios vectoriales. Hablamos de desigualdades vectoriales, de bases ortogonales, para qué sirven y cómo encontrarlas.

La intuición que obtuvimos de formas bilineales nos ayudará a entender formas multilineales. Pero antes de entrar en este tema, que es un poco técnico, veamos un ejemplo que nos ayudará a entender lo que nos espera en este bloque.

Elevando una matriz a la 100

Considera la matriz $$A=\begin{pmatrix}-4&-10\\3&7\end{pmatrix}.$$ Imagina que para alguna aplicación queremos elevarla a la $100$. Esto probablemente lo puedas hacer a mano, y mejor aún, a computadora. Pero en aplicaciones en la vida real, puede que hacer los cálculos matriciales sea mucho incluso para una computadora. ¿Habrá una forma de que sea más fácil hacer $A^{100}$?

Resulta que para este caso en particular, sí. Considera las matrices $$B=\begin{pmatrix}3 & 5\\ 1& 2\end{pmatrix}$$ y $$D=\begin{pmatrix}1&0\\0&2\end{pmatrix}.$$ La matriz $B$ es invertible, con inversa $$B^{-1}=\begin{pmatrix}2&-5 \\-1&3\end{pmatrix},$$ como puedes verificar. Además, la matriz $A$ se puede «factorizar» así: $$A=B^{-1}DB.$$

Esto es muy útil para nuestros fines. Nota que
\begin{align*}
A^2&=(B^{-1}DB)(B^{-1}DB)\\
&=B^{-1}D^2B,
\end{align*}

y que de hecho inductivamente $A^n=B^{-1}D^n B$ para cualquier entero positivo $n$.

Por otro lado, como la matriz $D$ es diagonal, sus potencias son muy sencillas, de hecho, se puede probar inductivamente que $D^n=\begin{pmatrix}1&0\\0&2^{n}\end{pmatrix}$ para cualquier entero positivo $n$. De esta forma, podemos hacer $A^n$ con tan solo dos multiplicaciones de matrices:
\begin{align*}
A^n&=B^{-1}D^nB\\
&=\begin{pmatrix}2&-5 \\ -1&3\end{pmatrix}\begin{pmatrix}1&0\\ 0&2^{n}\end{pmatrix}\begin{pmatrix}3 & 5\\ 1& 2\end{pmatrix}\\
&=\begin{pmatrix}2&-5 \\ -1&3\end{pmatrix}\begin{pmatrix}3&5 \\ 2^n&2^{n+1}\end{pmatrix}\\
&=\begin{pmatrix}6-5\cdot 2^n& 10-5\cdot 2^{n+1}\\ -3+3\cdot 2^n & -5+3\cdot 2^{n+1}\end{pmatrix}
\end{align*}

Así, el problema que queremos resolver es sencillo ahora. Basta tomar $n=100$ para obtener $$A^{100}=\begin{pmatrix}6-5\cdot 2^{100} & 10-5\cdot 2^{101}\\ -3+3\cdot 2^{100} & -5+3\cdot 2^{101}\end{pmatrix}.$$

Si podemos escribir una matriz $A$ como $B^{-1}DB$ con $B$ invertible y $D$ diagonal, decimos que es diagonalizable. La conclusión anterior es que una matriz diagonalizable se puede elevar fácilmente a potencias.

Todo esto está muy bien pero, ¿de dónde salen las matrices $B$ y $D$? ¿toda matriz es diagonalizable? ¿qué otras ventajas tiene diagonalizar una matriz? Este tipo de preguntas son las que estudiaremos en este bloque.

Diagonalizar matrices de 2×2

El determinante de una matriz $A=\begin{pmatrix}a&b\\c&d\end{pmatrix}$ en $M_2(\mathbb{R})$, como quizás hayas visto antes, está dado por $ad-bc$. Resulta que una forma sistemática para encontrar matrices $B$ y $D$ como las del ejemplo de arriba es la siguiente:

  • Tomar una matriz $A$.
  • Considerar el polinomio $P(\lambda)=\det(\lambda I – A)$. A este polinomio se le conoce como el polinomio característico de $A$.
  • Encontrar las raíces $\lambda_1$ y $\lambda_2$ de $P(\lambda)$. A estos valores se les llama los eigenvalores de $A$.
  • Encontrar vectores $v_1$ y $v_2$ no cero tales que $(A-\lambda_1I) v_1 =0$ y $(A-\lambda_2 I)v_2 = 0$. Estos simplemente son sistemas lineales homogéneos, que ya sabemos resolver con reducción gaussiana. A estos vectores se les llama eigenvectores de $A$.
  • Usar a $\lambda_1$ y $\lambda_2$ como las entradas de la matriz diagonal $D$.
  • Usar a $v_1$ y $v_2$ como columnas de la matriz $B^{-1}$. Encontrar la inversa de $B^{-1}$ para encontrar a $B$.

¿Cómo se hace en dimensiones más altas? ¿Siempre podemos seguir este proceso esto? ¿Hay algunos tipos de matrices para los que siempre funcione? Estas son otras preguntas que responderemos en el transcurso de estas semanas.

Mientras tanto, veamos qué sucede si aplicamos este método para la matriz $A=\begin{pmatrix}-4&-10\\3&7\end{pmatrix}$ del ejemplo. Tenemos que el determinante de $\lambda I-A = \begin{pmatrix}\lambda+4&10\\-3&\lambda – 7\end{pmatrix}$ es el polinomio \begin{align*}P(\lambda)&= (\lambda+4)(\lambda-7)+30\\ &=\lambda^2-3\lambda-28+30\\ &=\lambda^2-3\lambda+2,\end{align*} cuyas raíces son $1$ y $2$. De aquí construimos $$D=\begin{pmatrix}1&0\\0&2\end{pmatrix}.$$

Busquemos los eigenvectores. Por un lado, si queremos que suceda que $Av=v$ para un vector $v=(x,y)$, necesitamos que $$(-4x-10y, 3x+7y)=(x,y),$$ y una de las soluciones es $(x,y)=(2,-1)$. Por otro lado, si queremos que suceda que $Av=2v$ para un vector $v=(x,y)$, necesitamos que $$(-4x-10y,3x+7y)=(2x,2y),$$ y una de las soluciones es $(x,y)=(-5,3)$. De aquí construimos $$B^{-1}=\begin{pmatrix}2&-5 \\-1&3\end{pmatrix},$$ y podemos hacer reducción gaussiana para encontrar $B$. Observa que obtenemos exactamente las mismas matrices que propusimos en el ejemplo.

Nos gustaría poder hacer esto mismo en dimensiones más altas y entender cuándo y por qué funciona. Para ello, lo primero que necesitamos hacer es entender muy bien el concepto de determinante y aprender a manejar hábilmente sus propiedades principales.

Hay varias formas de definir determinante y quizás ya hayas visto algunas en cursos anteriores. En este curso definiremos determinante mediante transformaciones multilineales. Es un poco más abstracto, pero ayuda a que sea más fácil probar técnicas para trabajar con determinantes y entender por qué funcionan.

Transformaciones multilineales

En el bloque anterior ya hablamos de formas bilineales. Como recordatorio, tomábamos un espacio vectorial real $V$ y una forma bilineal era una función $b:V\times V\to \mathbb{R}$ tal que cada que fijábamos una entrada, la función era lineal en la otra. La palabra «forma» la usábamos porque la imagen caía en el campo.

Generalizaremos esta idea para más entradas, y para cuando la imagen cae en cualquier espacio vectorial. Trabajaremos en espacios vectoriales sobre un campo $F$, que puedes pensar que es $\mathbb{R}$ o $\mathbb{C}$.

Definición. Sean $V_1,\ldots, V_d$ y $W$ espacios vectoriales sobre $F$. Una función $f:V_1\times \ldots \times V_d\to W$ es multilineal si cada que fijamos una $i$ y para cada $j\neq i$ fijamos vectores $v_j$ en $V_j$, la transformación $$V_i\to W$$ dada por $$v_i\mapsto f(v_1,v_2,\ldots,v_d)$$ es lineal.

Aclaración. De nuevo, es muy importante no confundir una transformación multilineal con una transformación lineal del espacio vectorial $V_1\times \ldots \times V_d$ a $W$.

Ejemplo 1. Consideremos $\mathbb{R}^3=\mathbb{R}\times \mathbb{R} \times \mathbb{R}$ y consideramos la transformación $T:\mathbb{R}^3\to \mathbb{R}$ dada por $T(x,y,z)=xyz.$ Afirmamos que esta es una transformación multilineal.

Si fijamos $y$ y $z$, tenemos que mostrar que la transformación $x\mapsto xyz$ es lineal, lo cual es cierto pues para $x_1,x_2$ reales y $r$ real se cumple que
\begin{align*}
T(x_1+rx_2,y,z)&=(x_1+rx_2)yz\\
&=x_1yz + rx_2yz\\
&=T(x_1,y,z)+rT(x_2,y,z).
\end{align*}

De manera similar se prueba para las otras entradas.

Sin embargo, $T$ no es una transformación lineal. Por ejemplo, no saca escalares ya que $T(1,1,1)=1\cdot 1\cdot 1=1$ y $$T(2,2,2)=8\neq 2 = 2T(1,1,1).$$

$\square$

Las transformaciones multilineales son muy generales, y ayudan a crear algo que se llama el producto tensorial. Sin embargo, para los fines que necesitamos ahora, no hace falta tanta generalidad. Sólo nos enfocaremos en las transformaciones multilineales cuando $V_1=V_2=\ldots=V_d$, es decir, en transformaciones $f:V^d\to W$.

Definición. Para $d$ un entero positivo y $V$, $W$ espacios vectoriales, una transformación $d$-lineal es una transformación multilineal de $V^d$ a $W$.

Ejemplo 2. Si $V$ es un espacio vectorial real y $W=\mathbb{R}$, entonces toda forma bilineal $b:V\times V\to \mathbb{R}$ es una transformación $2$-lineal.

Ejemplo 3. Tomemos $V=\mathbb{R}^3$ y $d=4$. Tomemos las siguientes formas lineales en $V$:
\begin{align*}
l_1(x,y,z)&=x+y+z\\
l_2(x,y,z)&=3x-2y+z\\
l_3(x,y,z)&=y\\
l_4(x,y,z)&=x+z.
\end{align*}

Consideremos la transformación $T:V^4\to \mathbb{R}$ dada por $$T(v_1,v_2,v_3,v_4)=l_1(v_1)l_2(v_2)l_3(v_3)l_4(v_4),$$ por ejemplo, si $v_1=(1,0,0)$, $v_2=(0,1,0)$, $v_3=(0,1,1)$ y $v_4=(1,1,1)$, tenemos que

\begin{align*}
l_1(v_1)&=l_1(1,0,0)=1+0+0=1\\
l_2(v_2)&=l_2(0,1,0)=0-2+0=-2\\
l_3(v_3)&=l_3(0,1,1)=1\\
l_4(v_4)&=l_4(1,1,1)=1+1=2,
\end{align*}

y por lo tanto $$T(v_1,v_2,v_3,v_4)=(1)(-2)(1)(2)=-4.$$

Tenemos que $T$ es $4$-lineal pues para cada $i$, al fijar las tres entradas $v_j$ con $j\neq i$ tenemos que $T(v_1,v_2,v_3,v_4)$ es de la forma $cl_i(v_i)$ con $c$ un escalar. Como $l_i$ es una forma lineal, $cl_i$ también.

$\triangle$

Nos interesan un tipo todavía más restringido de transformaciones multilineales. Para definirlas, tenemos que hacer una pequeña desviación hacia el tema de permutaciones.

Permutaciones y signos

Tomemos un entero positivo y usemos $[n]$ para hablar del conjunto de los enteros de $1$ a $n$, es decir, $[n]:=\{1,2,\ldots,n\}$.

Definicion. Una permutación de $[n]$ es una función biyectiva $\sigma: [n]\to [n]$.

En otras palabras, una permutación básicamente «revuelve los elementos» de $[n]$. Usualmente expresamos a la permutación con la notación $$\begin{pmatrix} 1 & 2 & \ldots & n\\ \sigma(1) & \sigma(2) & \ldots & \sigma(n)\end{pmatrix}$$

Ejemplo 1. La función $\sigma:[3]\to [3]$ tal que $\sigma(1)=2$, $\sigma(2)=3$ y $\sigma(3)=1$ es una permutación que manda al conjunto ordenado $(1,2,3)$ al conjunto ordenado $(2,3,1)$. La expresamos como $$\begin{pmatrix} 1& 2 & 3\\ 2 & 3 & 1\end{pmatrix}.$$

$\triangle$

Como las permutaciones son funciones, entonces podemos componerlas. Para evitar complicar la notación, no pondremos el signo de composición $\circ$, sino simplemente permutaciones adyacentes. La composición usualmente no es conmutativa.

Ejemplo 2. Tomemos la permutación $\sigma_1:[4]\to [4]$ representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 3 & 2 & 1 & 4\end{pmatrix}$$ y la permutación $\sigma_2:[4]\to [4]$ representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 4 & 2 & 3 & 1\end{pmatrix}.$$

¿Qué hace la función $\sigma_1 \sigma_2$? Es una función de $[4]$ a $[4]$ y cumple lo siguiente:
\begin{align*}
\sigma_1(\sigma_2(1))&=\sigma_1(4)=4,\\
\sigma_1(\sigma_2(2))&=\sigma_1(2)=2,\\
\sigma_1(\sigma_2(3))&=\sigma_1(3)=1,\\
\sigma_1(\sigma_2(4))&=\sigma_1(1)=3,
\end{align*}

es decir, la composición es la permutación representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 4 & 2 & 1 & 3\end{pmatrix}.$$

Por otro lado, la función $\sigma_2\sigma_1$ hace algo un poco diferente. También es una función de $[4]$ a $[4]$ y cumple lo siguiente:
\begin{align*}
\sigma_2(\sigma_1(1))&=\sigma_2(3)=3,\\
\sigma_2(\sigma_1(2))&=\sigma_2(2)=2,\\
\sigma_2(\sigma_1(3))&=\sigma_2(1)=4,\\
\sigma_2(\sigma_1(4))&=\sigma_2(4)=1,
\end{align*}

así que es la permutación representada por $$\begin{pmatrix}1& 2 & 3 & 4 \\ 3 & 2 & 4 & 1\end{pmatrix}.$$

$\triangle$

Al conjunto de permutaciones de $[n]$ le llamamos $S_n$. Tomemos una permutación $\sigma$ en $S_n$. Para dos elementos $i<j$ en $[n]$, decimos que $\sigma$ los invierte si $\sigma(i)>\sigma(j)$.

Definición. Sea $\sigma$ un elemento de $S_n$. Decimos que el signo de $\sigma$ es $1$ si invierte una cantidad par de parejas, y es $-1$ si invierte una cantidad impar de parejas. Al signo de $\sigma$ lo denotamos $\text{sign}(\sigma)$.

Ejemplo 3. La permutación $$\begin{pmatrix}1& 2 & 3 & 4 & 5\\ 5 & 2 & 1 & 4 & 3\end{pmatrix}$$ invierte a la pareja $(1,2)$ pues $\sigma(1)=5>2=\sigma(2)$. Todas las parejas que invierte son $(1,2)$, $(1,3)$, $(1,4)$, $(1,5)$, $(2,3)$, $(4,5)$. Estas son $6$ parejas, que son una cantidad par, así que la permutación tiene signo $1$.

La permutación identidad en $S_n$ no invierte ninguna pareja, así que tiene signo $1$.

$\triangle$

En la siguiente entrada combinaremos estas nociones de permutaciones y de transformaciones multilineales para hablar de antisimetría y alternancia. Por el momento, reflexiona en lo siguiente: si $\sigma$ es una permutación en $S_n$ y $f:V^n\to W$ es una transformación $n$-lineal, entonces la transformación $\sigma f:V^n \to W$ definida por $$(\sigma f)(x_1,x_2,\ldots,x_n) = f(x_{\sigma(1)},x_{\sigma(2)},\ldots,x_{\sigma(n)})$$ también es una transformación $n$-lineal.

Más adelante…

En esta primera entrada de la cuarta unidad hemos visto cómo la intuición que obtuvimos cuando estudiamos formas bilineales, nos ha ayudado a entender el concepto de formas multilineales. En las siguientes entradas del blog, abordaremos el concepto de determinante y aprenderemos cómo se usa.

Para la definición de determinante y para demostrar algunas de sus propiedades , usaremos lo que aprendimos en esta entrada sobre las transformaciones multilineales. Veremos que es una herramienta del álgebra lineal bastante útil y entender detalladamente cómo funciona será fundamental para abordar uno de los teoremas más importantes del curso: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Toma $T:V^d\to W$ una transformación $d$-lineal. Muestra que si de entre $x_1,\ldots,x_d$ elementos de $V$ alguno de ellos es el vector $0$, entonces $T(x_1,\ldots,x_d)=0$.
  • Muestra que la transformación del ejemplo de transformaciones multilineales también es lineal en la segunda y tercera entradas.
  • Supón que $l_1,\ldots,l_d$ son formas lineales de $V$ al campo $F$. Muestra que $f:V^d\to F$ dada por $$f(x_1,\ldots,x_d)=l_1(x_1)\ldots l_d(x_d)$$ es una transformación $d$-lineal.
  • Encuentra una transformación lineal $T:\mathbb{R}^3\to \mathbb{R}$ que no sea una transformación multilineal.
  • Muestra que la composición de dos permutaciones siempre es una permutación.
  • Muestra que para dos permutaciones $\sigma_1$ y $\sigma_2$ se tiene que $$\text{sign}(\sigma_1\sigma_2)=\text{sign}(\sigma_1)\text{sign}(\sigma_2).$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Introducción a espacio dual

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada empezamos la tercera unidad del curso de Álgebra Lineal I. Los conceptos fundamentales de esta nueva unidad son el de espacio dual y el de formas bilineales.

Hagamos un pequeño recordatorio, que será útil para entender los temas que vendrán. Ya definimos qué es un espacio vectorial y qué son las transformaciones lineales.

Para los espacios vectoriales, hablamos de subespacios, de conjuntos generadores, independientes y bases. A partir de ellos definimos qué quiere decir que un espacio sea de dimensión finita y, en ese caso, dijimos cómo definir la dimensión. Un lema fundamental para hacer esto fue el lema del intercambio de Steinitz.

Dijimos que las transformaciones lineales son funciones «bonitas» entre espacios vectoriales que «abren sumas» y «sacan escalares». Dimos como ejemplos a las proyecciones y las simetrías. Vimos lo que le hacen a generadores, linealmente independientes y bases. También, vimos que podemos expresarlas a través de matrices.

Un tipo de matrices de trasformaciones lineales muy importante son las matrices de cambios de base, que permiten conocer las coordenadas de vectores en distintas bases y pasar matrices de transformaciones lineales entre distintas bases. Finalmente, hablamos del rango para matrices y transformaciones lineales.

Es muy bueno entender estos temas lo mejor posible antes de continuar. Aunque no te queden 100% claras todas las demostraciones, por lo menos intenta sí conocer las hipótesis y los enunciados de los resultados principales.

Los temas que vendrán están basados en los capítulos 6 y 10 del libro de Titu Andreescu.

Dualidad y espacio dual

Antes de continuar, el siguiente ejemplo te debe de quedar clarísimo. Dice que hay una forma de hacer un espacio vectorial cuyos elementos son transformaciones lineales. Así es, cada vector de este espacio es una transformación lineal. Esto no debería de ser tan raro pues ya estudiamos algunos espacios vectoriales de funciones.

De ser necesario, verifica que en efecto se satisfacen los axiomas de espacio vectorial, para entender todavía mejor el ejemplo.

Ejemplo 1. Si $V$ y $W$ son espacios vectoriales sobre un mismo campo $F$, entonces el conjunto de transformaciones lineales de $V$ a $W$ es un espacio vectorial con las operaciones de suma de funciones y multiplicación por escalar.

Recordemos que la suma de funciones manda a las funciones $S:V\to W$ y $T:V\to W$ a la función $S+T:V\to W$ para la cual $$(S+T)(v)=S(v)+T(v)$$ y que la multiplicación por escalar manda al escalar $c\in F$ y a la función $T:V\to W$ a la función $cT:V\to W$ para la cual $$(cT)(v)=cT(v).$$

La razón por la cual este es un espacio vectorial es que es un subconjunto del espacio vectorial de todas las funciones de $V$ a $W$, y además es cerrado bajo sumas y multiplicaciones por escalar, de modo que es un subespacio.

A este espacio vectorial le llamamos $\text{Hom}(V,W)$.

$\triangle$

En esta unidad vamos a estudiar $\text{Hom}(V,W)$, pero para un caso particular muy concreto: para cuando $W$ es $F$, el campo sobre el cual está $V$. Podemos hacer esto, pues recuerda que podemos pensar al campo $F$ como un espacio vectorial sobre sí mismo.

A partir de ahora fijaremos el campo $F$. Si quieres, puedes pensarlo como $\mathbb{R}$ o $\mathbb{C}$ pero lo que digamos funcionará para campos arbitrarios.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. El espacio dual $V^\ast$ de $V$ es el conjunto de transformaciones lineales $l:V\to F$ dotado con las operaciones suma dada por $$(l_1+l_2)(v)=l_1(v)+l_2(v)$$ y producto por escalar dado por $$(cl)(v)=c(l(v))$$ para $l_1,l_2, l$ en $V^\ast$, $v$ en $V$ y $c$ en $F$.

A cada elemento de $V^\ast$ le llamamos una forma lineal en $V$. Usamos la palabra «forma» para insistir en que es una transformación que va hacia el campo $F$ sobre el cual está $V$.

Ejemplo 2. Consideremos al espacio vectorial $\mathbb{R}^3$. Está sobre el campo $\mathbb{R}$. Una forma lineal aquí es simplemente una transformación lineal $S_1:\mathbb{R}^3\to \mathbb{R}$, por ejemplo $$S_1(x,y,z)=x+y-z.$$ Otra forma lineal es $S_2:\mathbb{R}^3\to \mathbb{R}$ dada por $$S_2(x,y,z)=y+z-x.$$ Si sumamos ambas formas lineales, obtenemos la forma lineal $S_1+S_2$, la cual cumple $$(S_1+S_2)(x,y,z)=(x+y-z)+(y+z-x)=2y.$$

Estas son sólo dos formas lineales de las que nos interesan. Si queremos construir todo el espacio dual $(\mathbb{R}^3)^\ast$, necesitamos a todas las transformaciones lineales de $\mathbb{R}^3$ a $\mathbb{R}$.

Recordemos que cada transformación lineal $T$ de estas está representada de manera única por una matriz en $M_{1,3}(\mathbb{R})$ de la forma, digamos, $\begin{pmatrix} a & b & c\end{pmatrix}$. Así, toda transformación lineal de $\mathbb{R}^3$ a $\mathbb{R}$ lo que hace es enviar a $(x,y,z)$ a $$\begin{pmatrix} a& b & c \end{pmatrix}\begin{pmatrix}x\\ y\\ z\end{pmatrix}=ax+by+cz.$$ Se puede verificar que la suma de matrices y el producto escalar corresponden precisamente con la suma de sus transformaciones lineales asociadas, y su producto escalar.

Dicho de otra forma, $(\mathbb{R}^3)^\ast$ se puede pensar como el espacio vectorial de matrices $M_{1,3}(\mathbb{R})$. Observa que $\mathbb{R}^3$ y $(\mathbb{R}^3)^\ast$ tienen ambos dimensión $3$.

$\triangle$

Ejemplo 3. Consideremos el espacio vectorial $V$ de funciones continuas del intervalo $[0,1]$ a $\mathbb{R}$. Una forma lineal es una transformación lineal que a cada vector de $V$ (cada función) lo manda a un real en $\mathbb{R}$. Un ejemplo es la forma lineal $T:V\to \mathbb{R}$ tal que $$T(f)=\int_0^1 f(t)\,dt.$$ Otro ejemplo es la forma lineal $\text{ev}_0:V\to \mathbb{R}$ que manda a cada función a lo que vale en $0$, es decir, $$\text{ev}_0(f)=f(0).$$ Aquí dimos dos formas lineales, pero hay muchas más. De hecho, en este ejemplo no está tan sencillo decir quienes son todos los elementos de $V^\ast$.

$\triangle$

Espacio dual de un espacio de dimensión finita

Sea $V$ un espacio de dimensión finita $n$ y $B=\{e_1,e_2,\ldots,e_n\}$ una base de $V$. Como ya vimos antes, una transformación lineal queda totalmente definida por lo que le hace a los elementos de una base. Más concretamente, si $v=x_1e_1+\ldots+x_ne_n$, entonces lo que hace una forma lineal $l$ en $v$ es $$l(x_1e_1+\ldots+x_ne_n)=x_1a_1+\ldots+x_na_n,$$ en donde $a_i=l(e_i)$ son elementos en $F$.

Hay una manera canónica de combinar a un elemento $l$ de $V^\ast$ y a un elemento $v$ de $V$: evaluando $l$ en $v$. Así, definimos al emparejamiento canónico entre $V$ y $V^\ast$ como la función $$\langle\cdot, \cdot \rangle: V^\ast \times V$$ definida para $l$ en $V^\ast$ y $v$ en $V$ como $$\langle l,v\rangle = l(v).$$

Observa que $\langle\cdot, \cdot \rangle$ es lineal en cada una de sus entradas por separado, es decir para $c$ en $F$, para $l_1,l_2,l$ en $V^\ast$ y para $v_1,v_2,v$ en $V$ se tiene que $$\langle cl_1+l_2,v\rangle = c\langle l_1,v\rangle + \langle l_2,v\rangle$$ y que $$\langle l,cv_1+v_2\rangle = c\langle l,v_1\rangle +\langle l,v_2\rangle.$$ Esto es un ejemplo de una forma bilineal. Estudiaremos estas formas a detalle más adelante.

Vamos a hacer una pequeña pausa. Hasta ahora, para un espacio vectorial $V$ definimos:

  • Su espacio dual $V^\ast$.
  • El emparejamiento canónico entre $V$ y $V^\ast$.

Si a $V^\ast$ le estamos llamando «el dual» es porque esperamos que sea «muy parecido» a $V$. También, en una operación de dualidad nos gustaría que al aplicar dualidad dos veces «regresemos» al espacio original.

Por esta razón, nos gustaría a cada elemento $v$ de $V$ asociarle un elemento de $V^ {\ast \ast} $, el espacio dual del espacio dual. Afortunadamente, hay una forma muy natural de hacerlo. Para cada $v$ en $V$ podemos considerar la forma lineal $\text{ev}_v:V^\ast \to F$ que a cada forma lineal $l$ en $V^\ast$ le asigna $l(v)$.

Ejemplo. Considera el espacio vectorial de matrices $M_{2}(\mathbb{R})$. El espacio dual $M_{2}(\mathbb{R})^\ast$ consiste de todas las transformaciones lineales $T: M_{2}(\mathbb{R}) \to \mathbb{R}$. Un ejemplo de estas transformaciones es la transformación $T$ que a cada matriz la manda a la suma de sus entradas, $T\begin{pmatrix}a& b\\c & d\end{pmatrix}=a+b+c+d$. Otro ejemplo es la transformación $S$ que a cada matriz la manda a su traza, es decir, $S\begin{pmatrix}a& b\\c & d\end{pmatrix}=a+d$.

Consideremos ahora a la matriz $A=\begin{pmatrix} 5 & 2\\ 1 & 1\end{pmatrix}$.

A esta matriz le podemos asociar la transformación $\text{ev}_A:M_{2}(\mathbb{R})^\ast\to F$ tal que a cualquier transformación lineal $L$ de $ M_{2}(\mathbb{R})$ a $\mathbb{R}$ la manda a $L(A)$. Por ejemplo, a las $T$ y $S$ de arriba les hace lo siguiente $$\text{ev}_A(T)=T(A)=5+2+1+1=9$$ y $$\text{ev}_A(S)=S(A)=5+1=6.$$

$\triangle$

La discusión anterior nos permite dar una transformación lineal $\iota: V \to V {\ast \ast}$ tal que a cada $v$ la manda a $\text{ev}_v$, a la cual le llamamos la bidualidad canónica entre $V$ y $V^ {\ast \ast} $. Nota que $$\langle \iota(v), l\rangle=\langle l, v\rangle.$$ Un teorema importante que no probaremos en general, sino sólo para espacios vectoriales de dimensión finita, es el siguiente.

Teorema. Para cualquier espacio vectorial $V$, la bidualidad canónica es inyectiva.

De hecho, para espacios vectoriales de dimensión finita veremos que es inyectiva y suprayectiva, es decir, que es un isomorfismo entre $V$ y $V^{\ast \ast}$.

Formas coordenadas

En esta sección hablaremos de cómo encontrar una base para el espacio dual de un espacio vectorial $V$ de dimensión finita.

Supongamos que $V$ es de dimensión finita $n$ y sea $B=\{e_1,\ldots,e_n\}$ una base de $V$. A partir de la base $B$ podemos obtener $n$ formas lineales $e_i^\ast:V\to F$ como sigue. Para obtener el valor de $e_i^\ast$ en un vector $v$, expresamos a $v$ en términos de la base $$v=x_1e_1+x_2e_2+\ldots+x_n e_n$$ y definimos $e_i^\ast(v)=x_i$. A $e_i^\ast$ le llamamos la $i$-ésima forma coordenada para la base $B$ de $V$.

Directamente de las definiciones que hemos dado, tenemos que $$v=\sum_{i=1}^n e_i^\ast(v) e_i = \sum_{i=1}^n \langle e_i^\ast, v\rangle e_i.$$

Otra relación importante es que $e_i^\ast(e_j)=0$ si $i\neq j$ y $e_i^\ast(e_j)=1$ si $i=j$. De hecho, muchas veces tomaremos esta como la definición de la base dual.

Ejemplo. Si estamos trabajando en $F^n$ y tomamos la base canónica $e_i$, entonces la forma canónica $e_i^\ast$ manda al vector $(x_1,\ldots,x_n)$ a $x_i$, que es precisamente la $i$-ésima coordenada. De aquí el nombre de formas coordenadas. En efecto, tenemos que $$v=x_1e_1+x_2e_2+\ldots+x_ne_n.$$

$\triangle$

Estamos listos para enunciar el teorema principal de esta entrada introductoria a dualidad lineal.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ y $B=\{e_1,\ldots,e_n\}$ una base de $V$. Entonces el conjunto de formas coordenadas $B^\ast=\{e_1^\ast, \ldots,e_n^\ast\}$ es una base de $V^\ast$. En particular, $V^\ast$ es de dimensión finita $n$. Además, la bidualidad canónica $\iota:V\to V^{\ast \ast}$ es un isomorfismo de espacios vectoriales.

Más adelante…

Esta primera entrada introduce los conceptos de espacio dual. Estos conceptos son bastante útiles más adelante. Veremos que gracias a ellos, podemos dar una interpretación en términos de transformaciones lineales de la matriz transpuesta. En esta primer entrada también hablamos de formas lineales. Más adelante, veremos como éstas nos llevan de manera natural al concepto de «hiperplanos» en cualquier espacio vectorial. Uno de los resultados clave que demostraremos con la teoría de dualidad es que cualquier subespacio de un espacio vectorial de dimensión finita se puede pensar como intersección de hiperplanos. Gracias a esto encontraremos una fuerte relación entre subespacios y sistemas de ecuaciones lineales.

Antes de poder hacer estas cosas bien, necesitamos desarrollar bases sólidas. Por ello, en la siguiente entrada demostraremos el último teorema enunciado. También, veremos algunas recetas para resolver problemas de bases duales.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Revisa por definición que si $V$ y $W$ son espacios vectoriales sobre $F$, entonces $\text{Hom}(V,W)$ es un espacio vectorial sobre $F$.
  • Encuentra más formas lineales en el espacio de funciones continuas del intervalo $[0,1]$ a $\mathbb{R}$.
  • Justifica por qué $\iota:V\to V^{\ast \ast}$ es una transformación lineal y argumenta por qué $\langle \iota (v),l\rangle = \langle l,v\rangle$.
  • En el espacio de polinomios $\mathbb{R}_n[x]$ con coeficientes reales y grado a lo más $n$, ¿quienes son las formas coordenadas para la base ordenada $(1,x,x^2,\ldots,x^{n-1},x^n)$?, ¿quiénes son las formas coordenadas para la base ordenada $(1,1+x,\ldots,1+\ldots+x^{n-1},1+\ldots+x^n)$?
  • Aplica el último teorema a la base canónica $E_{ij}$ de $M_2(\mathbb{R})$ para encontrar una base de $M_2(\mathbb{R})^\ast$
  • Considera el espacio vectorial $V$ de matrices en $M_2(\mathbb{R})$. ¿Quién es el kernel de la forma lineal en $V$ que a cada matriz la manda a su traza? ¿Quién es el kernel de la forma lineal $\text{ev}_A$ en $V^\ast$, donde $A=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de cambio de base

Por Blanca Radillo

Introducción

En las entradas anteriores platicamos acerca de matrices de cambio de base. Vimos cómo nos ayudan a pasar un vector expresado en una base a otra. También vimos cómo nos ayudan a entender una transformación lineal en bases distintas. En esta entrada, veremos algunos ejemplos para repasar estos conceptos.

Problemas resueltos

Problema 1. Considera las familias de vectores $B=\{v_1,v_2,v_3\}$, $B’=\{w_1,w_2,w_3\}$, donde $$v_1=(0,1,1), \ v_2=(1,0,1), \ v_3=(1,1,0)$$ y $$w_1=(1,1,-1), \ w_2=(1,0,-1), \ w_3=(-1,-1,0).$$

  1. Prueba que $B$ y $B’$ son bases de $\mathbb{R}^3$.
  2. Encuentra la matriz de cambio de base $P$ de $B$ a $B’$ usando la definición de $P$.
  3. Encuentra la matriz de cambio de base $P$ usando la base canónica de $\mathbb{R}^3$ y la última proposición de esta entrada.

Solución. (1) Dado que $\dim \mathbb{R}^3=3$ y estas familias son de tres vectores, basta con demostrar que son vectores linealmente independientes. Una manera de hacerlo es formando la matriz obtenida al colocar a los vectores como renglones y reducirla hasta la matriz identidad $I_3$.

Para $B$, la matriz asociada es $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}.$$

Haciendo los cálculos de la reducción, obtenemos que

\begin{align*}
&\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}\\
\to&\begin{pmatrix} 1 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 1 & 1 \end{pmatrix}\\
\to &\begin{pmatrix} 1 & 0 & 1 \\ 0 & 1 & -1 \\ 0 & 1 & 1 \end{pmatrix}\\
\to &\begin{pmatrix} 1 & 0 & 1 \\ 0 & 2 & 0 \\ 0 & 0 & 2 \end{pmatrix} \\
\to &\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}.
\end{align*}

Esto implica que los vectores en $B$ son linealmente independientes y, por lo tanto, forman una base $\mathbb{R}^3$.

Para $B’$, la matriz asociada es $$\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.$$

Reduciendo la matriz, tenemos que

\begin{align*}&\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix} \\
\to &\begin{pmatrix} 1 & 1 & -1 \\ 0 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \\
\to &\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}.\end{align*}

Por lo tanto, $B’$ también es una base de $\mathbb{R}^3$.

(2) Recordemos que la matriz de cambio de base $P$ está definida como la matriz $[p_{ij}]$ cuya columna $j$ tiene como entradas a las coordenadas de $w_j$ escrito en términos de la base $B$. Entonces, expresemos

\begin{align*}
(1,1,-1)&=w_1=av_1+bv_2+cv_3=(b+c,a+c,a+b),\\
(1,0,-1)&=w_2=dv_1+ev_2+fv_3=(e+f,d+f,d+e),\\
(-1,-1,0)&=w_3=gv_1+hv_2+kv_3=(h+k,g+k,g+h),
\end{align*}

obteniendo que

\begin{align*}
b+c&=1\\
a+c&=1\\
a+b&=-1\\
e+f&=1\\
d+f&=0\\
d+e&=-1\\
h+k&=-1\\
g+k&=-1\\
g+h&=0.
\end{align*}

Si resolvemos el sistema anterior, concluimos que $a=b=-\frac{1}{2}$, $c=\frac{3}{2}$, $d=-1$, $e=0$, $f=1$, $g=h=0$, $k=-1$. Por lo tanto

$$P=\begin{pmatrix} a & d & g \\ b & e & h \\ c & f & k \end{pmatrix}= \begin{pmatrix} -\frac{1}{2} & -1 & 0 \\ -\frac{1}{2} & 0 & 0 \\ \frac{3}{2} & 1 & -1 \end{pmatrix}.$$

(3) Sea $B»=\{e_1,e_2,e_3\}$ la base canónica de $\mathbb{R}^3$. Queremos encontrar la matriz de cambio de base denotada como $\text{Mat}_B (B’)$. Usando la última proposición de la clase del lunes, tenemos que

$$\text{Mat}_B (B’)=\text{Mat}_{B} (B») \cdot \text{Mat}_{B»} (B’)=(\text{Mat}_{B»} (B))^{-1} \cdot \text{Mat}_{B»} (B’).$$

Por definición,

$$\text{Mat}_{B»} (B)=\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}, \ \text{Mat}_{B»} (B’)=\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.$$

Para calcular $(\text{Mat}_{B»} (B))^{-1}$, lo haremos como ya lo hemos visto en clases: pegando a la derecha una matriz identidad y aplicando reducción gaussiana:

\begin{align*} &\left( \begin{array}{ccc|ccc} 0 & 1 & 1 & 1 & 0 & 0 \\ 1 & 0 & 1 & 0 & 1 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 \end{array} \right) \\
\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 1 & 1 & 0 & 0 & 0 & 1 \\ 0 & 1 & 1 & 1 & 0 & 0 \end{array} \right) \\ \rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 0 & 1 & -1 & 0 & -1 & 1 \\ 0 & 1 & 1 & 1 & 0 & 0 \end{array} \right) \\
\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 1 & 0 & 1 & 0 \\ 0 & 2 & 0 & 1 & -1 & 1 \\ 0 & 0 & 2 & 1 & 1 & -1 \end{array} \right) \\ \rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & -1/2 & 1/2 & 1/2 \\ 0 & 1 & 0 & 1/2 & -1/2 & 1/2 \\ 0 & 0 & 1 & 1/2 & 1/2 & -1/2 \end{array} \right).
\end{align*}

Por lo tanto, $$(\text{Mat}_{B»}(B))^{-1}=\begin{pmatrix} -1/2 & 1/2 & 1/2 \\ 1/2 & -1/2 & 1/2 \\ 1/2 & 1/2 & -1/2 \end{pmatrix}.$$

Finalmente, usando la proposición, tenemos que

$$P=\text{Mat}_B (B’)=\begin{pmatrix} -\frac{1}{2} & \frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & -\frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & \frac{1}{2} & -\frac{1}{2} \end{pmatrix}\cdot\begin{pmatrix} 1 & 1 & -1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}$$

$$=\begin{pmatrix} -\frac{1}{2} & -1 & 0 \\ -\frac{1}{2} & 0 & 0 \\ \frac{3}{2} & 1 & -1 \end{pmatrix}. $$

Esto coincide con el cálculo que hicimos previamente.

$\square$

Problema 2. Considera la matriz $$A=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}$$

y sea $T:\mathbb{R}^3 \rightarrow \mathbb{R}^3$ la transformación lineal asociada, es decir $T(X)=AX$ para todo $X\in\mathbb{R}^3$. Considera los vectores

$$v_1=\begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}, \ v_2=\begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}, \ v_3=\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}.$$

  1. Prueba que $v_1,v_2,v_3$ forman una base de $\mathbb{R}^3$ y calcula la matriz de $T$ con respecto a esta base.
  2. Encuentra la matriz de cambio de base de la base canónica a la base $\{v_1,v_2,v_3\}$.
  3. Calcula $A^n$ para todo entero positivo $n$.

Antes de ver la solución a este problema este problema, observa que sería muy difícil decir quién es $A^{100}$ «a mano» si procedes directamente. Se tendrían que hacer muchas multiplicaciones matriciales, que son difíciles. Ten en mente esto cuando leas la solución de la parte 3.

Solución. (1) Dado que la dimensión de $\mathbb{R}^3$ es 3 y $\{v_1,v_2,v_3\}$ son tres vectores, basta con demostrar que éstos son linealmente independientes para probar que forman una base. Sean $a,b,c\in\mathbb{R}$ tales que $av_1+bv_2+cv_3=0$, entonces

\begin{align*}
&a+b+c=0, \ a-c=0, \ -a-b=\\
\Rightarrow &a=c, -a=b, a-a+a=0 \\
\Rightarrow &a=0, c=0, b=0.
\end{align*}

Entonces, son linealmente independientes y, por lo tanto, forman una base de $\mathbb{R}^3$.

Nota: Otra manera de demostrarlo es considerar la matriz formada por los vectores $v_1,v_2,v_3$ como sus columnas, reducirla y llegar a que la matriz reducida es la matriz identidad.

Ahora, para calcular la matriz de $T$ con respecto a la nueva base, expresaremos $T(v_1),T(v_2), T(v_3)$ en términos de $v_1,v_2,v_3$. Entonces tenemos que

$$T(v_1)=Av_1=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}=\begin{pmatrix} 1 \\ 1 \\ -1 \end{pmatrix}=v_1,$$

$$T(v_2)=Av_2=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}=\begin{pmatrix} 2 \\ 0 \\ -2 \end{pmatrix}=2v_2,$$

$$T(v_3)=Av_3=\begin{pmatrix} 2 & -1 & 0 \\ -2 & 1 & -2 \\ 1 & 1 & 3 \end{pmatrix}\cdot \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}=\begin{pmatrix} 3 \\ -3 \\ 0 \end{pmatrix}=3v_3.$$

Por lo tanto, la matriz que buscamos es $$B=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}.$$

(2) Lo haremos de la misma manera que en el inciso (2) del problema anterior, que consiste en escribir a los $v_1,v_2,v_3$ en la base canónica, pero ésto es obvio ya que están escritos de esa manera, por lo tanto $$P=\begin{pmatrix} 1 & 1 & 1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix}.$$

(3) Sabemos que la matriz de $T$ con respecto a $v_1,v_2,v_3$ (que nombramos en el inciso (1) como $B$) es igual a $P^{-1}AP$, gracias al último corolario de la sección «Matrices de cambio de base y transformaciones lineales» de la entrada anterior. Entonces $$P^{-1}AP=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{pmatrix}.$$

Es fácil ver (pero lo pueden demostrar por inducción en $n$) que $$(P^{-1}AP)^n=(P^{-1}AP)(P^{-1}AP)\dots (P^{-1}AP)=P^{-1}A^n P.$$

Esto implica que $P^{-1}A^n P=B^n$, es decir $$P^{-1}A^n P=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}.$$

Multiplicando por $P$ a la izquierda y por $P^{-1}$ a la derecha, obtenemos que $$A^n=P\begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}P^{-1} .$$

Para ello, nos falta calcular la inversa de $P$, y eso lo haremos como siempre lo hemos hecho: reduciendo la matriz. Entonces

\begin{align*} &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 1 & 0 & -1 & 0 & 1 & 0 \\ -1 & -1 & 0 & 0 & 0 & 1 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 1 & 2 & 1 & -1 & 0 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right) \\
\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 1 & 0 & -1 & -1 & -2 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right) \\\rightarrow &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 1 & 1 \\ 0 & 1 & 0 & -1 & -1 & -2 \\ 0 & 0 & 1 & 1 & 0 & 1 \end{array} \right). \end{align*}

Como consecuencia, tenemos que $$P^{-1}=\begin{pmatrix} 1 & 1 & 1 \\ -1 & -1 & -2 \\ 1 & 0 & 1 \end{pmatrix}.$$

Por lo tanto,

\begin{align*}
A^n &=P \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix} P^{-1}\\
&=\begin{pmatrix} 1 & 1 & 1 \\ 1 & 0 & -1 \\ -1 & -1 & 0 \end{pmatrix} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}\begin{pmatrix} 1 & 1 & 1 \\ -1 & -1 & -2 \\ 1 & 0 & 1 \end{pmatrix}
\end{align*}

$$A^n= \begin{pmatrix} 1-2^n+3^n & 1-2^n & 1-2^{n+1}+3^n \\ 1-3^n & 1 & 1-3^n \\ 2^n-1 & 2^n-1 & 2^{n+1}-1 \end{pmatrix}.$$

$\square$

El ejercicio anterior deja una moraleja importante de álgebra lineal: si tenemos una matriz $A$ y logramos encontrar una matriz diagonal $B$ similar a ella, entonces será fácil encontrar $A^n$. Para finalizar esta sesión, tenemos el siguiente problema.

Problema 3. Prueba que las matrices $$A=\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 1 \end{pmatrix} \ \text{y} \ B=\begin{pmatrix} 1 & 2 & 3 & 4 \\ 0 & 1 & 2 & 3 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{pmatrix}$$ son similares.

Solución. Para resolverlo usaremos el corolario de la entrada anterior. Al escribirlo en este contexto, dice lo siguiente:

Corolario. Sea $T:\mathbb{R}^4\rightarrow \mathbb{R}^4$ una transformación lineal. Sean $B’$ y $B»$ bases de $\mathbb{R}^4$ y $P$ la matriz de cambio de base de $B’$ a $B»$. Entonces $\text{Mat}_{B»}(T)=P^{-1} \text{Mat}_{B’}(T) P.$

Si podemos encontrar una transformación $T$ y bases $B’$ y $B»$ tales que $\text{Mat}_{B’}(T)=A$ y $\text{Mat}_{B»} (T)=B$, podemos calcular la matriz de cambio de base $P$, y satisface que $B=P^{-1}AP$, implicando que $A$ y $B$ sean matrices similares. Entonces, el problema se reduce a encontrar la transformación, las bases y calcular $P$.

Dado que $\text{Mat}_{B’}(T)=A$, si $B’$ es la base canónica, es claro que la transformación $T$ satisface que $T(X)=AX$ para todo $X\in\mathbb{R}^4$.

Ahora, encontremos $B»$. Sea $B»=\{ v_1,v_2,v_3,v_4 \}$ con

$$v_1=\begin{pmatrix} x_1 \\ y_1 \\ z_1 \\ w_1 \end{pmatrix}, v_2=\begin{pmatrix} x_2 \\ y_2 \\ z_2 \\ w_2 \end{pmatrix}, v_3=\begin{pmatrix} x_3 \\ y_3 \\ z_3 \\ w_3 \end{pmatrix}, v_4=\begin{pmatrix} x_4 \\ y_4 \\ z_4 \\ w_4 \end{pmatrix}.$$

Dado que $\text{Mat}_{B»}(T)=B$, entonces satisface

$$T(v_1)=Av_1=v_1, \ T(v_2)=Av_2=2v_1+v_2,$$

$$T(v_3)=Av_3=3v_1+2v_2+v_3, \ T(v_4)=Av_4=4v_1+3v_2+2v_3+v_4.$$

Resolviendo lo anterior, obtenemos que

$$Av_1=\begin{pmatrix} x_1+y_1 \\ y_1+z_1 \\ z_1+w_1 \\ w_1 \end{pmatrix}=\begin{pmatrix} x_1 \\ y_1 \\ z_1 \\ w_1 \end{pmatrix} \ \Rightarrow \ v_1=\begin{pmatrix} 1 \\ 0 \\ 0 \\ 0 \end{pmatrix},$$

$$Av_2=\begin{pmatrix} x_2+y_2 \\ y_2+z_2 \\ z_2+w_2 \\ w_2 \end{pmatrix}=\begin{pmatrix} x_2+2 \\ y_2 \\ z_2 \\ w_2 \end{pmatrix} \ \Rightarrow \ v_2=\begin{pmatrix} 1 \\ 2 \\ 0 \\ 0 \end{pmatrix},$$

$$Av_3=\begin{pmatrix} x_3+y_3 \\ y_3+z_3 \\ z_3+w_3 \\ w_3 \end{pmatrix}=\begin{pmatrix} x_3+5 \\ y_3+4 \\ z_3 \\ w_3 \end{pmatrix} \ \Rightarrow \ v_3=\begin{pmatrix} 1 \\ 5 \\ 4 \\ 0 \end{pmatrix},$$

y por último

$$Av_4=\begin{pmatrix} x_4+y_4 \\ y_4+z_4 \\ z_4+w_4 \\ w_4 \end{pmatrix}=\begin{pmatrix} x_4+9 \\ y_4+16 \\ z_4+8 \\ w_4 \end{pmatrix} \ \Rightarrow \ v_4=\begin{pmatrix} 1 \\ 9 \\ 16 \\ 8 \end{pmatrix}$$

Aquí estamos usando que los sistemas de ecuaciones que se obtienen tienen como variables libres a $x_1,x_2,x_3,x_4$, las cuales las estamos tomando todas ellas iguales a $1$.

Estos vectores son linealmente independientes pues la matriz con ellos como columnas es triangular superior con entradas en la diagonal distintas de cero, de modo que su matriz reducida es la identidad. Como $\mathbb{R}^4$ es de dimensión $4$ y $B»$ es un conjunto de cuatro vectores linealmente independientes, entonces $B»$ es una base. Más aún, $B»$ es una base tal que $\text{Mat}_{B»} (T)=B$, por construcción.

Finalmente, podemos calcular la matriz de cambio de base $P$ de $B’$ a $B»$, pero es fácil ya que $B’$ es la base canónica, entonces $$P=\begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}.$$

Por propiedades de la matriz de cambio de base, sabemos que $P$ es invertible. Entonces, para terminar la prueba, podemos encontrar $P^{-1}$ y verificar que $B=P^{-1}AP$, o simplemente verificamos que $PB=AP$, y por lo tanto $A$ y $B$ son matrices similares. Lo haremos de la segunda manera. En efecto,

$$PB=\begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}\begin{pmatrix} 1 & 2 & 3 & 4 \\ 0 & 1 & 2 & 3 \\ 0 & 0 & 1 & 2 \\ 0 & 0 & 0 & 1 \end{pmatrix}=\begin{pmatrix} 1 & 3 & 6 & 10 \\ 0 & 2 & 9 & 25 \\ 0 & 0 & 4 & 24 \\ 0 & 0 & 0 & 8 \end{pmatrix}$$

$$AP=\begin{pmatrix} 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 2 & 5 & 9 \\ 0 & 0 & 4 & 16 \\ 0 & 0 & 0 & 8 \end{pmatrix}=\begin{pmatrix} 1 & 3 & 6 & 10 \\ 0 & 2 & 9 & 25 \\ 0 & 0 & 4 & 24 \\ 0 & 0 & 0 & 8 \end{pmatrix}.$$

Por lo tanto, $A$ y $B$ son matrices similares.

Nota: si calculas la inversa de $P$, obtienes como resultado que $$P^{-1}=\begin{pmatrix} 1 & -\frac{1}{2} & \frac{3}{8} & -\frac{5}{16} \\ 0 & \frac{1}{2} & -\frac{5}{8} & \frac{11}{16} \\ 0 & 0 & \frac{1}{4} & -\frac{1}{2} \\ 0 & 0 & 0 & \frac{1}{8} \end{pmatrix}.$$

$\square$

Entradas relacionadas


Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»