Archivo de la etiqueta: matriz transpuesta

Álgebra Lineal I: Problemas de transpuesta de matriz y matrices de bloque

Introducción

En esta entrada ejercitaremos los conceptos de matriz transpuesta y matriz de bloque mediante ejercicios resueltos. Además, para los últimos tres problemas definiremos un concepto que aunque no se estudia a fondo en este curso, aparece en muchas áreas de las matemáticas y de la física.

Problemas resueltos

Problema. Sea A\in M_n(\mathbb{R}) una matriz con una única entrada distinta de cero en cada renglón y columna, dicha entrada es igual a 1 ó -1. Demuestra que A es una matriz ortogonal.

Solución. Sea A=[a_{ij}]. Queremos ver que A^{-1}= ^tA. Sean i,j\in \{1, 2, \dots , n\}. Entonces la entrada (i,j)-ésima de A \ ^t A es

    \begin{align*}(A\ {^tA})_{ij}=\displaystyle\sum_{k=1}^na_{ik}a_{jk}.\end{align*}

Supongamos que a_{ik}a_{jk} es distinto de cero para algún k\in \{1,2,\dots n\}, por tanto a_{ik} y a_{jk} son distintos de cero.
Si sucediera que i\neq j, entonces A tiene al menos dos entradas distintas de cero en la columna k, pero esto es imposible. Así, si i\neq j, entonces a_{ik}a_{jk}=0 para todo k\in\{1,2,\dots n\} y por consiguiente la (i,j)-ésima entrada de A\ ^tA es 0.

Por otro lado, si i=j, entonces

    \begin{align*}(A\ ^tA)_{ij}=\displaystyle\sum_{k=1}^na_{ik}^2.\end{align*}

Como por hipótesis se tiene que todas las entradas del i-esimo renglón de A son todas 0 salvo una que es 1 ó -1, entonces \displaystyle\sum_{k=1}^na_{ik}^2=1 y así (A\ ^tA)_{ij}=1 cuando i=j. Concluimos que A\ ^tA=I_n.
Mediante un argumento análogo se ve que ^tA A = I_n.

\square

Problema. a) Sea A\in M_n(\mathbb{R}) una matriz tal que ^tA \cdot A =O_n. Demuestra que A=O_n.
b) ¿El inciso a) seguirá siendo cierto si reemplazamos \mathbb{R} por \mathbb{C}?

Solución. a) Sea A=[A_{ij}]. Por la regla del producto de matrices se tiene que la (i,i)-ésima entrada de ^tA\cdot A es

    \begin{align*}(^tA\cdot A )_{ii} &= \displaystyle\sum_{k=1}^n (^tA)_{ik}A_{ki} \\ &=\displaystyle\sum_{k=1}^n A_{ki}^2.\end{align*}

Como ^tA\cdot A=O_n, concluimos que para toda i\in\{1,2,\dots,n\} se tiene que

    \begin{align*}\displaystyle\sum_{k=1}^n A_{ki}^2=0.\end{align*}

Como cada A_{ki} es un número real, al elevarlo al cuadrado obtenemos números no negativos. De lo anterior se sigue que A_{ki}=0 para toda k\in \{1,2\dots ,n\}. Como la i fue tomada de manera arbitraria, concluimos que A=O_n.
b) El resultado no necesariamente es cierto si cambiamos el campo de los reales por el campo de los complejos. Busquemos una matriz simétrica A\in M_2(\mathbb{C}) tal que ^tA\cdot A= O_2, pero como A es simétrica, lo anterior solamente es A^2=O_2 y además se puede escribir como

    \begin{align*}A=\begin{pmatrix} a & b\\b & d\end{pmatrix}\end{align*}

para algunos números complejos a,b y d. Ahora

    \begin{align*}A^2 &= \begin{pmatrix} a & b\\b & d\end{pmatrix} \cdot \begin{pmatrix}a & b\\b & d\end{pmatrix} \\&=\begin{pmatrix}a^2 +b^2 & b(a+d)\\b(a+d) & b^2+ d^2\end{pmatrix}.\end{align*}

Así que buscamos números complejos a,b,d con al menos uno de ellos distinto de cero y tales que

    \begin{align*}a^2+b^2=0, \hspace{2mm} b(a+d)=0, \hspace{2mm} b^2+d^2=0. \end{align*}

Basta con asegurar que a+d=0 y a^2+b^2=0, para lo cual tomamos a=i, b=1, d=-i .

\square

Producto tensorial

A continuación definiremos el producto tensorial. Es importante mencionar que esto es meramente para ejemplificar la teoría que se ha visto hasta ahora, por lo que no se profundizará en este tema.

Si A=[a_{ij}]\in M_{m_1,n_1}(F) y B\in M_{m_2,n_2}(F) son matrices, entonces definimos el producto de Kronecker o producto tensorial de A y B como la matriz de bloque A\otimes B\in M_{m_1m_2,n_1n_2}(F) definida por

    \begin{align*}A\otimes B = \begin{pmatrix}a_{11}B & a_{12}B & \dots & a_{1,n_1}B\\a_{21}B & a_{22}B & \dots & a_{2,n_1}B\\\vdots & \vdots & \vdots & \vdots\\a_{m_1,1}B & a_{m_1,2}B & \dots & a_{m_1,n_1}B \end{pmatrix}.\end{align*}

Problema. Calcula el producto tensorial de las matrices

    \begin{align*}A=\begin{pmatrix} 0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix}, \hspace{4mm} B=\begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}.\end{align*}

Solución. Usamos directamente la definición de producto tensorial

    \begin{align*}A\otimes B=\begin{pmatrix} 0 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 1 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}\\1\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}\\0\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix} & 1\cdot \begin{pmatrix}2 & 1\\1 & -1\end{pmatrix}\end{pmatrix}\end{align*}

    \begin{align*}= \begin{pmatrix}0 & 0 & 2 & 1 & 0 & 0\\0 & 0 & 1 & -1 & 0 & 0\\2 & 1 & 0 & 0 & 0 & 0\\1 & -1 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 2 & 1\\0 & 0 & 0 & 0 & 1 & -1\end{pmatrix} \end{align*}

\square

Problema. ¿El producto tensorial es conmutativo?

Solución. En general, el producto tensorial, no es conmutativo. Sean A y B como en el problema anterior. Entonces

    \begin{align*}B\otimes A = \begin{pmatrix}2\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix} & 1\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix}\\1\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix} & -1\cdot \begin{pmatrix}0 & 1 & 0\\1 & 0 & 0\\0 & 0 & 1\end{pmatrix}\end{pmatrix}\end{align*}


    \begin{align*}=\begin{pmatrix}0 & 2 & 0 & 0 & 1 & 0\\2 & 0 & 0 & 1 & 0 & 0\\0 & 0 & 2 & 0 & 0 & 1\\0 & 1 & 0 & 0 & -1 & 0\\1 & 0 & 0 & -1 & 0 & 0\\0 & 0 & 1 & 0 & 0 & -1\end{pmatrix}.\end{align*}

Comparando con lo obtenido en el problema anterior, ser verifica que el producto tensorial no es conmutativo.

\square

Problema. Verifica que I_m\otimes I_n = I_{mn}.

Solución. Por definición sabemos que I_m\otimes I_n\in M_{mn}(F). Ahora veamos que

    \begin{align*}\begin{pmatrix}1\cdot I_n & 0\cdot I_n & \dots & 0\cdot I_n\\0\cdot I_n & 1 \cdot I_n & \dots & 0\cdot I_n\\\vdots & \vdots &\ddots & \vdots\\0\cdot I_n & 0\cdot I_n & \dots & 1\cdot I_n\end{pmatrix}= I_{mn}.\end{align*}

\square

Álgebra Lineal I: Transposición de matrices, matrices simétricas y antisimétricas

Introducción

En esta sección introducimos el concepto de transpuesta de una matriz, que consiste en solo ‘voltear’ una matriz. De ahí sale la operación de transposición de matrices. Si bien esta operación es sencilla, las aplicaciones son vastas, especialmente cuando veamos el concepto de espacio dual. Veremos propiedades básicas de esta operación y cómo se relaciona con suma, producto e inversa de matrices.

Luego definimos tres tipos de matrices importantes, las simétricas, antisimétricas y ortogonales. Estos tipos de matrices nos permiten entender un poco mejor los espacios de matrices, que son más grandes, y nos dan mucha información geométrica sobre nuestro espacio de trabajo. Profundizaremos en esto en la tercera unidad.

Transposición de matrices

Sea A\in M_{m,n}(F) una matriz. Intuitivamente, la transpuesta de A se obtiene al trazar una línea de «pendiente» -1 desde la entrada (1,1) a lo largo de la diagonal y reflejar la matriz con respecto a esta línea. Daremos unos ejemplos para entender esto más adelante. Primero damos una definición formal.

Definición. La transpuesta de A\in M_{m,n}(F), denotada por ^{t} A se obtiene intercambiando los renglones y las columnas de A. Consecuentemente ^t A es una matriz de tamaño n\times m, es decir ^t A \in M_{n,m}(F). Dicho de otra manera, si A=[a_{ij}], entonces ^t A=[a_ji}].

Observación. En otras fuentes es posible que encuentres una notación un poco diferente para matriz transpuesta. Algunas veces se pone el superíndice t arriba a la derecha, así: A^t. Otras veces se usa una T mayúscula así: A^T. Nosotros usaremos el superíndice a la izquierda.

Ejemplo. La transpuesta de

    \begin{align*}A= \begin{pmatrix} 1& 2 & 3\\ 4 & 5 & 6\\ 7 & 8 & 9 \end{pmatrix}\end{align*}

es

    \begin{align*}^t A= \begin{pmatrix} 1 & 4 & 7 \\ 2 & 5 & 8 \\ 3 & 6 & 9 \end{pmatrix}.\end{align*}

En general, la transpuesta de una matriz cuadrada en M_n(F) también es cuadrada y está en M_n(F).

\square

Es claro también que ^t I_n= I_n.

Ejemplo. La transpuesta de

    \begin{align*} A= \begin{pmatrix} 0 & 1 & 0 & 3\\ 4 & 7 & 2 & 0\end{pmatrix} \end{align*}

es

    \begin{align*}^t A= \begin{pmatrix} 0 &4\\ 1 & 7\\ 0 & 2\\ 3 & 0 \end{pmatrix}.\end{align*}

\square

Propiedades de transposición de matrices

Hasta ahora hemos hablado de sumas de matrices, multiplicación por escalar y multiplicación de matrices. Una forma frecuente de trabajar con álgebra es preguntarse cómo una nueva definición interactúa con lo que ya hemos definido anteriormente.

Resumimos las propiedades de la transposición de matrices A\mapsto {^t A} y cómo se relaciona con operaciones anteriores en el siguiente resultado.

Proposición. La operación de transponer satisface:

  1. ^t\left( ^t A\right) = A para toda A\in M_{m,n}(F).
  2. ^t\left ( A+B\right) = {^t A} + {^t B} para todas A,B\in M_{m,n}(F).
  3. ^t\left( cA\right)= c {^t A} si c\in F es un escalar y A\in M_{m,n}(F).
  4. {}^t\left( AB\right)=\  {^tB} \, {^t A} si A\in M_{m,n}(F) y B\in M_{n,p}(F).
  5. {}^t \left(A^k\right)= \left(^t A\right)^k si A\in M_n(F) y k es un entero positivo.
  6. Si A\in M_n(F) es invertible, entonces ^t A también es invertible y

        \begin{align*}\left(^t A\right)^{-1}= {^t \left(A^{-1}\right)}.\end{align*}

Demostración: Las primeras tres propiedades son consecuencia casi inmediata de la definición y las dejamos como tarea moral. Una sugerencia es demostrarlas usando la notación de entradas.

Comencemos pues demostrando la cuarta propiedad. Primero, observamos que ^t B\in M_{p,n}(F) y ^t A\in M_{n,m}(F) por lo que el producto ^t B \, {^t A} tiene sentido. Luego si A=[a_{ij}] y B=[b_{jk}] tenemos por la regla del producto que

    \begin{align*}^t(AB)_{ki}&= (AB)_{ik}\\& = \sum_{j=1}^{n} a_{ij} b_{jk}\\&=\sum_{j=1}^{n} \left(^t B\right)_{kj} \left(^t A\right)_{ji}\\&  =  \left( ^t B\, {^t A}\right)_{ki}.\end{align*}

Así ^t (AB)= \ ^t B \,{^t A}.

La quinta propiedad la demostramos por inducción sobre k. El caso base k=1 es claro. Asumamos entonces que se cumple para algún k, y verifiquemos que la propiedad sigue siendo cierta para k+1.

    \begin{align*}^t \left( A^{k+1}\right)&= {^t \left( A^{k} \cdot A\right)} \\&=\ ^t A\  ^t\left(A^{k}\right) \\&=\ ^t A \cdot \left(^t A\right)^{k}\\&= \left(^t A\right)^{k+1}.\end{align*}

Donde la segunda igualdad se debe a la cuarta propiedad y la tercera a la hipótesis de inducción. Por inducción, queda probado el resultado.

Finalmente la sexta propiedad se sigue de la cuarta, dado que

    \begin{align*}^t A \cdot \ ^t\left(A^{-1}\right)= \ ^t\left( A^{-1} \cdot A\right) = \ ^t I_n =I_n.\end{align*}

La igualdad simétrica se verifica de la misma manera, y queda demostrada la última propiedad.

\square

Observación. La transposición de matrices «voltea» el producto de matrices. Es decir, si en el producto AB aparece A a la izquierda y B a la derecha, al transponer obtenemos ^tB\, {^tA}, con ^tB a la izquierda y ^tA a la derecha.

Observación. Por la proposición anterior, la transposición de matrices preserva la invertibilidad de las matrices y así lo podemos ver como un mapeo ^t : GL_n(F)\to GL_n(F).

Problema. Sea X\in F^n un vector con coordenadas x_1, \dots, x_n considerado como una matriz en M_{n,1}(F). Demuestre que para cualquier matriz A\in M_n(F) se tiene

    \begin{align*}^t X \left( ^t A \cdot A\right) X= \sum_{i=1}^{n} \left( a_{i1} x_1+ a_{i2} x_2 +\dots + a_{in} x_n\right)^2. \end{align*}

Solución: Primero, usamos la proposición para transformar el lado izquierdo de la igualdad buscada:

    \begin{align*}^t X \left( ^t A\cdot A\right) X=\ ^tX\  ^t A A X=\ ^{t} \left( AX\right) \cdot AX.\end{align*}

Luego nombrando Y=AX tenemos que

    \begin{align*}Y=AX=\begin{pmatrix}  a_{11} x_1+\dots + a_{1n} x_n\\ a_{21} x_1+\dots +a_{2n} x_n \\ \vdots \\ a_{n1} x_1+\dots +a_{nn} x_n \end{pmatrix} = \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n\end{pmatrix} .\end{align*}

Así

    \begin{align*} ^t Y \cdot Y= \begin{pmatrix}  y_1 & y_2 & \dots & y_n \end{pmatrix} \cdot \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix} \end{align*}

y usando la regla del producto para matrices concluimos que esta última cantidad no es más que y_1^2+\dots + y_n^2. Finalmente, sustituyendo y_i por su correspondiente a_{i1} x_1 +\dots + a_{in} x_n obtenemos la igualdad buscada.

\square

Matrices simétricas, antisimétricas y ortogonales

En el álgebra lineal hay tres tipos de matrices muy importantes y relacionadas con la transposición de matrices. Todas ellas son matrices cuadradas.

  • Las matrices simétricas. Son aquellas matrices A\in M_n (F) tales que ^t A=A, equivalentemente a_{ij}=a_{ji} para cualesquiera 1\leq i,j\leq n. Más adelante veremos que son de fundamental importancia para la teoría de formas cuadráticas y espacios euclideanos (donde F=\mathbb{R}), y un cacho importante de nuestro curso se dedicará a estudiar sus propiedades. Por ejemplo todas las matrices simétricas de tamaños 2 y 3 son de la forma

        \begin{align*}\begin{pmatrix} a & b \\ b &c\end{pmatrix}, \hspace{1mm} a,b,c\in F\text{ y } \begin{pmatrix} a & b & c\\ b  & d & e\\ c & e & f\end{pmatrix}, \hspace{1mm} a,b,c,d,e,f\in F.\end{align*}

  • Las matrices ortogonales. Estas son las matrices invertibles A\in GL_n(F) que satisfacen A^{-1}=\ ^{t}A. Estas (como su nombre lo indica) tienen una interpretación geométrica muy importante, pues corresponden a isometrías de espacios euclideanos. También las estudiaremos a detalle más adelante.
  • Las matrices antisimétricas. Son matrices A\in M_n(F) que cumplen con A^{t}=-A. Estas tienen que ver con formas alternantes, y cumplen a_{ij}=-a_{ji}. Si F\in \{ \mathbb{Q}, \mathbb{R}, \mathbb{C}\}, esta última condición nos implica que a_{ii}=-a_{ii}, de dónde a_{ii}=0. Entonces, si F es alguno de estos las entradas en la diagonal son todas cero. Todas las matrices antisimétricas de tamaños 2 y 3 sobre el campo \mathbb{C} se ven:

        \begin{align*}\begin{pmatrix} 0& a \\ -a &0\end{pmatrix}, \hspace{1mm} a\in \mathbb{C}\text{ y } \begin{pmatrix} 0 & a & b\\ -a & 0& c\\ -b & -c & 0\end{pmatrix}, \hspace{1mm} a,b,c\in \mathbb{C}.\end{align*}


    Sin embargo, si F es por ejemplo \mathbb{F}_2, entonces la condición 2a_{ii}=0 no nos aporta ninguna información nueva, ya que para todo elemento x en \mathbb{F}_2, 2x=0. De hecho, sobre campos de este estilo ¡no hay diferencia entre matrices simétricas y antisimétricas!

A continuación resumimos algunas propiedades iniciales de matrices simétricas y antisimétricas. La idea de las demostraciones es usar las propiedades de transposición de matrices.

Proposición. Todas las matrices en los enunciados siguientes son matrices cuadradas del mismo tamaño. Son ciertas:

  1. La suma de una matriz y su transpuesta es simétrica, la diferencia de una matriz y su transpuesta es antisimétrica.
  2. El producto de una matriz y su transpuesta es simétrica.
  3. Cualquier potencia de una matriz simétrica es simétrica.
  4. Cualquier potencia par de una matriz antisimétrica es simétrica, y cualquier potencia impar de una matriz antisimétrica es antisimétrica.
  5. Si A es invertible y simétrica entonces A^{-1} es simétrica.
  6. Si A es invertible y antisimétrica, entonces A^{-1} es antisimétrica.

Demostración:

  1. Si A es una matriz, entonces

        \[^t\left( A+\ ^{t}A\right)=\ ^t A + \ ^{t}\left(^{t}A\right) =\ ^{t}A+A= A+\ ^{t} A.\]

    Es decir, A+\ ^{t}A es igual a su transpuesta y por tanto es simétrica. El cálculo para verificar la antisimetría de A-\ ^{t} A es similar.
  2. Queremos ver que A ^{t}A es simétrica. Lo podemos hacer directamente

        \[^{t}\left( A ^{t} A\right) =\ ^{t}\left(^{t}A\right) ^{t} A= A ^{t}A,\]

    lo que verifica la simetría de la matriz.
  3. Se sigue de la proposición anterior, pues si A es simétrica

        \begin{align*}^{t}\left(A^{n}\right)= \left( ^{t}A\right)^{n}= A^{n}.\end{align*}

  4. Hacemos el caso en el que la potencia es par y dejamos el otro como tarea moral, el razonamiento es análogo. Si A es antisimétrica y n=2k para algún k entonces

        \begin{align*}^{t}\left(A^{n}\right)= \left(^{t} A\right)^{n}= (-A)^{n}=(-1)^{2k} A^{n}=A^{n}.\end{align*}

    Aquí usamos que (-1)^{2k}=1.
  5. Si A es simétrica, usando la proposición anterior tenemos que

        \begin{align*}^{t}\left(A^{-1}\right)=\left(^t A\right)^{-1}= A^{-1}.\end{align*}

  6. Es análogo al inciso anterior.

\square

Algunos problemas

Acabamos la entrada con algunos problemas que servirán de práctica.

Problema. Describe las matrices simétricas A\in M_n(F) que sean simultáneamente simétricas y triangulares superiores.

Solución: Sea A=[a_{ij}] simétrica y triangular superior. Por definición a_{ij}=0 si i>j por ser triangular superior, y a_{ij}=a_{ji} por ser simétrica para cualesquiera i,j\in \{1, \dots, n\}. Así, si i\neq j entonces a_{ij}=0, pues si i<j, entonces 0=a_{ji}=a_{ij}. Se sigue que A tiene que ser diagonal. Conversamente, es fácil verificar que cualquier matriz diagonal es simétrica y triangular superior. Es decir, la respuesta es precisamente las matrices diagonales.

\square

Problema. ¿Cuántas matrices simétricas hay en M_n\left( \mathbb{F}_2\right)?

Solución: Observamos que una matriz simétrica está determinada por las entradas que están sobre o por encima de la diagonal, pues sabemos que para llenar los otros espacios hay que reflejar estas entradas (de otra manera, se puede pensar como colorear solo un lado del papel y luego doblarlo). Conversamente, cada elección de suficientes números para llenar la diagonal y el área encima de ella determina una matriz simétrica.

Así, contemos cuántas entradas hay sobre o por encima de la diagonal: El primer renglón está enteramente por encima de la diagonal, lo que nos da n entradas, luego el segundo renglón está, con excepción de una entrada, contenido en esta área superior, es decir tenemos n-1 entradas más. Al tercer renglón le quitamos dos entradas, al cuarto tres entradas y así sucesivamente hasta llegar al último renglón, donde la única entrada sobre o por encima de la diagonal es la última, es decir, una entrada que podemos escoger.

Sumando, tenemos

    \begin{align*}n+(n-1)+(n-2)+\dots +2+1=\frac{n(n+1)}{2}\end{align*}

entradas que rellenar, y por tanto \frac{n(n+1)}{2} elecciones de números que hacer. Ahora, ¿cuántos números podemos escoger? Al estar trabajando en \mathbb{F}_2, solo dos: 0 ó 1. Por un argumento combinatorio, concluimos que hay

    \begin{align*}2^{\frac{n(n+1)}{2}}\end{align*}

matrices simétricas en M_n\left(\mathbb{F}_2\right).

\square

Problema. Demuestra que toda matriz A\in M_n(\mathbb{C}) se puede escribir de manera única como A=B+C, con B simétrica y C antisimétrica.

Solución: Suponiendo que A=B+C con B simétrica y C antisimétrica, obtenemos que

    \begin{align*}^t A=\ ^t(B+C)= \ ^t B + \ ^t C= B-C\end{align*}

Así, resolviendo el sistema

    \begin{align*}\begin{cases} A= B+C\\^t A= B-C\end{cases}\end{align*}

obtenemos que

    \begin{align*}B=\frac{1}{2}\left( A+\ ^t A\right) \text{ y } C=\frac{1}{2}\left( A-\ ^{t} A\right).\end{align*}

Así la elección de B y C es única, pues están totalmente determinadas. Además, definiendo B y C como en las igualdades de arriba podemos ver que cumplen las condiciones buscadas (probando así existencia).

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Escribe, de manera explícita, todas las matrices simétricas, antisimétricas y ortogonales de M_2(\mathbb{F}_2).
  • La siguiente matriz es una matriz antisimétrica en M_4(\mathbb{R}), pero algunas de sus entradas se borraron. ¿Cuáles son estas entradas?

        \[\begin{pmatrix} 0 & 2 & & 3 \\ & 0 & -4  & \\ 1 & 4 & & \frac{1}{2} \\ & -\frac{2}{3} & & 0 \end{pmatrix}.\]

  • Demuestra las tres primeras propiedades de la proposición de propiedades de transposición de matrices.
  • ¿Será cierto que las matrices de M_n(F) que son simultáneamente invertibles y simétricas forman un subgrupo de GL_n(F)? En otras palabras, ¿es cierto que el producto de dos matrices invertibles y simétricas es una matriz invertible y simétrica? ¿Que puedes en este sentido de las matrices ortogonales? ¿De las antisimétricas?
  • Demuestra que cualquier potencia impar de una matriz antisimétrica es antisimétrica
  • Demuestra que en M_n(\mathbb{F}_2), una matriz es simétrica si y sólo si es antisimétrica.

Álgebra Lineal I: Eigenvalores y eigenvectores de transformaciones y matrices

Introducción

En entradas anteriores ya establecimos los fundamentos para hablar de determinantes. Dimos su definición para el caso de vectores y el caso de matrices/transformaciones lineales. Enunciamos y demostramos varias de sus propiedades. Luego dedicamos toda una entrada a ver formas de calcularlos. Finalmente, vimos que nos pueden ayudar para entender mucho mejor a los sistemas de ecuaciones lineales. Entender bien estos conceptos te será de gran utilidad en tu formación matemática.

Además, los determinantes son un paso natural en uno de nuestros objetivos del curso: entender por qué las matrices simétricas reales son diagonalizables. Recuerda que una matriz A en M_n(F) es diagonalizable si existe una matriz diagonal D y una matriz invertible P, ambas en M_n(F), de modo que

    \[A=P^{-1}DP.\]

Lo que haremos en esta entrada es hablar de esos valores que aparecen en la matriz diagonal D en el caso de que A sea diagonalizable. Resulta que estos valores están relacionados con una pregunta muy natural en términos de lo que le hace la matriz a ciertos vectores. Y mejor aún, como veremos, hay un método para encontrar estos valores por medio de un determinante. Vamos poco a poco.

Eigenvalores y eigenvectores para transformaciones lineales

Sea V un espacio vectorial sobre un campo F y sea T:V\to V una transformación lineal. Para fijar ideas, pensemos en \mathbb{R}^n por el momento. A veces, T simplemente la cambia la magnitud a un vector, sin cambiarle la dirección. Es decir, hay algunos vectores para los cuales T se comporta simplemente como la multiplicación por un escalar. En símbolos, hay vectores v tales que existe un valor \lambda tal que T(v)=\lambda v.

Por supuesto, al vector 0 siempre le pasa esto, pues como T es lineal, se tiene que T(0)=0=\lambda\cdot 0 para cualquier escalar \lambda. Resulta que cuando se estudian estos vectores y escalares especiales, lo más conveniente es quitar al vector 0 de la discusión. Estas ideas llevan a la siguiente definición.

Definición. Un eigenvalor de una transformación lineal T:V\to V es un escalar \lambda tal que \lambda \text{id} - T no es invertible. En otras palabras, \lambda es un escalar tal que existe un vector no cero en el kernel de \lambda \text{id} - T. A un vector v\neq 0 en V tal que

    \[(\lambda \text{id} - T)v=0,\]

se le conoce como un eigenvector de T.

En otras palabras, v es un eigenvector correspondiente a T si v no es cero y T(v)=\lambda v. A los eigenvalores y eigenvectores de T también se les conoce en la bibliografía como valores propios y vectores propios de T.

Observa que si al conjunto de eigenvectores para un eigenvalor \lambda le agregamos el vector 0, entonces obtenemos el kernel de una transformación lineal, que sabemos que es un subespacio vectorial.

Veamos un par de ejemplos para que queden más claras las ideas.

Ejemplo. Consideremos a la transformación lineal T:\mathbb{R}^3\to \mathbb{R}^3 dada por

    \[T(x,y,z)=(-2x+15y+18z,3y+10z,z).\]

Observa que

    \begin{align*}T(1,0,0)&=(-2,0,0)\\&=-2(1,0,0),\end{align*}

que

    \begin{align*}T(-19,-5,1)&=((-2)(-19)+15(-5)+18,3(-5)+10, 1)\\&=(28+75-18,-15+10,1)\\&=(-19,-5,1),\end{align*}

y que

    \begin{align*}T(3,1,0)&=(-6+15,3,0)\\&=(9,3,0)\\&=3(3,1,0).\end{align*}

Estas igualdades muestran que (1,0,0) es un eigenvector de T con eigenvalor -2, que (-19,-5,1) es un eigenvector de T con eigenvalor 1 y (3,1,0) es un eigenvector de T con eigenvalor 3.

\square

Ejemplo. Consideremos al espacio vectorial \mathbb{R}[x] de polinomios con coeficientes reales. Tomemos la transformación lineal T que manda a un polinomio a su segunda derivada. ¿Quiénes son los eigenvalores y eigenvectores de T?

Para que p sea un eigenvector con eigenvalor \lambda, tiene que suceder que

    \[p''=T(p)=\lambda p.\]

Como p no es el vector cero, tiene un cierto grado. Si \lambda \neq 0, entonces la igualdad anterior no puede suceder, pues si p es de grado mayor o igual a 2, entonces el grado de p'' es menor al de \lambda p, y si el grado de p es 0 ó 1, su segunda derivada es 0, y no puede pasar \lambda p = 0. Así, el único eigenvalor que puede tener T es \lambda = 0. Observa que sí es válido que los eigenvalores sean cero (los eigenvectores no).

Cuando \lambda = 0, tiene que pasar que p'' sea 0\cdot p, es decir, el polinomio cero. Los únicos polinomios tales que su derivada es cero son los constantes y los lineales. Pero el polinomio cero por definición no es eigenvector.

Así, la respuesta final es que el único eigenvalor de T es 0, y sus eigenvectores correspondientes son los polinomios constantes distintos de cero, y los polinomios lineales.

\square

Eigenvalores y eigenvectores para matrices

Tenemos una definición similar para matrices. Sea A una matriz en M_n(F).

Definición. Un escalar \lambda en F es un eigenvalor de A si la matriz \lambda I_n - A no es invertible. En otras palabras, si existe un vector no cero X en F^n tal que AX=\lambda X. A un tal vector X se le conoce como un eigenvector correspondiente al eigenvalor \lambda.

En otras palabras, los eigenvalores y eigenvectores de A son exactamente los eigenvalores y eigenvectores de la transformación T_A:\mathbb{F}^n\to \mathbb{F}^n dada por T_A(v)=Av.

Además, si elegimos cualquier base B de un espacio de dimensión finita V y A es la matriz de T con respecto a la base B, entonces para cualquier escalar \lambda se tiene que \lambda I_n - A es la matriz de \lambda \text{id} - T con respecto a esta misma base. De aquí se deduce que los eigenvalores de T son los mismos que los eigenvalores de A. Dos matrices que representan a T difieren sólo en un cambio de base, así que obtenemos el siguiente resultado fundamental.

Proposición. Si A es una matriz en M_n(F) y P es una matriz invertible, entonces A y P^{-1}AP tienen los mismos eigenvalores. En otras palabras, matrices similares tienen los mismos eigenvalores.

En el primer ejemplo tomamos la transformación lineal T:\mathbb{R}^3\to \mathbb{R}^3 tal que

    \[T(x,y,z)=(-2x+15y+18z,3y+10z,z).\]

Su matriz en la base canónica de \mathbb{R}^3 es

    \[A=\begin{pmatrix} -2 & 15 & 18\\ 0 & 3 & 10\\ 0 & 0 & 1 \end{pmatrix}.\]

En el ejemplo vimos que los eigenvalores eran -2, 1 y 3, que precisamente conciden con las entradas en la diagonal de A. Esto no es casualidad. El siguiente resultado muestra esto, y es una primer evidencia de la importancia de los determinantes para encontrar los eigenvalores de una matriz.

Proposición. Si A es una matriz triangular (superior o inferior) en M_n(F), entonces sus eigenvalores son exactamente las entradas en su diagonal principal.

Demostración. Haremos el caso para cuando A es triangular superior. El otro caso queda de tarea moral.

Queremos encontrar los valores \lambda para los cuales la matriz \lambda I_n - A no sea invertible. La matriz A es triangular superior, así que la matriz \lambda I_n - A también, pues las entradas de A se vuelven negativas, y luego sólo se altera la diagonal principal.

Si las entradas diagonales de A son a_{11},\ldots,a_{nn}, entonces las entradas diagonales de \lambda I_n -A son

    \[\lambda - a_{11},\ldots,\lambda-a_{nn}.\]

La matriz \lambda I_n - A no es invertible si y sólo si su determinante es igual a cero. Como es una matriz triangular superior, su determinante es el producto de sus entradas diagonales, es decir,

    \[\det(\lambda I_n - A) = (\lambda - a_{11})\cdot\ldots\cdot(\lambda - a_{nn}).\]

Este producto es 0 si y sólo si \lambda es igual a alguna entrada a_{ii}. De esta forma, los únicos eigenvalores de A son las entradas en su diagonal.

\square

Si A es una matriz diagonalizable, entonces es semejante a una matriz diagonal D. Por la proposición anterior, los eigenvalores de A serían entonces las entradas en la diagonal principal de D. Esto nos da una intuición muy importante: si acaso pudiéramos encontrar todos los eigenvalores de A, entonces eso podría ser un paso parcial hacia diagonalizarla.

Encontrar eigenvalores es encontrar las raíces de un polinomio

La siguiente proposición conecta eigenvalores, polinomios y determinantes.

Proposición. Sea A una matriz en M_n(F). Entonces la expresión

    \[\det(\lambda I_n - A)\]

está en F[\lambda], es decir, es un polinomio en la variable \lambda con coeficientes en F. Además, es de grado exactamente n.

Demostración. La fórmula para el determinante

    \begin{align*}\begin{vmatrix}\lambda - a_{11} & -a_{12} & \ldots & -a_{1n}\\-a_{21} & \lambda - a_{22} & \ldots & -a_{1n}\\\vdots & & \ddots & \\-a_{n1} & -a_{n2} & \ldots & \lambda - a_{nn}\end{vmatrix}\end{align*}

en términos de permutaciones nos dice que el determinante es sumas de productos de entradas de A. Cada una de las entradas es un polinomio en F[\lambda], ya sea constante, o lineal. Como F[\lambda] es cerrado bajo sumas y productos, esto prueba la primer parte de la afirmación.

Para probar que el grado es exactamente n, notemos que cada sumando de la expresión multiplica exactamente n entradas. Como las entradas a lo mucho son de grado uno en F[\lambda], entonces cada sumando es un polinomio de grado a lo más n. Hay una única forma que el grado sea n: cuando se elige la permutación identidad y entonces se obtiene el sumando

    \[(\lambda-a_{11})\cdot\ldots\cdot(\lambda-a_{nn}).\]

Esto termina la prueba.

\square

La proposición anterior nos asegura entonces que la siguiente definición tiene sentido.

Definición. Para A una matriz en M_n(F), el polinomio característico de A es el polinomio \chi_A(\lambda) en F[\lambda] dado por

    \[\chi_A(\lambda) = \det(\lambda I_n - A).\]

De esta forma, \lambda es un eigenvalor de A si y sólo si es una raíz del polinomio \chi_A(\lambda). Esto son buenas y malas noticias. Por un lado, nos cambia un problema de álgebra lineal a uno de polinomios, en donde a veces tenemos herramientas algebraicas que nos ayudan a encontrar raíces. Sin embargo, como se ve en cursos anteriores, también hay otros polinomios para los cuales es muy difícil encontrar sus raíces de manera exacta. Lo que salva un poco esa situación es que sí existen métodos para aproximar raíces numéricamente de manera computacional.

A pesar de la dificultad de encontrar raíces, sin duda tenemos consecuencias interesantes de esta conexión. Consideremos como ejemplo el siguiente resultado.

Proposición. Una matriz A en M_n(F) tiene a lo más n eigenvalores distintos. Lo mismo es cierto para una transformación lineal T:V\to V para V un espacio vectorial de dimensión n.

Demostración. La matriz A tiene tantos eigenvalores como raíces en F tiene su polinomio característico. Como el polinomio característico es de grado exactamente n, tiene a lo más n raíces en F.

La parte de transformaciones queda de tarea moral.

\square

Ya que encontramos los eigenvalores de una matriz o transformación, es posible que queramos encontrar uno o más eigenvectores correspondientes a ese eigenvalor. Observa que eso corresponde a encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo de la forma

    \[(I_n-A) X = 0.\]

Para ello ya tenemos muchas herramientas, como hacer reducción Gaussiana.

Terminamos esta entrada con un ejemplo de cómo encontrar los valores propios y vectores propios en un caso concreto.

Problema. Encuentra los eigenvalores de la matriz

    \[A=\begin{pmatrix}1 & 0 & 0\\ 0 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix}\]

considerándola como:

  • Una matriz en M_3(\mathbb{R})
  • Una matriz en M_3(\mathbb{C}).

En el caso de M_n(\mathbb{R}), encuentra un eigenvector para cada eigenvalor.

Solución. Para encontrar los eigenvalores, tenemos que encontrar el determinante

    \[\begin{vmatrix}\lambda - 1 & 0 & 0\\ 0 & \lambda & 1 \\ 0 & -1 & \lambda \end{vmatrix}.\]

Usando expansión de Laplace en la primer columna y haciendo las operaciones, obtenemos que el determinante de \lambda I_3 - A es el polinomio

    \[(\lambda-1)(\lambda^2+1).\]

Aquí es importante la distinción de saber en qué campo estamos trabajando. Si estamos en M_3(\mathbb{R}), la única raíz del polinomio es 1. Si estamos en M_3(\mathbb{C}), obtenemos otras dos raíces: i y -i.

Ahora, para cuando A es matriz en M_3(\mathbb{R}), necesitamos encontrar un eigenvector para el eigenvalor 1. Esto equivale a encontrar una solución al sistema de ecuaciones

    \[(I_3-A)X=0,\]

es decir, a

    \[\begin{pmatrix}0 & 0 & 0\\ 0 & 1 & 1 \\ 0 & -1 & 1\end{pmatrix}X=0.\]

Una solución para este sistema es X=(1,0,0). Y en efecto, (1,0,0) es eigenvector de A para el eigenvalor 1 pues no es el vector cero y

    \[\begin{pmatrix}1 & 0 & 0\\ 0 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix}\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} 1 + 0 + 0 \\ 0 + 0 + 0 \\ 0 + 0 + 0 \end{pmatrix} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}.\]

\square

Observa que la matriz anterior no es diagonalizable en M_n(\mathbb{R}), pues si lo fuera tendría que ser semejante a una matriz diagonal D con entradas i y -i en la diagonal, pero entonces D no sería una matriz en M_n(\mathbb{R}). Esto nos da otra intuición con respecto a la diagonalización de una matriz: si acaso una matriz en M_n(F) es diagonalizable, entonces su polinomio característico debe tener puras raíces en F. Esta es una condición necesaria, pero aún no es suficiente.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En la entrada vimos que los eigenvalores de una transformación T son los eigenvalores de cualquier matriz que la represente. ¿Es cierto que los eigenvectores de T son los eigenvectores de cualquier matriz que lo represente?
  • Muestra que una transformación lineal T:V\to V para V un espacio vectorial de dimensión n tiene a lo más n eigenvalores distintos.
  • Encuentra los eigenvalores de las matrices de permutación.
  • Para un real \theta\in[0,2\pi) se define la matriz

        \[A(\theta):=\begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix}.\]

    Muestra que A(\theta) tiene eigenvalores reales si y sólo si \theta=0 \o \theta=\pi. Sugerencia: Encuentra el polinomio característico (que es cuadrático) y calcula su discrimintante. Si es negativo, no tiene soluciones reales.
  • Sea A una matriz en M_n(F). Muestra que la matriz transpuesta ^t A tiene los mismos eigenvalores que A, y de hecho, el mismo polinomio característico que A. Sugerencia. Recuerda que una matriz y su transpuesta tienen el mismo determinante.

Álgebra Lineal I: Problemas de transformaciones transpuestas y formas bilineales

Introducción

En la entrada del miércoles pasado se definió el concepto de la transpuesta de una transformación lineal. Así mismo, se probó el impresionante y muy útil hecho de que si A es la matriz asociada a la transformación T con respecto a ciertas bases, entonces ^tA es la matriz asociada de la transformación ^tT con respecto a las bases duales. Comenzamos esta entrada con problemas de transformaciones transpuestas. Los problemas 1 y 2 de esta entrada nos servirán para repasar la teoría vista en esa clase.

Por otra parte, en la entrada del viernes pasado comenzamos con el estudio de las formas bilineales y también se definió la forma cuadrática asociada a una forma bilineal. Además, se presentó la identidad de polarización, la cuál dada una forma cuadrática q nos recupera la única forma bilineal simétrica de la cuál viene q.

Para repasar esta teoría, en esta entrada se encuentran los problemas 3 y 4. El problema 4 es interesante porque introduce de manera sencilla los espacios de funciones l_p , de los cuáles se hace un estudio mucho más profundo en un primer curso de análisis matemático. Además, para este problema hacemos uso de herramientas de convergencia de series.

Problemas de transformaciones transpuestas

Veamos dos problemas de transformaciones transpuestas

Problema 1. Considera la transformación lineal T:\mathbb{R}^3 \to \mathbb{R}^2 dada por

    \[T(x,y,z)=(x+3y, x+y-z).\]


Sea \mathcal{B}^*=\{e_1^*, e_2^*\} la base dual canónica de \mathbb{R}^2.
Calcula ^tT(e_1^*+e_2^*) y ^tT(e_1^*-e_2^*) en términos de la base dual canónica \{f_1^\ast, f_2^\ast, f_3^\ast\} de \mathbb{R}^3.

Solución. Primero observemos que para un vector cualquiera de \mathbb{R}^2 se tiene que

    \begin{align*}e_1^*(x,y)&=x\\e_2^*(x,y)&=y.\end{align*}

entonces

    \begin{align*}(e_1^* + e_2^* )(x,y)&=x+y\\(e_1^* - e_2^* )(x,y)&=x-y.\end{align*}

Así,

    \begin{align*}(^tT(e_1^*&+e_2^*))(x,y,z)\\=&(e_1^* + e_2^*)(T(x,y,z))\\=&(e_1^* + e_2^*)(x+3y, x+y-z)\\=&x+3y+x+y-z\\=&2x+4y-z.\end{align*}

Esto nos dice que ^tT(e_1^*&+e_2^*)=2f_1^\ast+4f_2^\ast - f_3^\ast.

Por otro lado,

    \begin{align*}(^tT(e_1^*&-e_2^*))(x,y,z)\\=&(e_1^* - e_2^*)(T(x,y,z))\\=&(e_1^* - e_2^*)(x+3y, x+y-z)\\=&x+3y-x-y+z\\=&2y+z.\end{align*}

Por lo tanto, ^tT(e_1^*&-e_2^*)) =2f_2^\ast+f_3^\ast.

\square

Problema 2. Encuentra la matriz de ^tT con respecto a la base canónica de \mathbb{R}^3 sabiendo que

T(x,y,z)=(x+y, y-z,x+2y-3z).

Solución. Recordemos que para calcular la matriz asociada a una transformación con respecto a una base canónica sólo hace falta poner en la i-ésima columna la imagen del i-ésimo vector canónico. Por esto, calculamos los siguientes valores

T(e_1)=T(1,0,0)=(1,0,1)
T(e_2)=T(0,1,0)=(1,1,2)
T(e_3)=(0,0,1)=(0,-1,-3).

Entonces la matriz asociada a T es

A=\begin{pmatrix}1 & 1 & 0\\0 & 1 & -1\\1 & 2 & -3\end{pmatrix}.

Así, por Teorema 2 visto en la entrada de ortogonalidad y transformación transpuesta, sabemos que la matriz asociada a ^tT es justamente la matriz

^tA=\begin{pmatrix}1 & 0 & 1\\1 & 1 & 2\\0 & -1 & -3\end{pmatrix}.

\square

Problemas de formas bilineales y cuadráticas

Problema 3. Demuestra que la transformación

b:\mathbb{R}^2 \times \mathbb{R}^2 \to \mathbb{R}
b((x,y),(z,t))=xt-yz

es una forma bilineal sobre \mathbb{R}^2. Describe la forma cuadrática asociada.

Demostración. Sea (x,y)\in \mathbb{R}^2 fijo. Queremos ver que

b((x,y), \cdot):\mathbb{R}^2 \to \mathbb{R}
definida por
(u,v)\mapsto b((x,y),(u,v))
es lineal.

Sean (u,v),(z,t)\in \mathbb{R}^2.

    \begin{align*}b(&(x,y),(u,v)+(z,t))\\&=b((x,y),(u+z, v+t))\\&=x(v+t)-y(u+z)\\&=(xv-yu)+(xt-yz)\\&=b((x,y),(u,v))+b((x,y),(z,t)).\end{align*}

Sea k \in \mathbb{R}.

    \begin{align*}b((x,y),k(u,v))&=b((x,y),(ku,kv))\\&=kxv-kyu\\&=k(xv-yu)\\&=kb((x,y),(u,v)).\end{align*}

Así, (u,v)\mapsto b((x,y),(u,v)) es lineal.

Ahora veamos que dado (u,v)\in\mathbb{R}^2 fijo, la transformación (x,y)\mapsto b((x,y),(u,v)) es lineal.

Sean (x,y),(z,t)\in\mathbb{R}^2 y k\in \mathbb{R}. Tenemos que

    \begin{align*}b((x&,y)+k(z,t),(u,v))\\=&b((x+kz,y+kt),(u,v))\\=&(x+kz)v - (y+kt)u\\=& xv-kzv-yu-ktu\\=&(xv-yu)+k(zv-tu)\\=&b((x,y),(u,v))+kb((z,t),(u,v)).\end{align*}

Así, (x,y)\mapsto b((x,y),(u,v)) es lineal y por consiguiente b es una forma bilineal.

Ahora, tomemos q:\mathbb{R}^2\to \mathbb{R} definida por

    \[q(x,y)=b((x,y),(x,y)).\]


Entonces q(x,y)=xy-yx=0. Así, la forma cuadrática cero es la forma cuadrática asociada a la forma bilineal b.

\square

Problema 4. Para un real p\geq 0, definimos el espacio

    \[l_p:=\left\{(x_n)_{n\in\mathbb{N}} : x_n\in\mathbb{R} \forall n\in \mathbb{N} ; \displaystyle\sum_{i\in \mathbb{N}}|x_i| ^p < \infty \right\}.\]

Notemos que para p\in[1,\infty), l_p es un espacio vectorial sobre \mathbb{R} con las operaciones definidas de manera natural. La demostración no es totalmente trivial, pues hay que mostrar que este espacio es cerrado bajo la suma, y esto requiere de la desigualdad del triángulo para la norma |\cdot |_p. Puedes intentar demostrar esto por tu cuenta como tarea moral.

Ahora, considera H:l_2\times l_2 \to\mathbb{R} definida por

H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})=\displaystyle\sum_{n\in\mathbb{N}}x_ny_n.


Demuestra que H es una forma bilineal simétrica sobre l_2.

Demostración. Lo primero que haremos es mostrar que la forma bilineal que definimos en efecto tiene valores reales. Para ello, tenemos que ver que converge.

Observemos que para cada n\in\mathbb{N} se tiene que

0\leq(|x_n|- |y_n|)^2.

Entonces ,

    \begin{align*}0&\leq |x_n| ^2 -2|x_ny_n|+ |y_n |^2\\|x_n y_n|&\leq \frac{1}{2}(|x_n|^2 + |y_n|^2).\end{align*}


Por consiguiente,

\displaystyle\sum_{n\in\mathbb{N}}|x_n y_n|\leq \frac{1}{2}\left (\displaystyle\sum_{n\in\mathbb{N}}|x_n|^2 + \displaystyle\sum_{n\in\mathbb{N}}|y_n|^2 \right ) < \infty.

Lo anterior se debe a que

\displaystyle\sum_{n\in\mathbb{N}}|x_n|^2 < \infty ya que (x_n)_{n\in \mathbb{N}}\in l_2

y análogamente para (y_n)_{n\in \mathbb{N}}.

Así, \displaystyle\sum_{n\in\mathbb{N}}x_n y_n < \infty, pues converge absolutamente, y por lo tanto H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}}) siempre cae en \mathbb{R}.

Ahora veamos que H es bilineal. Sea x=(x_n)_{n\in \mathbb{N}}\in l_2 fija. Queremos ver que

    \[(y_n)_{n\in \mathbb{N}} \mapsto H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})\]

es lineal.

Sean y=(y_n)_{n\in \mathbb{N}},z=(z_n)_{n\in \mathbb{N}}\in l_2 y k\in \mathbb{R}.

Entonces

    \begin{align*}H(x,&y+kz)\\&=\displaystyle\sum_{n\in\mathbb{N}}x_n y_n +kx_nz_n\\&=\displaystyle\sum_{n\in\mathbb{N}}x_n y_n + k\displaystyle\sum_{n\in\mathbb{N}}x_n z_n\\&= H(x,y) + k H(x,z).\end{align*}

Así, (y_n)_{n\in \mathbb{N}} \mapsto H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}}) es lineal.

De manera análoga se ve que si (y_n)_{n\in \mathbb{N}} \in l_2 fija, entonces (x_n)_{n\in \mathbb{N}} \mapsto H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}}) es lineal.

Además

    \begin{align*}H(x,y)&=\displaystyle\sum_{n\in\mathbb{N}}x_n y_n\\&=\displaystyle\sum_{n\in\mathbb{N}}y_n x_n \\&= H(y,x).\end{align*}

Por lo tanto, H es una forma bilineal simétrica sobre l_2.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Muestra que en efecto l_p es un espacio vectorial sobre \mathbb{R} con las operaciones definidas entrada a entrada.

Álgebra Lineal I: Ortogonalidad y transformación transpuesta

Introducción

En entradas anteriores ya estudiamos la noción de espacio dual y la ortogonalidad. También vimos cómo a partir de la ortogonalidad podemos definir subespacios como intersección de hiperplanos. Como veremos a continuación, la ortogonalidad también nos permite definir qué quiere decir que consideremos la «transformación transpuesta» de una transformación lineal.

Antes de comenzar, vale la pena recordar también que cada transformación lineal entre espacios de dimensión finita puede ser expresada mediante una matriz que depende de la elección de bases de los espacios vectoriales. Como tal vez te imaginarás, la transformación transpuesta tendrá como matriz a la matriz transpuesta de la transformación original.

Esta intuición nos dice que hay que tener cuidado. Supongamos que estamos trabajando sobre un campo F. Si tenemos espacios vectoriales V de dimensión n, W de dimensión m y una tranformación lineal T:V\to W, recordemos que, tras elegir bases, T está representada por una matriz A en M_{m,n}(F), es decir, con m filas y n columnas.

Pero la matriz transpuesta ^t A es de n filas y m columnas, así que típicamente no representará a una transformación de V a W, pues las dimensiones no necesariamente coinciden. Podríamos intentar construir una transformación de W a V para que las dimensiones coincidan, pero resulta que esto no es «tan natural», por razones en las que no profundizaremos.

Lo que sí resulta muy natural y fácil de definir es una transformación de W^\ast a V^\ast, lo cual tendrá sentido pues ya probamos que \dim W^\ast = \dim W y \dim V^\ast = \dim V, así que será representada por una matriz en M_{n,m}. Es un poco más difícil conceptualmente, pero las consecuencias matemáticas son más bonitas y útiles. Sin decir más, comenzamos con la teoría.

Definición y ejemplo de transformación transpuesta

Para definir «transformación transpuesta», le hacemos como sigue.

Definición. Sean V y W espacios vectoriales sobre un campo F y T:V\to W una transformación lineal. Definimos la transformación transpuesta de T, como la transformación ^tT:W^\ast \to V^\ast tal que a cada forma lineal l en W^\ast la manda a la forma lineal ^tT(l) en V^\ast para la cual

    \[(^tT(l))(v)=l(T(v)).\]

Otra forma de escribir a la definición es mediante la notación de emparejamiento canónico:

    \[\langle ^tT(l),v\rangle=\langle l, T(v)\rangle.\]

Veamos un ejemplo para entender mejor la definición.

Ejemplo. Considera a V=M_{2}(\mathbb{R}) y W=\mathbb{R}^2. Considera la transformación lineal T:V\to W dada por

    \[T\begin{pmatrix} a& b\\ c&d\end{pmatrix}=(a+b,c+d).\]

La transformación ^t T va a mandar a una forma lineal l de W a una forma lineal ^tT(l) de V. Las formas lineales l en W se ven de la siguiente forma

    \[l(x,y)=rx+sy.\]

La forma lineal ^tT(l) en V debe satisfacer que ^tT(l)=l\circ T. En otras palabras, para cualquier matriz \begin{pmatrix} a& b\\ c&d\end{pmatrix} se debe tener

    \begin{align*}(^t T(l)) \begin{pmatrix} a& b\\ c&d\end{pmatrix} &= l(a+b,c+d)\\&=r(a+b)+s(c+d)\\&=ra+rb+sc+sd.\end{align*}

Si tomamos la base canónica E_{11}, E_{12}, E_{21}, E_{22} de V y la base canónica e_1,e_2 de W, observa que la transformación T tiene como matriz asociada a la matriz

    \[\begin{pmatrix} 1 & 1 & 0 & 0\\ 0 & 0 & 1 & 1\end{pmatrix}\]

(recuerda que se obtiene poniendo como columnas a los vectores coordenada de las imágenes de la base).

Por otro lado, los vectores de la base dual e_1^\ast y e_2^\ast «leen las coordenadas», de modo que e_1^\ast(x,y)=x y e_2^\ast(x,y)=y. Por lo que vimos arriba, (^t T)(e_1) es entonces la forma lineal a+b y (^t T)(e_2) es la forma lineal c+d. En términos de la base dual en W^\ast, estos son E_{11}^\ast + E_{12}^\ast y E_{21}^\ast+ E_{22}^\ast respectivamente. De esta forma, la transformación ^t T tiene matriz asociada

    \[\begin{pmatrix}1&0\\1&0\\0&1\\0&1\end{pmatrix}.\]

\square

Nota que en el ejemplo la transformación transpuesta tiene como matriz a la matriz transpuesta de la transformación original. Esto es algo que queremos que pase siempre, y más abajo lo demostramos.

Propiedades básicas de transformación transpuesta

Observa que la definición no necesita que V y W sean de dimensión finita. A continuación enunciamos y probamos algunos resultados que se valen también en el contexto de dimensión infinita.

Teorema 1. Tomemos V,W,Z espacios vectoriales sobre un campo F y c en F. Sean T_1,T_2: V \to W transformaciones lineales. Sea T_3:W\to Z una transformación lineal. Se cumple todo lo siguiente:

  1. ^tT_1 es una transformación lineal.
  2. ^t(T_1+cT_2)= {^tT_1} + c^tT_2.
  3. ^t(T_3\circ T_1) = {^t T_1} \circ ^t T_3.
  4. Si V=W y T_1 es invertible, entonces ^t T_1 también lo es y (^t T_1)^{-1}= {^t (T_1^{-1})}.

Para tener un poco más de intuición, observa cómo estas propiedades son análogas a las de transposición para matrices.

Demostración. Las partes 1 y 2 se demuestran usando cuidadosamente las definiciones. Haremos la demostración de 1 y la demostración de 2 queda como tarea moral. Para probar 1, necesitamos probar que ^tT_1:W^\ast \to V^\ast es lineal, así que tomemos l_1, l_2 en W^\ast y a un escalar en F. Tenemos que demostrar que

    \[^tT_1(l_1+a l_2)=  {^tT_1(l_1)}+ a  ^tT_1(l_2).\]

Ésta es una igualdad de formas lineales en V^\ast, y para mostrar su validez tenemos que mostrar que se vale en cada v\in V. Por un lado,

    \begin{align*} ^tT_1(l_1+a l_2)(v) &= (l_1+a l_2)(T_1(v))\\&=l_1(T_1(v))+a l_2(T_1(v)).\end{align*}

Por otro lado,

    \begin{align*} (^tT_1(l_1)+ a  ^tT_1(l_2))(v)&= {^tT_1(l_1)(v)}+ a  ^tT_1(l_2)(v)\\&= l_1(T_1(v)) + a  l_2(T_1(v)).\end{align*}

En ambos casos obtenemos el mismo resultado, así que ^tT_1(l_1+a l_2) y ^tT_1(l_1)+ a  ^tT_1(l_2) son iguales, mostrando que ^t T_1 es lineal.

Pasemos a la parte 3. La igualdad ^t(T_3\circ T_1) = {^t T_1} \circ ^t T_2 es una igualdad de transformaciones de Z^\ast a V^\ast. Para verificar su veracidad, hay que ver que son iguales en cada elemento en su dominio. Tomemos entonces una forma lineal l en Z^\ast. Queremos verificar la veracidad de

    \[^t(T_3\circ T_1)(l) = (^t T_1 \circ ^t T_2)(l),\]

que es una igualdad de formas lineales en V^\ast, de modo que tenemos que verificarla para cada v en V. Por un lado,

    \begin{align*} ^t(T_3\circ T_1)(l)(v)&=l((T_3\circ T_1)(v))\\&=l(T_3(T_1(v))),\end{align*}

Por otro,

    \begin{align*}(^t T_1 \circ ^t T_3)(l)(v)&=(^tT_1(^t T_3 (l)))(v)\\&=(^t T_3 (l))(T_1(v))\\&=l(T_3(T_1(v))).\end{align*}

En ambos casos obtenemos el mismo resultado.

Para la parte 4 basta notar que si V=W y T_1 es invertible, entonces tiene una inversa S:V\to V, y por la parte 3 tenemos que

    \[^t S\circ ^t T_1 = {^t(T_1\circ S)} = {^t \text{Id}_V} = \text{Id}_{V^\ast},\]

mostrando que ^t T_1 tiene inversa S. Observa que estamos usando que la transpuesta de la transformación identidad es la identidad. Esto no lo hemos probado, pero lo puedes verificar como tarea moral.

\square

La matriz transpuesta es la matriz de la transformación transpuesta

Cuando estamos trabajando en espacios de dimensión finita, podemos mostrar que la matriz que le toca a la transformación transpuesta es precisamente la transpuesta de la matriz que le toca a la transformación original. Hacemos esto más preciso en el siguiente resultado.

Teorema 2. Sea T:V\to W una transformación lineal entre espacios de dimensión finita y B y B' bases de V y W respectivamente. Si A es la matriz de T con respecto a B y B', entonces ^t A es la matriz de la transformación ^t T:W^\ast \to V^\ast con respecto a las bases duales B'^\ast y B^\ast.

Demostración. Necesitamos definir algo de notación. Llamemos n=\dim V, m=\dim W, B=\{b_1,\ldots, b_n\}, B'=\{c_1,\ldots, c_m\} y A=[a_{ij}]. Recordemos que la matriz A está hecha por las coordenadas de las imágenes de la base B en términos de la base B', es decir, que por definición tenemos que para toda j=1,\ldots, n:

(1)   \begin{equation*}T(b_j)=\sum_{i=1}^{m} a_{ij} c_i.\end{equation*}

La transformación ^t T:W^\ast \to V^\ast va de un espacio de dimensión m a uno de dimensión n, así que en las bases B'^\ast y B^\ast se puede expresar como una matriz de n filas y m columnas. Afirmamos que ésta es la matriz ^t A. Para ello, basta mostrar que las coordenadas de las imágenes de la base B'^\ast en términos de la base B^\ast están en las filas de A, es decir, que para todo i=1, \ldots, m tenemos que

    \[^tT(c^\ast_i)=\sum_{j=1}^{n} a_{ij} b_j^\ast.\]

La anterior es una igualdad de formas lineales en V^\ast, de modo que para ser cierta tiene que ser cierta evaluada en todo v en V. Pero por linealidad, basta que sea cierta para todo b_j en la base B. Por un lado, usando (1),

    \begin{align*}^tT(c^\ast_i)(b_j)&=c^\ast_i(T(b_j))\\&=c^\ast_i \left(\sum_{k=1}^{m} a_{kj} c_i\right)\\&=\sum_{k=1}^{m} a_{kj} c^\ast_i(c_k)\\&=a_{ij},\end{align*}

en donde estamos usando que por definición de base dual c_i^\ast (c_i)= 1 y c_j^\ast (c_i)=0 si i\neq j. Por otro lado,

    \begin{align*}\left(\sum_{k=1}^{n} a_{ik} b_k^\ast\right)(b_j)&= \sum_{k=1}^{n} a_{ik} b_k^\ast(b_j)\\&=a_{ij},\end{align*}

en donde estamos usando la definición de base dual para B.

Con esto concluimos la igualdad

    \[^tT(c^\ast_i)=\sum_{j=1}^{n} a_{ij} b_j^\ast,\]

que muestra que podemos leer las coordenadas de las evaluaciones de ^t T en B'^\ast en términos de la base B^\ast en las filas de A, por lo tanto podemos leerlas en las columnas de ^t A. Esto muestra que ^t A es la matriz correspondiente a esta transformación en términos de las bases duales.

\square

Kernel e imagen de la transformación transpuesta

Finalmente, el siguiente resultado nos habla acerca de cómo están relacionadas las transformaciones transpuestas y la ortogonalidad.

Teorema 3. Sea T:V\to W una transformación lineal entre espacios vectoriales de dimensión finita. Entonces

    \[\ker (^t T) = (\Ima (T))^\bot,\quad \ker (T)=(\Ima (^t T))^\bot\]

y

    \[\Ima (^t T) = (\ker(T))^\bot\,\quad \Ima (T)=(\ker(^t T))^\bot.\]

Demostración. Demostraremos la igualdad \ker (^t T) = (\Ima (T))^\bot. Notemos que l \in \ker(^t T) si y sólo si (^t T)(l)=0, lo cual sucede si y sólo si l\circ T = 0. Pero esto último sucede si y sólo si para todo v en V se tiene que l(T(v))=0, que en otras palabras quiere decir que l(w)=0 para todo w en \Ima (T). En resumen, l\in \ker(^t T) pasa si y sólo si l se anula en todo \Ima (T) es decir, si y sólo si está en (\Ima (T))^\bot.

El resto de las igualdades se demuestran de manera análoga, o alternativamente, usando la bidualidad canónica. Es un buen ejercicio hacerlo y se deja como tarea moral.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Muestra que la transpuesta de la transformación lineal T:\mathbb{R}^2\to \mathbb{R}^2 dada por T(x,y)=T(7x+8y,6x+7y) es invertible. Encuentra a su transpuesta y a la inversa de la transpuesta explícitamente.
  • Muestra la parte 2 del Teorema 1.
  • Muestra que la transpuesta de la transformación identidad es la identidad.
  • Demuestra el resto de las igualdades del Teorema 3.
  • Encuentra la transpuesta de la transformación traza que va de M_n(\mathbb{R}) a los reales.