Archivo de la etiqueta: matriz transpuesta

Geometría Analítica I: Matrices y funciones lineales

Introducción

En la entrada anterior vimos funciones lineales, un concepto fundamental y que sin él no podríamos definir formalmente al conjunto de las matrices en $\mathbb{R}^n$. Requerimos ver cómo los conceptos de función lineal y el de matriz se entrelazan; para comprender porqué a menudo se trabaja más con matrices asociadas a una función lineal cuando hablamos de transformaciones.

Matrices

Previo a la definición de nuestro interés en esta sección debemos recordarles quiénes son lo vectores canónicos de $\mathbb{R}^n$, ya que vamos a trabajar con ellos en esta entrada. Los vectores canónicos son aquellos formados por sólo una entrada igual a 1 y el resto de entradas son todas cero. Se denotan por $e_i$, donde $i=\{1,2,\cdots,n\}$ y el subíndice $i$ nos indica la posición de la entrada con 1.

Ejemplo. Si nos encontramos en $\mathbb{R}^3$, sus vectores canónicos son:

\begin{align*}
e_{1}&=(1,0,0),& e_{2}&=(0,1,0),& e_{3}&=(0,0,1).
\end{align*}

A continuación tomaremos una función lineal $f : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, donde $f(e_{1})=(4,3)$ y $f(e_{2})=(-1,2)$. Entonces $f$ se escribe como:

\begin{align*}
f(x,y) &= x(4,3) + y(-1,2)\\
&= (4x – y, 3x+2).\\
\end{align*}

Vemos que hay una clara desventaja en la forma en que representamos a $f$, porque podemos confundirnos al ordenar y separar comas. Si ahora consideramos a los vectores como columnas en lugar de filas, el reordenamiento será de la siguiente manera:

\[ f \left(\begin{array}{c}
x\\
y
\end{array} \right) = x \left(\begin{array}{c}
4\\
3
\end{array} \right) + y \left(\begin{array}{c}
-1\\
2
\end{array} \right) = \left(\begin{array}{c}
4x-y\\
3x+2y
\end{array} \right)\]

con lo cual, incluso ya no ocupamos las comas y el orden es más fácil. En consecuencia debemos definir esta notación.

Definición 1. Una matriz de orden o dimensión de $m \times n$ es una tabla con elementos con $m$ filas y $n$ columnas. Usualmente las matrices se representan con letras mayúsculas como $A, B, \cdots, etc$.

Definición 2. Un elemento o entrada de la matriz se designa mediante $a_{ij}$, donde el primer subíndice $i$ indica la fila en que se encuentra el elemento, mientras que el segundo subíndice $j$ es la columna en que lo encontramos.

Entonces una matriz de $m\times n$ es de la forma:

\[ A = \left(\begin{array}{cccc}
a_{11}&a_{12}&\cdots&a_{1n}\\
a_{21}&a_{22}&\cdots&a_{2n}\\
\vdots&\vdots&\ddots&\vdots\\
a_{m1}&a_{m2}&\cdots&a_{mn}
\end{array} \right).\]

Ejemplo. Como ejemplos de matrices tenemos a

\[ B= \left(\begin{array}{ccc}
2&3&4\\
6&-5&3\\
\end{array} \right), \hspace{1.5cm} C= \left(\begin{array}{ccc}
1&4&6\\
2&3&11\\
-7&4&8
\end{array} \right),\]

donde la matriz $B$ es de dimensión $2\times 3$, ya que tiene 2 filas y 3 columnas; mientras que $C$ es de dimensión $3\times 3$, con 3 filas y 3 columnas.

Deseamos que conozcan otra forma de definir a una matriz $A$ que nos será muy útil. A una matriz $A$ podemos verla como un conjunto ordenado de $n$ vectores en $\mathbb{R}^n$; esos vectores serán sus columnas, y entonces puede escribirse como:

\begin{equation*}
A = (u_1,u_2, \cdots, u_n),
\end{equation*}

donde

\[ u_i = \left(\begin{array}{c}
a_{1i}\\
a_{2i}\\
\vdots\\
a_{mi}
\end{array} \right) \in \mathbb{R}^m, \]

con $i=1,2,\cdots,n$.

Como escribiremos a los vectores en $\mathbb{R}^n$ como vectores columna y no como filas, entonces debemos tener otra notación que justifique dicho cambio.

Transpuesta de una matriz

Definición 3. La transpuesta de una matriz $A$ de dimensión $m \times n$ es una matriz $B$ de dimensión $n \times m$, que obtenemos después de intercambiar filas y columnas. De manera que los elementos cumplen

\begin{equation*}
b_{ij} = a_{ji},
\end{equation*}

donde $i=1,2,\cdots,m$ y $j=1,2,\cdots,n$. En general, se le denota a la transpuesta de $A$ por $A^T$.

Ejemplo. Vamos a escribir de nuevo las matrices del ejemplo anterior con sus respectivas transpuestas. Para la matriz $B$

\[ B= \left(\begin{array}{ccc}
2&3&4\\
6&-5&3\\
\end{array} \right),\]

su transpuesta $B^T$ es

\[ B^T = \left(\begin{array}{cc}
2&6\\
3&-5\\
4&3
\end{array} \right). \]

Y para la matriz $C$

\[ C= \left(\begin{array}{ccc}
1&4&6\\
2&3&11\\
-7&4&8
\end{array} \right),\]

su transpuesta $C^T$ es

\[C^T = \left(\begin{array}{ccc}
1&2&-7\\
4&3&4\\
6&11&8
\end{array} \right).\]

También nos falta definir otro concepto que nos será de utilidad con la notación que estamos construyendo.

Vectores columna

Definición 4. Un vector columna de orden $m$ es una ordenación de elementos en $m$ filas y que tiene una columna:

\[ a = \left(\begin{array}{c}
a_{1}\\
a_{2}\\
\vdots\\
a_{m}
\end{array} \right) \in \mathbb{R}^m, \]

Un vector fila de orden $n$ es una ordenación de elementos e $n$ columnas y que tiene una fila:

\begin{equation*}
c = (c_1,c_2, \cdots, c_n).
\end{equation*}

A este tipo de vectores como vemos, se les designa por una letra minúscula y de hecho la transpuesta de un vector fila es un vector columna y viceversa.

Entonces los vectores fila son los transpuestos de los vectores columna denotándolos por $x^T = (x_1,x_2, \cdots, x_n)$ o bien $x = (x_1,x_2, \cdots, x_n)^T$. Entonces, la notación que hasta ahora hemos presentado, la podemos ver reflejada con el siguiente ejemplo.

Ejemplo. Si tenemos que para $\mathbb{R}^2$ existen los dos vectores canónicos $e_1 = (1,0)$ y $e_2 = (0,1)$ y queremos representar los vectores como vectores columna, procedemos a escribir la notación de transpuesta previamente; es decir $e_1 = (1,0)^T$ y $e_2 = (0,1)^T$. Con ello podemos trabajar ahora los vectores como columnas:

\[ e_1= \left(\begin{array}{c}
1\\
0
\end{array} \right), \hspace{0.5cm} y \hspace{0.5cm} e_2 = \left(\begin{array}{c}
0\\
1
\end{array} \right).\]

Ahora tenemos las herramientas con las que podemos enlazar los conceptos de matriz con el de una función lineal; así que veamos a ver una definición muy importante para ello.

Matriz de una función lineal

Para continuar debemos observar que una matriz de tamaño $m\times n$ contiene la información de una función lineal de $\mathbb{R}^n$ en $\mathbb{R}^m$, invirtiendo el orden debido a la convención que existe debido al orden en que se realiza la composición de funciones.

Definición 5. A la matriz $A$ se le asocia la función lineal $f: \mathbb{R}^n \mapsto \mathbb{R}^m$ que manda al vector canónico $e_i \in \mathbb{R}^n$ en su i-ésima columna, es decir, $f(e_i) = u_i$, para $i=,2,\cdots,n$.

Ejemplo. Si recordamos a la función del inicio de esta entrada de $\mathbb{R}^2$ en $\mathbb{R}^2$ donde

\[ f(x) = \left(\begin{array}{c}
4x-y\\
3x+2y
\end{array} \right),\]

bueno pues a la función lineal de $\mathbb{R}^2$ en $\mathbb{R}^2$ se le asocia la matriz

\[ f(x) = \left(\begin{array}{cc}
4&-1\\
3&2
\end{array} \right).\]

Observemos bien cómo la variable $x$ está asociada a la primer columna y la variable $y$ a la segunda columna.

Tarea moral

  1. Para el primer ejercicio vamos a dar una definición:

Definición. La suma de dos matrices $A$, $B$, ambas de dimensión $m \times n$, se llama matriz suma de $A$ y $B$ y se denota $C=A+B$ a la matriz $C$ de dimensión $m \times n$ tal que

\begin{equation*}
a_{ij} = a_{ij} + b_{ij}, \hspace{0.3cm} i=1,2,\cdots,m; \hspace{0.2cm} j=1,2,\cdots,n.
\end{equation*}

Calcular la suma de $A+B$, $B+C$ y $A+C$ con las matrices:

\[ A = \left(\begin{array}{cc}
3&8\\
4&-2
\end{array} \right), \hspace{1.5cm} B= \left(\begin{array}{cc}
1&-1\\
3&-2
\end{array} \right), \hspace{1.5cm} C= \left(\begin{array}{cc}
2&-5\\
6&4
\end{array} \right).\]

2. De las siguientes matrices , calcular sus transpuestas:

\[ D = \left(\begin{array}{cc}
1&3\\
5&7\\
9&11\\
-1&4
\end{array} \right), \hspace{1.5cm} B= \left(\begin{array}{c}
-1\\
5\\
3\\
2
\end{array} \right), \hspace{1.5cm} C= \left(\begin{array}{ccc}
1&3&-5\\
4&7&-9
\end{array} \right). \]

3. De la siguiente función $g: \mathbb{R}^2 \longrightarrow \mathbb{R}^2$ dada por:

\[ g(x) = \left(\begin{array}{c}
6x-8y\\
-2x+81y
\end{array} \right),\]

¿Cuál es la matriz asociada a la función lineal?.

Más adelante

Ahora que definimos a un vector y a una matriz de una función lineal, podemos proceder a definir su producto. En la siguiente entrada primero veremos cómo se realiza el producto de una matriz con un vector y después definir el producto de matrices cualesquiera. Además se darán cuenta de la fuerte relación que hay entre la composición de funciones y el producto de funciones.

Enlaces relacionados

  • Página principal del curso:
  • Entrada anterior del curso:
  • Siguiente entrada del curso:

Álgebra Lineal I: Problemas de transpuesta de matriz y matrices de bloque

Introducción

En esta entrada ejercitaremos los conceptos de matriz transpuesta y matriz de bloque mediante ejercicios resueltos. Además, para los últimos tres problemas definiremos un concepto que aunque no se estudia a fondo en este curso, aparece en muchas áreas de las matemáticas y de la física: el de producto tensorial.

Problemas resueltos

Problema. Sea $A\in M_n(\mathbb{R}$) una matriz con una única entrada distinta de cero en cada renglón y columna, dicha entrada es igual a $1$ ó $-1$. Demuestra que $A$ es una matriz ortogonal.

Solución. Sea $A=[a_{ij}]$. Queremos ver que $A^{-1}=$ $^tA $. Sean $i,j\in \{1, 2, \dots , n\}$. Entonces la entrada $(i,j)$-ésima de $A \ ^t A$ es

\begin{align*}
(A\ {^tA})_{ij}=\displaystyle\sum_{k=1}^na_{ik}a_{jk}.
\end{align*}

Supongamos que $a_{ik}a_{jk}$ es distinto de cero para algún $k\in \{1,2,\dots n\}$, por tanto $a_{ik}$ y $a_{jk}$ son distintos de cero.
Si sucediera que $i\neq j$, entonces $A$ tiene al menos dos entradas distintas de cero en la columna $k$, pero esto es imposible. Así, si $i\neq j$, entonces $a_{ik}a_{jk}=0$ para todo $k\in\{1,2,\dots n\}$ y por consiguiente la $(i,j)-$ésima entrada de $A\ ^tA$ es 0.

Por otro lado, si $i=j$, entonces
\begin{align*}
(A\ ^tA)_{ij}=\displaystyle\sum_{k=1}^na_{ik}^2.
\end{align*}

Como por hipótesis se tiene que todas las entradas del $i$-esimo renglón de $A$ son todas $0$ salvo una que es $1$ ó $-1$, entonces $\displaystyle\sum_{k=1}^na_{ik}^2=1$ y así $(A\ ^tA)_{ij}=1$ cuando $i=j$. Concluimos que $A\ ^tA=I_n$.
Mediante un argumento análogo se ve que $^tA A = I_n.$

$\square$

Problema. a) Sea $A\in M_n(\mathbb{R})$ una matriz tal que $^tA \cdot A =O_n$. Demuestra que $A=O_n$.
b) ¿El inciso a) seguirá siendo cierto si reemplazamos $\mathbb{R}$ por $\mathbb{C}$?

Solución. a) Sea $A=[A_{ij}]$. Por la regla del producto de matrices se tiene que la $(i,i)$-ésima entrada de $^tA\cdot A$ es

\begin{align*}
(^tA\cdot A )_{ii} &= \displaystyle\sum_{k=1}^n (^tA)_{ik}A_{ki} \\ &=
\displaystyle\sum_{k=1}^n A_{ki}^2.
\end{align*}

Como $^tA\cdot A=O_n$, concluimos que para toda $i\in\{1,2,\dots,n\}$ se tiene que

\begin{align*}
\displaystyle\sum_{k=1}^n A_{ki}^2=0.
\end{align*}

Como cada $A_{ki}$ es un número real, al elevarlo al cuadrado obtenemos números no negativos. De lo anterior se sigue que $A_{ki}=0$ para toda $k\in \{1,2\dots ,n\}$. Como la $i$ fue tomada de manera arbitraria, concluimos que $A=O_n.$
b) El resultado no necesariamente es cierto si cambiamos el campo de los reales por el campo de los complejos. Busquemos una matriz simétrica $A\in M_2(\mathbb{C})$ tal que $^tA\cdot A= O_2$, pero como $A$ es simétrica, lo anterior solamente es $A^2=O_2$ y además se puede escribir como

\begin{align*}
A=\begin{pmatrix}
a & b\\
b & d\end{pmatrix}
\end{align*}

para algunos números complejos $a,b$ y $d$. Ahora

\begin{align*}
A^2 &= \begin{pmatrix}
a & b\\
b & d\end{pmatrix} \cdot \begin{pmatrix}
a & b\\
b & d\end{pmatrix} \\
&=\begin{pmatrix}
a^2 +b^2 & b(a+d)\\
b(a+d) & b^2+ d^2\end{pmatrix}.
\end{align*}

Así que buscamos números complejos $a,b,d$ con al menos uno de ellos distinto de cero y tales que

\begin{align*}
a^2+b^2=0, \hspace{2mm} b(a+d)=0, \hspace{2mm} b^2+d^2=0.
\end{align*}

Basta con asegurar que $a+d=0$ y $a^2+b^2=0$, para lo cual tomamos $a=i, b=1, d=-i$ .

$\square$

Producto tensorial

A continuación definiremos el producto tensorial. Es importante mencionar que esto es meramente para ejemplificar la teoría que se ha visto hasta ahora, por lo que no se profundizará en este tema.

Si $A=[a_{ij}]\in M_{m_1,n_1}(F)$ y $B\in M_{m_2,n_2}(F)$ son matrices, entonces definimos el producto de Kronecker o producto tensorial de $A$ y $B$ como la matriz de bloque $A\otimes B\in M_{m_1m_2,n_1n_2}(F)$ definida por

\begin{align*}
A\otimes B = \begin{pmatrix}
a_{11}B & a_{12}B & \dots & a_{1,n_1}B\\
a_{21}B & a_{22}B & \dots & a_{2,n_1}B\\
\vdots & \vdots & \vdots & \vdots\\
a_{m_1,1}B & a_{m_1,2}B & \dots & a_{m_1,n_1}B \end{pmatrix}.
\end{align*}

Problema. Calcula el producto tensorial de las matrices

\begin{align*}
A=\begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix}, \hspace{4mm} B=\begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}.
\end{align*}

Solución. Usamos directamente la definición de producto tensorial

\begin{align*}
A\otimes B=\begin{pmatrix}
0 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 1 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}\\
1\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}\\
0\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 1\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}
\end{pmatrix}
\end{align*}

\begin{align*}
= \begin{pmatrix}
0 & 0 & 2 & 1 & 0 & 0\\
0 & 0 & 1 & -1 & 0 & 0\\
2 & 1 & 0 & 0 & 0 & 0\\
1 & -1 & 0 & 0 & 0 & 0\\
0 & 0 & 0 & 0 & 2 & 1\\
0 & 0 & 0 & 0 & 1 & -1\end{pmatrix}
\end{align*}

$\square$

Problema. ¿El producto tensorial es conmutativo?

Solución. En general, el producto tensorial, no es conmutativo. Sean $A$ y $B$ como en el problema anterior. Entonces

\begin{align*}
B\otimes A = \begin{pmatrix}
2\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix} & 1\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix}\\
1\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix} & -1\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix}
\end{pmatrix}
\end{align*}

\begin{align*}
=\begin{pmatrix}
0 & 2 & 0 & 0 & 1 & 0\\
2 & 0 & 0 & 1 & 0 & 0\\
0 & 0 & 2 & 0 & 0 & 1\\
0 & 1 & 0 & 0 & -1 & 0\\
1 & 0 & 0 & -1 & 0 & 0\\
0 & 0 & 1 & 0 & 0 & -1\end{pmatrix}.
\end{align*}

Comparando con lo obtenido en el problema anterior, ser verifica que el producto tensorial no es conmutativo.

$\square$

Problema. Verifica que $I_m\otimes I_n = I_{mn}.$

Solución. Por definición sabemos que $I_m\otimes I_n\in M_{mn}(F)$. Ahora veamos que

\begin{align*}
\begin{pmatrix}
1\cdot I_n & 0\cdot I_n & \dots & 0\cdot I_n\\
0\cdot I_n & 1 \cdot I_n & \dots & 0\cdot I_n\\
\vdots & \vdots &\ddots & \vdots\\
0\cdot I_n & 0\cdot I_n & \dots & 1\cdot I_n\end{pmatrix}
= I_{mn}.
\end{align*}

$\square$

Entradas relacionadas

Álgebra Lineal I: Transposición de matrices, matrices simétricas y antisimétricas

Introducción

En esta sección introducimos el concepto de transpuesta de una matriz, que consiste en solo ‘voltear’ una matriz. De ahí sale la operación de transposición de matrices. Si bien esta operación es sencilla, las aplicaciones son vastas, especialmente cuando veamos el concepto de espacio dual. Veremos propiedades básicas de esta operación y cómo se relaciona con suma, producto e inversa de matrices.

Luego definimos tres tipos de matrices importantes, las simétricas, antisimétricas y ortogonales. Estos tipos de matrices nos permiten entender un poco mejor los espacios de matrices, que son más grandes, y nos dan mucha información geométrica sobre nuestro espacio de trabajo. Profundizaremos en esto en la tercera unidad.

Transposición de matrices

Sea $A\in M_{m,n}(F)$ una matriz. Intuitivamente, la transpuesta de $A$ se obtiene al trazar una línea de «pendiente» $-1$ desde la entrada $(1,1)$ a lo largo de la diagonal y reflejar la matriz con respecto a esta línea. Daremos unos ejemplos para entender esto más adelante. Primero damos una definición formal.

Definición. La transpuesta de $A\in M_{m,n}(F)$, denotada por $^{t} A$ se obtiene intercambiando los renglones y las columnas de $A$. Consecuentemente $^t A$ es una matriz de tamaño $n\times m$, es decir $^t A \in M_{n,m}(F)$. Dicho de otra manera, si $A=[a_{ij}]$, entonces $^t A=[a_{ji}]$.

Observación. En otras fuentes es posible que encuentres una notación un poco diferente para matriz transpuesta. Algunas veces se pone el superíndice $t$ arriba a la derecha, así: $A^t$. Otras veces se usa una $T$ mayúscula así: $A^T$. Nosotros usaremos el superíndice a la izquierda.

Ejemplo. La transpuesta de

\begin{align*}
A= \begin{pmatrix} 1& 2 & 3\\ 4 & 5 & 6\\ 7 & 8 & 9 \end{pmatrix}
\end{align*}

es

\begin{align*}
^t A= \begin{pmatrix} 1 & 4 & 7 \\ 2 & 5 & 8 \\ 3 & 6 & 9 \end{pmatrix}.
\end{align*}

En general, la transpuesta de una matriz cuadrada en $M_n(F)$ también es cuadrada y está en $M_n(F)$.

$\square$

Es claro también que $^t I_n= I_n$.

Ejemplo. La transpuesta de

\begin{align*} A= \begin{pmatrix} 0 & 1 & 0 & 3\\ 4 & 7 & 2 & 0\end{pmatrix} \end{align*}

es

\begin{align*}
^t A= \begin{pmatrix} 0 &4\\ 1 & 7\\ 0 & 2\\ 3 & 0 \end{pmatrix}.
\end{align*}

$\square$

Propiedades de transposición de matrices

Hasta ahora hemos hablado de sumas de matrices, multiplicación por escalar y multiplicación de matrices. Una forma frecuente de trabajar con álgebra es preguntarse cómo una nueva definición interactúa con lo que ya hemos definido anteriormente.

Resumimos las propiedades de la transposición de matrices $A\mapsto {^t A}$ y cómo se relaciona con operaciones anteriores en el siguiente resultado.

Proposición. La operación de transponer satisface:

  1. $^t\left( ^t A\right) = A$ para toda $A\in M_{m,n}(F)$.
  2. $^t\left ( A+B\right) = {^t A} + {^t B}$ para todas $A,B\in M_{m,n}(F)$.
  3. $ ^t\left( cA\right)= c {^t A}$ si $c\in F$ es un escalar y $A\in M_{m,n}(F)$.
  4. ${}^t\left( AB\right)=\ {^tB} \, {^t A}$ si $A\in M_{m,n}(F)$ y $B\in M_{n,p}(F)$.
  5. ${}^t \left(A^k\right)= \left(^t A\right)^k$ si $A\in M_n(F)$ y $k$ es un entero positivo.
  6. Si $A\in M_n(F)$ es invertible, entonces $^t A$ también es invertible y
    \begin{align*}
    \left(^t A\right)^{-1}= {^t \left(A^{-1}\right)}.
    \end{align*}

Demostración: Las primeras tres propiedades son consecuencia casi inmediata de la definición y las dejamos como tarea moral. Una sugerencia es demostrarlas usando la notación de entradas.

Comencemos pues demostrando la cuarta propiedad. Primero, observamos que $^t B\in M_{p,n}(F)$ y $^t A\in M_{n,m}(F)$ por lo que el producto $^t B \, {^t A}$ tiene sentido. Luego si $A=[a_{ij}]$ y $B=[b_{jk}]$ tenemos por la regla del producto que

\begin{align*}
^t(AB)_{ki}&= (AB)_{ik}\\
& = \sum_{j=1}^{n} a_{ij} b_{jk}\\
&=\sum_{j=1}^{n} \left(^t B\right)_{kj} \left(^t A\right)_{ji}\\
& = \left( ^t B\, {^t A}\right)_{ki}.
\end{align*}

Así $^t (AB)= \ ^t B \,{^t A}$.

La quinta propiedad la demostramos por inducción sobre $k$. El caso base $k=1$ es claro. Asumamos entonces que se cumple para algún $k$, y verifiquemos que la propiedad sigue siendo cierta para $k+1$.

\begin{align*}
^t \left( A^{k+1}\right)&= {^t \left( A^{k} \cdot A\right)} \\
&=\ ^t A\ ^t\left(A^{k}\right) \\
&=\ ^t A \cdot \left(^t A\right)^{k}\\
&= \left(^t A\right)^{k+1}.
\end{align*}

Donde la segunda igualdad se debe a la cuarta propiedad y la tercera a la hipótesis de inducción. Por inducción, queda probado el resultado.

Finalmente la sexta propiedad se sigue de la cuarta, dado que

\begin{align*}
^t A \cdot \ ^t\left(A^{-1}\right)= \ ^t\left( A^{-1} \cdot A\right) = \ ^t I_n =I_n.\end{align*}

La igualdad simétrica se verifica de la misma manera, y queda demostrada la última propiedad.

$\square$

Observación. La transposición de matrices «voltea» el producto de matrices. Es decir, si en el producto $AB$ aparece $A$ a la izquierda y $B$ a la derecha, al transponer obtenemos $^tB\, {^tA}$, con $^tB$ a la izquierda y $^tA$ a la derecha.

Observación. Por la proposición anterior, la transposición de matrices preserva la invertibilidad de las matrices y así lo podemos ver como un mapeo $^t : GL_n(F)\to GL_n(F)$.

Problema. Sea $X\in F^n$ un vector con coordenadas $x_1, \dots, x_n$ considerado como una matriz en $M_{n,1}(F)$. Demuestre que para cualquier matriz $A\in M_n(F)$ se tiene

\begin{align*}
^t X \left( ^t A \cdot A\right) X= \sum_{i=1}^{n} \left( a_{i1} x_1+ a_{i2} x_2 +\dots + a_{in} x_n\right)^2. \end{align*}

Solución: Primero, usamos la proposición para transformar el lado izquierdo de la igualdad buscada:

\begin{align*}
^t X \left( ^t A\cdot A\right) X=\ ^tX\ ^t A A X=\ ^{t} \left( AX\right) \cdot AX.
\end{align*}

Luego nombrando $Y=AX$ tenemos que

\begin{align*}
Y=AX=\begin{pmatrix} a_{11} x_1+\dots + a_{1n} x_n\\ a_{21} x_1+\dots +a_{2n} x_n \\ \vdots \\ a_{n1} x_1+\dots +a_{nn} x_n \end{pmatrix} = \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n\end{pmatrix} .
\end{align*}

Así

\begin{align*}
^t Y \cdot Y= \begin{pmatrix} y_1 & y_2 & \dots & y_n \end{pmatrix} \cdot \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix}
\end{align*}

y usando la regla del producto para matrices concluimos que esta última cantidad no es más que $y_1^2+\dots + y_n^2$. Finalmente, sustituyendo $y_i$ por su correspondiente $a_{i1} x_1 +\dots + a_{in} x_n$ obtenemos la igualdad buscada.

$\square$

Matrices simétricas, antisimétricas y ortogonales

En el álgebra lineal hay tres tipos de matrices muy importantes y relacionadas con la transposición de matrices. Todas ellas son matrices cuadradas.

  • Las matrices simétricas. Son aquellas matrices $A\in M_n (F)$ tales que $^t A=A$, equivalentemente $a_{ij}=a_{ji}$ para cualesquiera $1\leq i,j\leq n$. Más adelante veremos que son de fundamental importancia para la teoría de formas cuadráticas y espacios euclideanos (donde $F=\mathbb{R}$), y un cacho importante de nuestro curso se dedicará a estudiar sus propiedades. Por ejemplo todas las matrices simétricas de tamaños $2$ y $3$ son de la forma
    \begin{align*}
    \begin{pmatrix} a & b \\ b &c\end{pmatrix}, \hspace{1mm} a,b,c\in F\text{ y } \begin{pmatrix} a & b & c\\ b & d & e\\ c & e & f\end{pmatrix}, \hspace{1mm} a,b,c,d,e,f\in F.\end{align*}
  • Las matrices ortogonales. Estas son las matrices invertibles $A\in GL_n(F)$ que satisfacen $A^{-1}=\ ^{t}A$. Estas (como su nombre lo indica) tienen una interpretación geométrica muy importante, pues corresponden a isometrías de espacios euclideanos. También las estudiaremos a detalle más adelante.
  • Las matrices antisimétricas. Son matrices $A\in M_n(F)$ que cumplen con $A^{t}=-A$. Estas tienen que ver con formas alternantes, y cumplen $a_{ij}=-a_{ji}$. Si $F\in \{ \mathbb{Q}, \mathbb{R}, \mathbb{C}\}$, esta última condición nos implica que $a_{ii}=-a_{ii}$, de dónde $a_{ii}=0$. Entonces, si $F$ es alguno de estos las entradas en la diagonal son todas cero. Todas las matrices antisimétricas de tamaños $2$ y $3$ sobre el campo $\mathbb{C}$ se ven:
    \begin{align*}
    \begin{pmatrix} 0& a \\ -a &0\end{pmatrix}, \hspace{1mm} a\in \mathbb{C}\text{ y } \begin{pmatrix} 0 & a & b\\ -a & 0& c\\ -b & -c & 0\end{pmatrix}, \hspace{1mm} a,b,c\in \mathbb{C}.\end{align*}
    Sin embargo, si $F$ es por ejemplo $\mathbb{F}_2$, entonces la condición $2a_{ii}=0$ no nos aporta ninguna información nueva, ya que para todo elemento $x$ en $\mathbb{F}_2$, $2x=0$. De hecho, sobre campos de este estilo ¡no hay diferencia entre matrices simétricas y antisimétricas!

A continuación resumimos algunas propiedades iniciales de matrices simétricas y antisimétricas. La idea de las demostraciones es usar las propiedades de transposición de matrices.

Proposición. Todas las matrices en los enunciados siguientes son matrices cuadradas del mismo tamaño. Son ciertas:

  1. La suma de una matriz y su transpuesta es simétrica, la diferencia de una matriz y su transpuesta es antisimétrica.
  2. El producto de una matriz y su transpuesta es simétrica.
  3. Cualquier potencia de una matriz simétrica es simétrica.
  4. Cualquier potencia par de una matriz antisimétrica es simétrica, y cualquier potencia impar de una matriz antisimétrica es antisimétrica.
  5. Si $A$ es invertible y simétrica entonces $A^{-1}$ es simétrica.
  6. Si $A$ es invertible y antisimétrica, entonces $A^{-1}$ es antisimétrica.

Demostración:

  1. Si $A$ es una matriz, entonces $$
    ^t\left( A+\ ^{t}A\right)=\ ^t A + \ ^{t}\left(^{t}A\right) =\ ^{t}A+A= A+\ ^{t} A. $$ Es decir, $A+\ ^{t}A$ es igual a su transpuesta y por tanto es simétrica. El cálculo para verificar la antisimetría de $A-\ ^{t} A$ es similar.
  2. Queremos ver que $A ^{t}A$ es simétrica. Lo podemos hacer directamente $$^{t}\left( A ^{t} A\right) =\ ^{t}\left(^{t}A\right) ^{t} A= A ^{t}A,
    $$ lo que verifica la simetría de la matriz.
  3. Se sigue de la proposición anterior, pues si $A$ es simétrica
    \begin{align*}
    ^{t}\left(A^{n}\right)= \left( ^{t}A\right)^{n}= A^{n}.
    \end{align*}
  4. Hacemos el caso en el que la potencia es par y dejamos el otro como tarea moral, el razonamiento es análogo. Si $A$ es antisimétrica y $n=2k$ para algún $k$ entonces
    \begin{align*}
    ^{t}\left(A^{n}\right)= \left(^{t} A\right)^{n}= (-A)^{n}=(-1)^{2k} A^{n}=A^{n}.
    \end{align*} Aquí usamos que $(-1)^{2k}=1$.
  5. Si $A$ es simétrica, usando la proposición anterior tenemos que
    \begin{align*}
    ^{t}\left(A^{-1}\right)=\left(^t A\right)^{-1}= A^{-1}.
    \end{align*}
  6. Es análogo al inciso anterior.

$\square$

Algunos problemas

Acabamos la entrada con algunos problemas que servirán de práctica.

Problema. Describe las matrices simétricas $A\in M_n(F)$ que sean simultáneamente simétricas y triangulares superiores.

Solución: Sea $A=[a_{ij}]$ simétrica y triangular superior. Por definición $a_{ij}=0$ si $i>j$ por ser triangular superior, y $a_{ij}=a_{ji}$ por ser simétrica para cualesquiera $i,j\in \{1, \dots, n\}$. Así, si $i\neq j$ entonces $a_{ij}=0$, pues si $i<j$, entonces $0=a_{ji}=a_{ij}$. Se sigue que $A$ tiene que ser diagonal. Conversamente, es fácil verificar que cualquier matriz diagonal es simétrica y triangular superior. Es decir, la respuesta es precisamente las matrices diagonales.

$\square$

Problema. ¿Cuántas matrices simétricas hay en $M_n\left( \mathbb{F}_2\right)$?

Solución: Observamos que una matriz simétrica está determinada por las entradas que están sobre o por encima de la diagonal, pues sabemos que para llenar los otros espacios hay que reflejar estas entradas (de otra manera, se puede pensar como colorear solo un lado del papel y luego doblarlo). Conversamente, cada elección de suficientes números para llenar la diagonal y el área encima de ella determina una matriz simétrica.

Así, contemos cuántas entradas hay sobre o por encima de la diagonal: El primer renglón está enteramente por encima de la diagonal, lo que nos da $n$ entradas, luego el segundo renglón está, con excepción de una entrada, contenido en esta área superior, es decir tenemos $n-1$ entradas más. Al tercer renglón le quitamos dos entradas, al cuarto tres entradas y así sucesivamente hasta llegar al último renglón, donde la única entrada sobre o por encima de la diagonal es la última, es decir, una entrada que podemos escoger.

Sumando, tenemos

\begin{align*}
n+(n-1)+(n-2)+\dots +2+1=\frac{n(n+1)}{2}
\end{align*}

entradas que rellenar, y por tanto $\frac{n(n+1)}{2}$ elecciones de números que hacer. Ahora, ¿cuántos números podemos escoger? Al estar trabajando en $\mathbb{F}_2$, solo dos: $0$ ó $1$. Por un argumento combinatorio, concluimos que hay

\begin{align*}
2^{\frac{n(n+1)}{2}}
\end{align*}

matrices simétricas en $M_n\left(\mathbb{F}_2\right)$.

$\square$

Problema. Demuestra que toda matriz $A\in M_n(\mathbb{C})$ se puede escribir de manera única como $A=B+C$, con $B$ simétrica y $C$ antisimétrica.

Solución: Suponiendo que $A=B+C$ con $B$ simétrica y $C$ antisimétrica, obtenemos que

\begin{align*}
^t A=\ ^t(B+C)= \ ^t B + \ ^t C= B-C
\end{align*}

Así, resolviendo el sistema

\begin{align*}
\begin{cases}
A= B+C\\
^t A= B-C
\end{cases}
\end{align*}

obtenemos que

\begin{align*}
B=\frac{1}{2}\left( A+\ ^t A\right) \text{ y } C=\frac{1}{2}\left( A-\ ^{t} A\right).
\end{align*}

Así la elección de $B$ y $C$ es única, pues están totalmente determinadas. Además, definiendo $B$ y $C$ como en las igualdades de arriba podemos ver que cumplen las condiciones buscadas (probando así existencia).

$\square$

Tarea moral

  • Escribe, de manera explícita, todas las matrices simétricas, antisimétricas y ortogonales de $M_2(\mathbb{F}_2)$.
  • La siguiente matriz es una matriz antisimétrica en $M_4(\mathbb{R})$, pero algunas de sus entradas se borraron. ¿Cuáles son estas entradas? $$\begin{pmatrix} 0 & 2 & & 3 \\ & 0 & -4 & \\ 1 & 4 & & \frac{1}{2} \\ & -\frac{2}{3} & & 0 \end{pmatrix}.$$
  • Demuestra las tres primeras propiedades de la proposición de propiedades de transposición de matrices.
  • ¿Será cierto que las matrices de $M_n(F)$ que son simultáneamente invertibles y simétricas forman un subgrupo de $GL_n(F)$? En otras palabras, ¿es cierto que el producto de dos matrices invertibles y simétricas es una matriz invertible y simétrica? ¿Que puedes en este sentido de las matrices ortogonales? ¿De las antisimétricas?
  • Demuestra que cualquier potencia impar de una matriz antisimétrica es antisimétrica
  • Demuestra que en $M_n(\mathbb{F}_2)$, una matriz es simétrica si y sólo si es antisimétrica.

Más adelante…

La transposición de matrices es una operación importante, que más adelante veremos que está relacionada con la dualidad. Las matrices simétricas y antisimétricas son también muy importantes en álgebra lineal. De hecho, el teorema principal del curso (el teorema espectral) es un resultado acerca de matrices simétricas con entradas reales. Por el momento le pondremos una pausa al estudio de estas matrices, pero más adelante las retomaremos.

En la siguiente clase hablaremos de otra clase de matrices: las de bloque. Estas nos ayudarán a enunciar más cómodamente algunos resultados y procedimientos, como el uso de la reducción gaussiana para resolver sistemas de ecuaciones.

Entradas relacionadas

Álgebra Lineal I: Eigenvalores y eigenvectores de transformaciones y matrices

Introducción

En entradas anteriores ya establecimos los fundamentos para hablar de determinantes. Dimos su definición para el caso de vectores y el caso de matrices/transformaciones lineales. Enunciamos y demostramos varias de sus propiedades. Luego dedicamos toda una entrada a ver formas de calcularlos. Finalmente, vimos que nos pueden ayudar para entender mucho mejor a los sistemas de ecuaciones lineales. Entender bien estos conceptos te será de gran utilidad en tu formación matemática.

Además, los determinantes son un paso natural en uno de nuestros objetivos del curso: entender por qué las matrices simétricas reales son diagonalizables. Recuerda que una matriz $A$ en $M_n(F)$ es diagonalizable si existe una matriz diagonal $D$ y una matriz invertible $P$, ambas en $M_n(F)$, de modo que $$A=P^{-1}DP.$$

Lo que haremos en esta entrada es hablar de esos valores que aparecen en la matriz diagonal $D$ en el caso de que $A$ sea diagonalizable. Resulta que estos valores están relacionados con una pregunta muy natural en términos de lo que le hace la matriz a ciertos vectores. Y mejor aún, como veremos, hay un método para encontrar estos valores por medio de un determinante. Vamos poco a poco.

Eigenvalores y eigenvectores para transformaciones lineales

Sea $V$ un espacio vectorial sobre un campo $F$ y sea $T:V\to V$ una transformación lineal. Para fijar ideas, pensemos en $\mathbb{R}^n$ por el momento. A veces, $T$ simplemente la cambia la magnitud a un vector, sin cambiarle la dirección. Es decir, hay algunos vectores para los cuales $T$ se comporta simplemente como la multiplicación por un escalar. En símbolos, hay vectores $v$ tales que existe un valor $\lambda$ tal que $T(v)=\lambda v$.

Por supuesto, al vector $0$ siempre le pasa esto, pues como $T$ es lineal, se tiene que $T(0)=0=\lambda\cdot 0$ para cualquier escalar $\lambda$. Resulta que cuando se estudian estos vectores y escalares especiales, lo más conveniente es quitar al vector $0$ de la discusión. Estas ideas llevan a la siguiente definición.

Definición. Un eigenvalor de una transformación lineal $T:V\to V$ es un escalar $\lambda$ tal que $\lambda \text{id} – T$ no es invertible. En otras palabras, $\lambda$ es un escalar tal que existe un vector no cero en el kernel de $\lambda \text{id} – T$. A un vector $v\neq 0$ en $V$ tal que $$(\lambda \text{id} – T)v=0,$$ se le conoce como un eigenvector de $T$.

En otras palabras, $v$ es un eigenvector correspondiente a $T$ si $v$ no es cero y $T(v)=\lambda v$. A los eigenvalores y eigenvectores de $T$ también se les conoce en la bibliografía como valores propios y vectores propios de $T$.

Observa que si al conjunto de eigenvectores para un eigenvalor $\lambda$ le agregamos el vector $0$, entonces obtenemos el kernel de una transformación lineal, que sabemos que es un subespacio vectorial.

Veamos un par de ejemplos para que queden más claras las ideas.

Ejemplo. Consideremos a la transformación lineal $T:\mathbb{R}^3\to \mathbb{R}^3$ dada por $$T(x,y,z)=(-2x+15y+18z,3y+10z,z).$$

Observa que
\begin{align*}
T(1,0,0)&=(-2,0,0)\\
&=-2(1,0,0),
\end{align*}

que
\begin{align*}
T(-19,-5,1)&=((-2)(-19)+15(-5)+18,3(-5)+10, 1)\\
&=(28+75-18,-15+10,1)\\
&=(-19,-5,1),
\end{align*}

y que

\begin{align*}
T(3,1,0)&=(-6+15,3,0)\\
&=(9,3,0)\\
&=3(3,1,0).
\end{align*}

Estas igualdades muestran que $(1,0,0)$ es un eigenvector de $T$ con eigenvalor $-2$, que $(-19,-5,1)$ es un eigenvector de $T$ con eigenvalor $1$ y $(3,1,0)$ es un eigenvector de $T$ con eigenvalor $3$.

$\square$

Ejemplo. Consideremos al espacio vectorial $\mathbb{R}[x]$ de polinomios con coeficientes reales. Tomemos la transformación lineal $T$ que manda a un polinomio a su segunda derivada. ¿Quiénes son los eigenvalores y eigenvectores de $T$?

Para que $p$ sea un eigenvector con eigenvalor $\lambda$, tiene que suceder que $$p»=T(p)=\lambda p.$$

Como $p$ no es el vector cero, tiene un cierto grado. Si $\lambda \neq 0$, entonces la igualdad anterior no puede suceder, pues si $p$ es de grado mayor o igual a $2$, entonces el grado de $p»$ es menor al de $\lambda p$, y si el grado de $p$ es $0$ ó $1$, su segunda derivada es $0$, y no puede pasar $\lambda p = 0$. Así, el único eigenvalor que puede tener $T$ es $\lambda = 0$. Observa que sí es válido que los eigenvalores sean cero (los eigenvectores no).

Cuando $\lambda = 0$, tiene que pasar que $p»$ sea $0\cdot p$, es decir, el polinomio cero. Los únicos polinomios tales que su derivada es cero son los constantes y los lineales. Pero el polinomio cero por definición no es eigenvector.

Así, la respuesta final es que el único eigenvalor de $T$ es $0$, y sus eigenvectores correspondientes son los polinomios constantes distintos de cero, y los polinomios lineales.

$\square$

Eigenvalores y eigenvectores para matrices

Tenemos una definición similar para matrices. Sea $A$ una matriz en $M_n(F)$.

Definición. Un escalar $\lambda$ en $F$ es un eigenvalor de $A$ si la matriz $\lambda I_n – A$ no es invertible. En otras palabras, si existe un vector no cero $X$ en $F^n$ tal que $AX=\lambda X$. A un tal vector $X$ se le conoce como un eigenvector correspondiente al eigenvalor $\lambda$.

En otras palabras, los eigenvalores y eigenvectores de $A$ son exactamente los eigenvalores y eigenvectores de la transformación $T_A:\mathbb{F}^n\to \mathbb{F}^n$ dada por $T_A(v)=Av$.

Además, si elegimos cualquier base $B$ de un espacio de dimensión finita $V$ y $A$ es la matriz de $T$ con respecto a la base $B$, entonces para cualquier escalar $\lambda$ se tiene que $\lambda I_n – A$ es la matriz de $\lambda \text{id} – T$ con respecto a esta misma base. De aquí se deduce que los eigenvalores de $T$ son los mismos que los eigenvalores de $A$. Dos matrices que representan a $T$ difieren sólo en un cambio de base, así que obtenemos el siguiente resultado fundamental.

Proposición. Si $A$ es una matriz en $M_n(F)$ y $P$ es una matriz invertible, entonces $A$ y $P^{-1}AP$ tienen los mismos eigenvalores. En otras palabras, matrices similares tienen los mismos eigenvalores.

En el primer ejemplo tomamos la transformación lineal $T:\mathbb{R}^3\to \mathbb{R}^3$ tal que $$T(x,y,z)=(-2x+15y+18z,3y+10z,z).$$ Su matriz en la base canónica de $\mathbb{R}^3$ es $$A=\begin{pmatrix} -2 & 15 & 18\\ 0 & 3 & 10\\ 0 & 0 & 1 \end{pmatrix}.$$ En el ejemplo vimos que los eigenvalores eran $-2$, $1$ y $3$, que precisamente conciden con las entradas en la diagonal de $A$. Esto no es casualidad. El siguiente resultado muestra esto, y es una primer evidencia de la importancia de los determinantes para encontrar los eigenvalores de una matriz.

Proposición. Si $A$ es una matriz triangular (superior o inferior) en $M_n(F)$, entonces sus eigenvalores son exactamente las entradas en su diagonal principal.

Demostración. Haremos el caso para cuando $A$ es triangular superior. El otro caso queda de tarea moral.

Queremos encontrar los valores $\lambda$ para los cuales la matriz $\lambda I_n – A$ no sea invertible. La matriz $A$ es triangular superior, así que la matriz $\lambda I_n – A$ también, pues las entradas de $A$ se vuelven negativas, y luego sólo se altera la diagonal principal.

Si las entradas diagonales de $A$ son $a_{11},\ldots,a_{nn}$, entonces las entradas diagonales de $\lambda I_n -A$ son $$\lambda – a_{11},\ldots,\lambda-a_{nn}.$$

La matriz $\lambda I_n – A$ no es invertible si y sólo si su determinante es igual a cero. Como es una matriz triangular superior, su determinante es el producto de sus entradas diagonales, es decir, $$\det(\lambda I_n – A) = (\lambda – a_{11})\cdot\ldots\cdot(\lambda – a_{nn}).$$

Este producto es $0$ si y sólo si $\lambda$ es igual a alguna entrada $a_{ii}$. De esta forma, los únicos eigenvalores de $A$ son las entradas en su diagonal.

$\square$

Si $A$ es una matriz diagonalizable, entonces es semejante a una matriz diagonal $D$. Por la proposición anterior, los eigenvalores de $A$ serían entonces las entradas en la diagonal principal de $D$. Esto nos da una intuición muy importante: si acaso pudiéramos encontrar todos los eigenvalores de $A$, entonces eso podría ser un paso parcial hacia diagonalizarla.

Encontrar eigenvalores es encontrar las raíces de un polinomio

La siguiente proposición conecta eigenvalores, polinomios y determinantes.

Proposición. Sea $A$ una matriz en $M_n(F)$. Entonces la expresión $$\det(\lambda I_n – A)$$ está en $F[\lambda]$, es decir, es un polinomio en la variable $\lambda$ con coeficientes en $F$. Además, es de grado exactamente $n$.

Demostración. La fórmula para el determinante
\begin{align*}
\begin{vmatrix}
\lambda – a_{11} & -a_{12} & \ldots & -a_{1n}\\
-a_{21} & \lambda – a_{22} & \ldots & -a_{1n}\\
\vdots & & \ddots & \\
-a_{n1} & -a_{n2} & \ldots & \lambda – a_{nn}
\end{vmatrix}
\end{align*}

en términos de permutaciones nos dice que el determinante es sumas de productos de entradas de $A$. Cada una de las entradas es un polinomio en $F[\lambda]$, ya sea constante, o lineal. Como $F[\lambda]$ es cerrado bajo sumas y productos, esto prueba la primer parte de la afirmación.

Para probar que el grado es exactamente $n$, notemos que cada sumando de la expresión multiplica exactamente $n$ entradas. Como las entradas a lo mucho son de grado uno en $F[\lambda]$, entonces cada sumando es un polinomio de grado a lo más $n$. Hay una única forma que el grado sea $n$: cuando se elige la permutación identidad y entonces se obtiene el sumando $$(\lambda-a_{11})\cdot\ldots\cdot(\lambda-a_{nn}).$$

Esto termina la prueba.

$\square$

La proposición anterior nos asegura entonces que la siguiente definición tiene sentido.

Definición. Para $A$ una matriz en $M_n(F)$, el polinomio característico de $A$ es el polinomio $\chi_A(\lambda)$ en $F[\lambda]$ dado por $$\chi_A(\lambda) = \det(\lambda I_n – A).$$

De esta forma, $\lambda$ es un eigenvalor de $A$ si y sólo si es una raíz del polinomio $\chi_A(\lambda)$. Esto son buenas y malas noticias. Por un lado, nos cambia un problema de álgebra lineal a uno de polinomios, en donde a veces tenemos herramientas algebraicas que nos ayudan a encontrar raíces. Sin embargo, como se ve en cursos anteriores, también hay otros polinomios para los cuales es muy difícil encontrar sus raíces de manera exacta. Lo que salva un poco esa situación es que sí existen métodos para aproximar raíces numéricamente de manera computacional.

A pesar de la dificultad de encontrar raíces, sin duda tenemos consecuencias interesantes de esta conexión. Consideremos como ejemplo el siguiente resultado.

Proposición. Una matriz $A$ en $M_n(F)$ tiene a lo más $n$ eigenvalores distintos. Lo mismo es cierto para una transformación lineal $T:V\to V$ para $V$ un espacio vectorial de dimensión $n$.

Demostración. La matriz $A$ tiene tantos eigenvalores como raíces en $F$ tiene su polinomio característico. Como el polinomio característico es de grado exactamente $n$, tiene a lo más $n$ raíces en $F$.

La parte de transformaciones queda de tarea moral.

$\square$

Ya que encontramos los eigenvalores de una matriz o transformación, es posible que queramos encontrar uno o más eigenvectores correspondientes a ese eigenvalor. Observa que eso corresponde a encontrar una solución no trivial al sistema lineal de ecuaciones homogéneo de la forma $$(I_n-A) X = 0.$$ Para ello ya tenemos muchas herramientas, como hacer reducción Gaussiana.

Terminamos esta entrada con un ejemplo de cómo encontrar los valores propios y vectores propios en un caso concreto.

Problema. Encuentra los eigenvalores de la matriz $$A=\begin{pmatrix}1 & 0 & 0\\ 0 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix}$$ considerándola como:

  • Una matriz en $M_3(\mathbb{R})$
  • Una matriz en $M_3(\mathbb{C})$.

En el caso de $M_n(\mathbb{R})$, encuentra un eigenvector para cada eigenvalor.

Solución. Para encontrar los eigenvalores, tenemos que encontrar el determinante $$\begin{vmatrix}\lambda – 1 & 0 & 0\\ 0 & \lambda & 1 \\ 0 & -1 & \lambda \end{vmatrix}.$$

Usando expansión de Laplace en la primer columna y haciendo las operaciones, obtenemos que el determinante de $\lambda I_3 – A$ es el polinomio $$(\lambda-1)(\lambda^2+1).$$

Aquí es importante la distinción de saber en qué campo estamos trabajando. Si estamos en $M_3(\mathbb{R})$, la única raíz del polinomio es $1$. Si estamos en $M_3(\mathbb{C})$, obtenemos otras dos raíces: $i$ y $-i$.

Ahora, para cuando $A$ es matriz en $M_3(\mathbb{R})$, necesitamos encontrar un eigenvector para el eigenvalor $1$. Esto equivale a encontrar una solución al sistema de ecuaciones $$(I_3-A)X=0,$$ es decir, a $$\begin{pmatrix}0 & 0 & 0\\ 0 & 1 & 1 \\ 0 & -1 & 1\end{pmatrix}X=0.$$

Una solución para este sistema es $X=(1,0,0)$. Y en efecto, $(1,0,0)$ es eigenvector de $A$ para el eigenvalor $1$ pues no es el vector cero y $$\begin{pmatrix}1 & 0 & 0\\ 0 & 0 & -1 \\ 0 & 1 & 0 \end{pmatrix}\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} 1 + 0 + 0 \\ 0 + 0 + 0 \\ 0 + 0 + 0 \end{pmatrix} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}.$$

$\square$

Observa que la matriz anterior no es diagonalizable en $M_n(\mathbb{R})$, pues si lo fuera tendría que ser semejante a una matriz diagonal $D$ con entradas $i$ y $-i$ en la diagonal, pero entonces $D$ no sería una matriz en $M_n(\mathbb{R})$. Esto nos da otra intuición con respecto a la diagonalización de una matriz: si acaso una matriz en $M_n(F)$ es diagonalizable, entonces su polinomio característico debe tener puras raíces en $F$. Esta es una condición necesaria, pero aún no es suficiente.

Tarea moral

  • En la entrada vimos que los eigenvalores de una transformación $T$ son los eigenvalores de cualquier matriz que la represente. ¿Es cierto que los eigenvectores de $T$ son los eigenvectores de cualquier matriz que lo represente?
  • Muestra que una transformación lineal $T:V\to V$ para $V$ un espacio vectorial de dimensión $n$ tiene a lo más $n$ eigenvalores distintos.
  • Encuentra los eigenvalores de las matrices de permutación.
  • Para un real $\theta\in[0,2\pi)$ se define la matriz $$A(\theta):=\begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix}.$$ Muestra que $A(\theta)$ tiene eigenvalores reales si y sólo si $\theta=0$ \o $\theta=\pi$. Sugerencia: Encuentra el polinomio característico (que es cuadrático) y calcula su discrimintante. Si es negativo, no tiene soluciones reales.
  • Sea $A$ una matriz en $M_n(F)$. Muestra que la matriz transpuesta $^t A$ tiene los mismos eigenvalores que $A$, y de hecho, el mismo polinomio característico que $A$. Sugerencia. Recuerda que una matriz y su transpuesta tienen el mismo determinante.

Más adelante…

En esta entrada definimos el concepto de eigenvalor y eigenvector para una transformación lineal y para una matriz; y vimos algunas de las propiedades que cumplen. En la siguiente entrada estudiaremos el concepto de polinomio característico utilizando los conceptos que hemos visto en esta entrada y enunciaremos (sin demostración) dos teoremas muy importantes. Luego, pondremos en práctica lo que hemos estudiado resolviendo algunos ejercicios.

Entradas relacionadas

Álgebra Lineal I: Problemas de transformaciones transpuestas y formas bilineales

Introducción

En la entrada del miércoles pasado se definió el concepto de la transpuesta de una transformación lineal. Así mismo, se probó el impresionante y muy útil hecho de que si $A$ es la matriz asociada a la transformación $T$ con respecto a ciertas bases, entonces $^tA$ es la matriz asociada de la transformación $^tT$ con respecto a las bases duales. Comenzamos esta entrada con problemas de transformaciones transpuestas. Los problemas 1 y 2 de esta entrada nos servirán para repasar la teoría vista en esa clase.

Por otra parte, en la entrada del viernes pasado comenzamos con el estudio de las formas bilineales y también se definió la forma cuadrática asociada a una forma bilineal. Además, se presentó la identidad de polarización, la cuál dada una forma cuadrática $q$ nos recupera la única forma bilineal simétrica de la cuál viene $q$.

Para repasar esta teoría, en esta entrada se encuentran los problemas 3 y 4. El problema 4 es interesante porque introduce de manera sencilla los espacios de funciones $l_p$ , de los cuáles se hace un estudio mucho más profundo en un primer curso de análisis matemático. Además, para este problema hacemos uso de herramientas de convergencia de series.

Problemas resueltos

Veamos dos problemas de transformaciones transpuestas

Problema. Considera la transformación lineal $T:\mathbb{R}^3 \to \mathbb{R}^2$ dada por $$T(x,y,z)=(x+3y, x+y-z).$$
Sea $\mathcal{B}^*=\{e_1^*, e_2^*\}$ la base dual canónica de $\mathbb{R}^2$.
Calcula $^tT(e_1^*+e_2^*)$ y $^tT(e_1^*-e_2^*)$ en términos de la base dual canónica $\{f_1^\ast, f_2^\ast, f_3^\ast\}$ de $\mathbb{R}^3$.

Solución. Primero observemos que para un vector cualquiera de $\mathbb{R}^2$ se tiene que
\begin{align*}
e_1^*(x,y)&=x\\
e_2^*(x,y)&=y.
\end{align*}

entonces
\begin{align*}
(e_1^* + e_2^* )(x,y)&=x+y\\
(e_1^* – e_2^* )(x,y)&=x-y.
\end{align*}

Así,

\begin{align*}
(^tT(e_1^*&+e_2^*))(x,y,z)\\=&(e_1^* + e_2^*)(T(x,y,z))\\
=&(e_1^* + e_2^*)(x+3y, x+y-z)\\=&x+3y+x+y-z\\
=&2x+4y-z.
\end{align*}

Esto nos dice que $^tT(e_1^*&+e_2^*)=2f_1^\ast+4f_2^\ast – f_3^\ast$.

Por otro lado,

\begin{align*}
(^tT(e_1^*&-e_2^*))(x,y,z)\\
=&(e_1^* – e_2^*)(T(x,y,z))\\
=&(e_1^* – e_2^*)(x+3y, x+y-z)\\
=&x+3y-x-y+z\\
=&2y+z.
\end{align*}

Por lo tanto, $ ^tT(e_1^*&-e_2^*)) =2f_2^\ast+f_3^\ast.$

$\square$

Problema. Encuentra la matriz de $^tT$ con respecto a la base canónica de $\mathbb{R}^3$ sabiendo que

$T(x,y,z)=(x+y, y-z,x+2y-3z).$

Solución. Recordemos que para calcular la matriz asociada a una transformación con respecto a una base canónica sólo hace falta poner en la $i$-ésima columna la imagen del $i$-ésimo vector canónico. Por esto, calculamos los siguientes valores

$T(e_1)=T(1,0,0)=(1,0,1)$
$T(e_2)=T(0,1,0)=(1,1,2)$
$T(e_3)=(0,0,1)=(0,-1,-3).$

Entonces la matriz asociada a $T$ es

$A=\begin{pmatrix}
1 & 1 & 0\\
0 & 1 & -1\\
1 & 2 & -3\end{pmatrix}.$

Así, por Teorema 2 visto en la entrada de ortogonalidad y transformación transpuesta, sabemos que la matriz asociada a $^tT$ es justamente la matriz

$^tA=\begin{pmatrix}
1 & 0 & 1\\
1 & 1 & 2\\
0 & -1 & -3\end{pmatrix}$.

$\square$

Problemas de formas bilineales y cuadráticas

Problema. Demuestra que la transformación

$b:\mathbb{R}^2 \times \mathbb{R}^2 \to \mathbb{R}$
$b((x,y),(z,t))=xt-yz$

es una forma bilineal sobre $\mathbb{R}^2$. Describe la forma cuadrática asociada.

Demostración. Sea $(x,y)\in \mathbb{R}^2$ fijo. Queremos ver que

$b((x,y), \cdot):\mathbb{R}^2 \to \mathbb{R}$
definida por
$(u,v)\mapsto b((x,y),(u,v))$
es lineal.

Sean $(u,v),(z,t)\in \mathbb{R}^2$.

\begin{align*}
b(&(x,y),(u,v)+(z,t))\\&=b((x,y),(u+z, v+t))\\&=x(v+t)-y(u+z)\\&=(xv-yu)+(xt-yz)\\
&=b((x,y),(u,v))+b((x,y),(z,t)).
\end{align*}

Sea $k \in \mathbb{R}$.
\begin{align*}
b((x,y),k(u,v))&=b((x,y),(ku,kv))\\
&=kxv-kyu\\
&=k(xv-yu)\\
&=kb((x,y),(u,v)).
\end{align*}

Así, $(u,v)\mapsto b((x,y),(u,v))$ es lineal.

Ahora veamos que dado $(u,v)\in\mathbb{R}^2$ fijo, la transformación $(x,y)\mapsto b((x,y),(u,v))$ es lineal.

Sean $(x,y),(z,t)\in\mathbb{R}^2$ y $k\in \mathbb{R}$. Tenemos que
\begin{align*}
b((x&,y)+k(z,t),(u,v))\\
=&b((x+kz,y+kt),(u,v))\\
=&(x+kz)v – (y+kt)u\\
=& xv-kzv-yu-ktu\\
=&(xv-yu)+k(zv-tu)\\
=&b((x,y),(u,v))+kb((z,t),(u,v)).
\end{align*}

Así, $(x,y)\mapsto b((x,y),(u,v))$ es lineal y por consiguiente $b$ es una forma bilineal.

Ahora, tomemos $q:\mathbb{R}^2\to \mathbb{R}$ definida por $$q(x,y)=b((x,y),(x,y)).$$
Entonces $q(x,y)=xy-yx=0$. Así, la forma cuadrática cero es la forma cuadrática asociada a la forma bilineal $b$.

$\square$

Problema. Para un real $p\geq 0$, definimos el espacio $$l_p:=\left\{(x_n)_{n\in\mathbb{N}} : x_n\in\mathbb{R} \forall n\in \mathbb{N} ; \displaystyle\sum_{i\in \mathbb{N}}|x_i| ^p < \infty \right\}.$$

Notemos que para $p\in[1,\infty)$, $l_p$ es un espacio vectorial sobre $\mathbb{R}$ con las operaciones definidas de manera natural. La demostración no es totalmente trivial, pues hay que mostrar que este espacio es cerrado bajo la suma, y esto requiere de la desigualdad del triángulo para la norma $|\cdot |_p$. Puedes intentar demostrar esto por tu cuenta como tarea moral.

Ahora, considera $H:l_2\times l_2 \to\mathbb{R}$ definida por

$H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})=\displaystyle\sum_{n\in\mathbb{N}}x_ny_n$.


Demuestra que $H$ es una forma bilineal simétrica sobre $l_2$.

Demostración. Lo primero que haremos es mostrar que la forma bilineal que definimos en efecto tiene valores reales. Para ello, tenemos que ver que converge.

Observemos que para cada $n\in\mathbb{N}$ se tiene que

$0\leq(|x_n|- |y_n|)^2.$

Entonces ,
\begin{align*}
0&\leq |x_n| ^2 -2|x_ny_n|+ |y_n |^2\\
|x_n y_n|&\leq \frac{1}{2}(|x_n|^2 + |y_n|^2).
\end{align*}


Por consiguiente,

$\displaystyle\sum_{n\in\mathbb{N}}|x_n y_n|\leq \frac{1}{2}\left (\displaystyle\sum_{n\in\mathbb{N}}|x_n|^2 + \displaystyle\sum_{n\in\mathbb{N}}|y_n|^2 \right ) < \infty$.

Lo anterior se debe a que

$\displaystyle\sum_{n\in\mathbb{N}}|x_n|^2 < \infty$ ya que $(x_n)_{n\in \mathbb{N}}\in l_2$

y análogamente para $(y_n)_{n\in \mathbb{N}}$.

Así, $\displaystyle\sum_{n\in\mathbb{N}}x_n y_n < \infty$, pues converge absolutamente, y por lo tanto $H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})$ siempre cae en $\mathbb{R}$.

Ahora veamos que $H$ es bilineal. Sea $x=(x_n)_{n\in \mathbb{N}}\in l_2$ fija. Queremos ver que $$(y_n)_{n\in \mathbb{N}} \mapsto H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})$$ es lineal.

Sean $y=(y_n)_{n\in \mathbb{N}},z=(z_n)_{n\in \mathbb{N}}\in l_2$ y $k\in \mathbb{R}$.

Entonces

\begin{align*}
H(x,&y+kz)\\
&=\displaystyle\sum_{n\in\mathbb{N}}x_n y_n +kx_nz_n\\
&=\displaystyle\sum_{n\in\mathbb{N}}x_n y_n + k\displaystyle\sum_{n\in\mathbb{N}}x_n z_n\\
&= H(x,y) + k H(x,z).
\end{align*}

Así, $(y_n)_{n\in \mathbb{N}} \mapsto H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})$ es lineal.

De manera análoga se ve que si $(y_n)_{n\in \mathbb{N}} \in l_2$ fija, entonces $(x_n)_{n\in \mathbb{N}} \mapsto H((x_n)_{n\in \mathbb{N}},(y_n)_{n\in \mathbb{N}})$ es lineal.

Además
\begin{align*}
H(x,y)&=\displaystyle\sum_{n\in\mathbb{N}}x_n y_n\\
&=\displaystyle\sum_{n\in\mathbb{N}}y_n x_n \\
&= H(y,x).
\end{align*}

Por lo tanto, $H$ es una forma bilineal simétrica sobre $l_2$.

$\square$

Tarea moral

  • Muestra que en efecto $l_p$ es un espacio vectorial sobre $\mathbb{R}$ con las operaciones definidas entrada a entrada.

Entradas relacionadas