Archivo de la etiqueta: matriz ortogonal

Geometría Analítica I: Tipos de matrices

Introducción

Hemos conocido en esta unidad las transformaciones lineales y que a partir de ellas podemos asociarles una matriz única. En la sección anterior comenzamos con las primeras operaciones entre matrices: el producto de matrices y su estrecha relación con la composición de matrices. En esta unidad veremos las matrices más representativas y sus funciones lineales a las cuales están asociadas.

Matriz identidad

No es una familia de matrices, pero es el primer tipo de matriz que debemos mencionar. La matriz identidad está asociada a la función identidad y su tamaño es de $n\times n$, es decir el número de filas es el mismo que el de columnas. Se denota por $I$ pero como se tiene una matriz identidad para cada dimensión, se puede escribir como $I_n$.

La matriz identidad se caracteriza porque todos sus elementos son ceros ($0$) excepto aquellos elementos que se encuentran en la diagonal principal, que son unos ($1$).

Ejemplo. Para la función identidad $f: \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, su matriz identidad asociada es

\[ I_2 = I_{2 \times 2} = \left(\begin{array}{cc}
1&0\\
0&1
\end{array} \right), \]

y para la función identidad $f: \mathbb{R}^n \longrightarrow \mathbb{R}^n$, su matriz identidad asociada es

\[ I_n = I_{n \times n} = \left(\begin{array}{cccc}
1&0&\cdots&0\\
0&1&\cdots&0\\
\vdots&\vdots&\ddots&\vdots\\
0&0&\cdots&1
\end{array} \right). \]

De hecho el producto de cualquier matriz por a matriz identidad no tiene ningún efecto, ya que siempre se cumple que $AI = A$ e $IA = A$.

Homotecias

Las homotecias son funciones de cambios de escala, porque conservan los ángulos pero no las distancias entre cualquier par de puntos. Sin embargo, todas las distancias se incrementan o disminuyen en una misma razón $k \in \mathbb{R}$, con $k \neq 0$, para una función $f: \mathbb{R}^n \longrightarrow \mathbb{R}^n$ definida por $f(x) = kx$, la cual es lineal.

La matriz asociada a estas funciones es $kI$, es decir la matriz que sólo tiene elementos $k$ en la diagonal principal y ceros ($0$) fuera de dicha diagonal. Cuando $k>1$ aumentan las distancias (dilataciones), cuando $k<1$ disminuyen (contraen) y en caso de que $k=1$, las distancias se conservan.

Ejemplo. Para el caso de una función lineal $f: \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, la matriz de homotecia de $2\times 2$ asociada es de la forma

\[ I_n = I_{n \times n} = \left(\begin{array}{cc}
k&0\\
0&k
\end{array} \right), \]

Ejemplo. Dada la función lineal definida por

\[ f \left(\begin{array}{c}
x\\
y
\end{array} \right) = \left(\begin{array}{c}
\frac{x}{4}\\
\frac{y}{4}
\end{array} \right), \]

cuya matriz asociada es

\[ \left(\begin{array}{cc}
\frac{1}{4}&0\\
0&\frac{1}{4}
\end{array} \right), \]

ya que

\[ f \left(\begin{array}{c}
x\\
y
\end{array} \right) = \left(\begin{array}{cc}
\frac{1}{4}&0\\
0&\frac{1}{4}
\end{array} \right) \left(\begin{array}{c}
x\\
y
\end{array} \right) = \left(\begin{array}{c}
\frac{x}{4}\\
\frac{y}{4}
\end{array} \right).\]

Vemos que la función corresponde a una homotecia que reduce las distancias entre cualquier par de puntos en una razón de $\frac{1}{4}$.

Rotaciones

Recordemos que en las rotaciones, todo el plano gira un ángulo $\alpha$ alrededor de un punto fijo (el origen del sistema coordenado) pero permanecen invariantes el tamaño y forma de las figuras.

Las columnas de la matriz asociada a las rotaciones en $\mathbb{R}^2$ con centro en el origen mediante un ángulo $\alpha$ son:

\[ f(e_1) = \left(\begin{array}{c}
cos\, \alpha\\
sen\, \alpha
\end{array} \right), \hspace{0.5cm} y \hspace{0.5cm} f(e_2)= \left(\begin{array}{c}
-sen\, \alpha\\
cos\, \alpha
\end{array} \right). \]

En consecuencia las rotaciones mandan al vector canónico $e_1$ en un vector unitario $u$ y al vector canónico $e_2$ en su vector ortogonal $u^{\perp}.$

Por tanto, para una función lineal $f: \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, su matriz de rotación asociada correspondiente es

\[ R_{\alpha} = \left(\begin{array}{cc}
cos\, \alpha & -sen\, \alpha\\
sen\, \alpha & cos\, \alpha
\end{array} \right). \]

Ejemplo. Si $\alpha = 45°$ y queremos calcular la rotación de $45°$del vector $\vec{x}$ entonces la matriz en este caso será:

\begin{align*}
R_{45°}(\vec{x}) &= \left(\begin{array}{cc}
cos\, 45°& -sen\, 45°\\
sen\, 45°& cos\, 45°
\end{array} \right) \vec{x}\\
&= \left(\begin{array}{cc}
\frac{\sqrt{2}}{2}& -\frac{\sqrt{2}}{2}\\
\frac{\sqrt{2}}{2}& \frac{\sqrt{2}}{2}
\end{array} \right) \vec{x}.
\end{align*}

Un hecho importante es que una vez que hubo una rotación de ángulo $\alpha$ y volvemos a aplicar una rotación pero de ángulo $-\alpha$, regresaremos a la matriz identidad. Es decir que con la ayuda de las igualdades

\[ cos\, (-\alpha) = cos\, \alpha \hspace{0.5cm} y \hspace{0.5cm} sen\, (-\alpha) = – sen \, \alpha,\]

se cumple que $R_{-\alpha}\, R_{\alpha} = I$. Este resultado lo dejaremos como ejercicio en la sección Tarea moral.

Ahora bien, si rotamos un ángulo $\beta$ y posteriormente un ángulo $\alpha$, rotamos entonces en total un ángulo $\alpha + \beta$, entonces se cumple que $R_{\alpha}\, R_{\beta} = R_{\alpha + \beta}$, pues

\begin{align*}
R_{\alpha}\, R_{\beta} &= \left(\begin{array}{cc}
cos\, \alpha& -sen\, \alpha\\
sen\, \alpha& cos\, \alpha
\end{array} \right) \left(\begin{array}{cc}
cos\, \beta& -sen\, \beta\\
sen\, \beta& cos\, \beta
\end{array} \right) \\
&= \left(\begin{array}{cc}
cos\, \alpha \, cos \, \beta \,- \, sen\, \alpha\, sen\, \beta & -cos\, \alpha \, sen \, \beta \,- \, sen\, \alpha\, cos\, \beta\\
sen\, \alpha \, cos \, \beta \,+ \, cos\, \alpha\, sen\, \beta & -sen\, \alpha \, sen \, \beta \, + \, cos\, \alpha\, cos\, \beta
\end{array} \right) \\
&= \left(\begin{array}{cc}
cos(\alpha + \beta)& -sen(\alpha + \beta)\\
sen(\alpha + \beta)& cos(\alpha + \beta)
\end{array} \right) = R_{\alpha + \beta},
\end{align*}

obteniendo las fórmulas trigonométricas para el coseno y el seno de la suma de ángulos como consecuencia de la composición de funciones y la multiplicación de matrices.

Reflexiones

Para ver el significado geométrico que una reflexión ejerce sobre un vector, consideremos las funciones lineales:

  1. Sea $f : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, tal que $f \left(\begin{array}{c}
    x\\
    y
    \end{array} \right) = \left(\begin{array}{c}
    -x\\
    y
    \end{array} \right) $ se llama reflexión con respecto al eje $y$.
  2. Sea $f : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, tal que $f \left(\begin{array}{c}
    x\\
    y
    \end{array} \right) = \left(\begin{array}{c}
    x\\
    -y
    \end{array} \right) $ se llama reflexión con respecto al eje $x$.
  3. Sea $f : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, tal que $f \left(\begin{array}{c}
    x\\
    y
    \end{array} \right) = \left(\begin{array}{c}
    y\\
    x
    \end{array} \right) $ se llama reflexión con respecto a la recta $y=x$.

La representación matricial de cada caso es

\[ R_y = \left(\begin{array}{cc}
-1&0\\
0&1
\end{array} \right), \hspace{0.5cm} R_x = \left(\begin{array}{cc}
1&0\\
0&-1
\end{array} \right), \hspace{0.5cm} R_{y=x} = \left(\begin{array}{cc}
0&1\\
1&0
\end{array} \right), \]

respectivamente. De forma más general, las reflexiones deben parametrizarse por la mitad del ángulo de la imagen de $e_1$, quien es el ángulo de la recta respecto a la cual se hace la reflexión. Con ello, la reflexión en la recta con ángulo $\theta$ manda a $e_1$ en el vector unitario de ángulo $2\theta$, y su matriz asociada es:

\[ E_{\theta} = \left(\begin{array}{cc}
cos\, 2\theta & sen\, 2\theta \\\
sen\, 2\theta & -cos\, 2\theta
\end{array} \right) \]

Reflexión respecto a un eje

Dejaremos como ejercicio moral ver que se cumplen $E_{\theta} E_{\theta} = I$ y que la composición de reflexiones es $E_{\alpha} E_{\beta}= R_{2(\alpha – \beta).}$

Matrices ortogonales

Una matriz ortogonal debe cumplir ser cuadrada y su función lineal asociada debe ser ortogonal (es decir, que preserva el producto interior). Entonces, para que se cumplan dichas condiciones, recurrimos a la siguiente definición:

Definición. Una matriz A de $n\times n$ es ortogonal (la matriz de una transformación ortogonal) si y sólo si $A \cdot A^T = I$.

Ejemplo. Para la matriz de reflexión con respecto a la recta $x=y$

\[
A = \left(\begin{array}{cc}
0&1\\
1&0
\end{array} \right),
\]

el producto de A con su transpuesta $A^T$ es

\[
A \cdot A^T = \left(\begin{array}{cc}
0&1\\
1&0
\end{array} \right) \left(\begin{array}{cc}
0&1\\
1&0
\end{array} \right) = \left(\begin{array}{cc}
1&0\\
0&1
\end{array} \right) = I
\]

Ejemplo. Para la matriz de rotación

\[ B = \left(\begin{array}{cc}
cos\, \alpha & sen\, \alpha\\
-sen\, \alpha & cos\, \alpha
\end{array} \right), \]

el producto de B con su transpuesta $B^T$ es

\[
B \cdot B^T = \left(\begin{array}{cc}
cos\, \alpha & -sen\, \alpha\\
sen\, \alpha & cos\, \alpha
\end{array} \right) \left(\begin{array}{cc}
cos\, \alpha & sen\, \alpha\\
-sen\, \alpha & cos\, \alpha
\end{array} \right) = \left(\begin{array}{cc}
1&0\\
0&1
\end{array} \right) = I.
\]

De hecho las matrices ortogonales de $2 \times 2$ son: las rotaciones y las reflexiones.

Tarea moral

  1. ¿Las siguientes matrices son matrices identidad?

\[ A = \left(\begin{array}{cc}
1&1\\
0&3
\end{array} \right), \hspace{0.5cm} B = \left(\begin{array}{cc}
1&0\\
0&1\\
0&0
\end{array} \right), \hspace{0.5cm} C = \left(\begin{array}{ccc}
1&0&0\\
0&1&0\\
0&0&1
\end{array} \right), \]

2. Demostrar que las homotecias tienen la propiedad de conmutar con cualquier otra matriz, es decir, $A(kI) = (kI) A$, donde $k$ es una constante real, $I$ es la matriz identidad y $A$ una matriz de $n\times n$.

3. Demostrar que la rotación de un ángulo $-\theta$ nos regresa a la unidad, es decir, probar que se cumple $R_{-\theta}R_{\theta}= I$

4. En la sección de reflexiones de esta entrada definimos a la matriz $E_{\theta}$. Demostrar que se cumple $E_{\theta} E_{\theta} = I$ y que la composición de reflexiones es $E_{\alpha}E_{\beta}= R_{2(\alpha – \beta).}$

Más adelante

En la siguiente entrada vamos a conocer al grupo de matrices invertibles de $n\times n$, el grupo general lineal de orden $n$; a las cuales pertenecen las matrices ortogonales. Además veremos la forma más fácil de saber si una matriz de $2\times 2$ es invertible, mediante el determinante y su relación con los sistemas de dos ecuaciones lineales con dos incógnitas.

Enlaces relacionados

  • Página principal del curso:
  • Entrada anterior del curso:
  • Siguiente entrada del curso:

Álgebra Lineal I: Problemas de transpuesta de matriz y matrices de bloque

Introducción

En esta entrada ejercitaremos los conceptos de matriz transpuesta y matriz de bloque mediante ejercicios resueltos. Además, para los últimos tres problemas definiremos un concepto que aunque no se estudia a fondo en este curso, aparece en muchas áreas de las matemáticas y de la física: el de producto tensorial.

Problemas resueltos

Problema. Sea $A\in M_n(\mathbb{R}$) una matriz con una única entrada distinta de cero en cada renglón y columna, dicha entrada es igual a $1$ ó $-1$. Demuestra que $A$ es una matriz ortogonal.

Solución. Sea $A=[a_{ij}]$. Queremos ver que $A^{-1}=$ $^tA $. Sean $i,j\in \{1, 2, \dots , n\}$. Entonces la entrada $(i,j)$-ésima de $A \ ^t A$ es

\begin{align*}
(A\ {^tA})_{ij}=\displaystyle\sum_{k=1}^na_{ik}a_{jk}.
\end{align*}

Supongamos que $a_{ik}a_{jk}$ es distinto de cero para algún $k\in \{1,2,\dots n\}$, por tanto $a_{ik}$ y $a_{jk}$ son distintos de cero.
Si sucediera que $i\neq j$, entonces $A$ tiene al menos dos entradas distintas de cero en la columna $k$, pero esto es imposible. Así, si $i\neq j$, entonces $a_{ik}a_{jk}=0$ para todo $k\in\{1,2,\dots n\}$ y por consiguiente la $(i,j)-$ésima entrada de $A\ ^tA$ es 0.

Por otro lado, si $i=j$, entonces
\begin{align*}
(A\ ^tA)_{ij}=\displaystyle\sum_{k=1}^na_{ik}^2.
\end{align*}

Como por hipótesis se tiene que todas las entradas del $i$-esimo renglón de $A$ son todas $0$ salvo una que es $1$ ó $-1$, entonces $\displaystyle\sum_{k=1}^na_{ik}^2=1$ y así $(A\ ^tA)_{ij}=1$ cuando $i=j$. Concluimos que $A\ ^tA=I_n$.
Mediante un argumento análogo se ve que $^tA A = I_n.$

$\square$

Problema. a) Sea $A\in M_n(\mathbb{R})$ una matriz tal que $^tA \cdot A =O_n$. Demuestra que $A=O_n$.
b) ¿El inciso a) seguirá siendo cierto si reemplazamos $\mathbb{R}$ por $\mathbb{C}$?

Solución. a) Sea $A=[A_{ij}]$. Por la regla del producto de matrices se tiene que la $(i,i)$-ésima entrada de $^tA\cdot A$ es

\begin{align*}
(^tA\cdot A )_{ii} &= \displaystyle\sum_{k=1}^n (^tA)_{ik}A_{ki} \\ &=
\displaystyle\sum_{k=1}^n A_{ki}^2.
\end{align*}

Como $^tA\cdot A=O_n$, concluimos que para toda $i\in\{1,2,\dots,n\}$ se tiene que

\begin{align*}
\displaystyle\sum_{k=1}^n A_{ki}^2=0.
\end{align*}

Como cada $A_{ki}$ es un número real, al elevarlo al cuadrado obtenemos números no negativos. De lo anterior se sigue que $A_{ki}=0$ para toda $k\in \{1,2\dots ,n\}$. Como la $i$ fue tomada de manera arbitraria, concluimos que $A=O_n.$
b) El resultado no necesariamente es cierto si cambiamos el campo de los reales por el campo de los complejos. Busquemos una matriz simétrica $A\in M_2(\mathbb{C})$ tal que $^tA\cdot A= O_2$, pero como $A$ es simétrica, lo anterior solamente es $A^2=O_2$ y además se puede escribir como

\begin{align*}
A=\begin{pmatrix}
a & b\\
b & d\end{pmatrix}
\end{align*}

para algunos números complejos $a,b$ y $d$. Ahora

\begin{align*}
A^2 &= \begin{pmatrix}
a & b\\
b & d\end{pmatrix} \cdot \begin{pmatrix}
a & b\\
b & d\end{pmatrix} \\
&=\begin{pmatrix}
a^2 +b^2 & b(a+d)\\
b(a+d) & b^2+ d^2\end{pmatrix}.
\end{align*}

Así que buscamos números complejos $a,b,d$ con al menos uno de ellos distinto de cero y tales que

\begin{align*}
a^2+b^2=0, \hspace{2mm} b(a+d)=0, \hspace{2mm} b^2+d^2=0.
\end{align*}

Basta con asegurar que $a+d=0$ y $a^2+b^2=0$, para lo cual tomamos $a=i, b=1, d=-i$ .

$\square$

Producto tensorial

A continuación definiremos el producto tensorial. Es importante mencionar que esto es meramente para ejemplificar la teoría que se ha visto hasta ahora, por lo que no se profundizará en este tema.

Si $A=[a_{ij}]\in M_{m_1,n_1}(F)$ y $B\in M_{m_2,n_2}(F)$ son matrices, entonces definimos el producto de Kronecker o producto tensorial de $A$ y $B$ como la matriz de bloque $A\otimes B\in M_{m_1m_2,n_1n_2}(F)$ definida por

\begin{align*}
A\otimes B = \begin{pmatrix}
a_{11}B & a_{12}B & \dots & a_{1,n_1}B\\
a_{21}B & a_{22}B & \dots & a_{2,n_1}B\\
\vdots & \vdots & \vdots & \vdots\\
a_{m_1,1}B & a_{m_1,2}B & \dots & a_{m_1,n_1}B \end{pmatrix}.
\end{align*}

Problema. Calcula el producto tensorial de las matrices

\begin{align*}
A=\begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix}, \hspace{4mm} B=\begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}.
\end{align*}

Solución. Usamos directamente la definición de producto tensorial

\begin{align*}
A\otimes B=\begin{pmatrix}
0 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 1 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}\\
1\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}\\
0\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 1\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}
\end{pmatrix}
\end{align*}

\begin{align*}
= \begin{pmatrix}
0 & 0 & 2 & 1 & 0 & 0\\
0 & 0 & 1 & -1 & 0 & 0\\
2 & 1 & 0 & 0 & 0 & 0\\
1 & -1 & 0 & 0 & 0 & 0\\
0 & 0 & 0 & 0 & 2 & 1\\
0 & 0 & 0 & 0 & 1 & -1\end{pmatrix}
\end{align*}

$\square$

Problema. ¿El producto tensorial es conmutativo?

Solución. En general, el producto tensorial, no es conmutativo. Sean $A$ y $B$ como en el problema anterior. Entonces

\begin{align*}
B\otimes A = \begin{pmatrix}
2\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix} & 1\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix}\\
1\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix} & -1\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix}
\end{pmatrix}
\end{align*}

\begin{align*}
=\begin{pmatrix}
0 & 2 & 0 & 0 & 1 & 0\\
2 & 0 & 0 & 1 & 0 & 0\\
0 & 0 & 2 & 0 & 0 & 1\\
0 & 1 & 0 & 0 & -1 & 0\\
1 & 0 & 0 & -1 & 0 & 0\\
0 & 0 & 1 & 0 & 0 & -1\end{pmatrix}.
\end{align*}

Comparando con lo obtenido en el problema anterior, ser verifica que el producto tensorial no es conmutativo.

$\square$

Problema. Verifica que $I_m\otimes I_n = I_{mn}.$

Solución. Por definición sabemos que $I_m\otimes I_n\in M_{mn}(F)$. Ahora veamos que

\begin{align*}
\begin{pmatrix}
1\cdot I_n & 0\cdot I_n & \dots & 0\cdot I_n\\
0\cdot I_n & 1 \cdot I_n & \dots & 0\cdot I_n\\
\vdots & \vdots &\ddots & \vdots\\
0\cdot I_n & 0\cdot I_n & \dots & 1\cdot I_n\end{pmatrix}
= I_{mn}.
\end{align*}

$\square$

Entradas relacionadas