Archivo de la etiqueta: matriz identidad

Cálculo Diferencial e Integral III: Sistemas de ecuaciones lineales

Por Alejandro Estrada

Introducción

En esta entrada daremos un repaso a la teoría de sistemas de ecuaciones lineales. En caso de que quieras leer una versión detallada, puedes comenzar con la entrada de Sistemas de ecuaciones lineales y sistemas homogéneos asociados que forma parte del curso Álgebra Lineal I aquí en el blog.

Nuestra motivación para este repaso comienza como sigue. Supongamos que $T:\mathbb{R}^n \rightarrow \mathbb{R}^m$ es una transformación lineal. Tomemos un vector $w\in \mathbb{R}^m$. Es muy natural preguntarse qué vectores $v$ hay en $\mathbb{R}^n$ tales que $T(v)=w$, en otras palabras, preguntarse cuál es la preimagen de $w$.

Sistemas de ecuaciones lineales

Continuando con la situación planteada en la introducción, si $A$ es la representación matricial de $T$ en una cierta base $\beta$, podemos contestar la pregunta planteada resolviendo la ecuación matricial $AX=B$ donde $X$, $B$ son las representaciones de los vectores $v$, $w$ en la base $\beta$, respectivamente. Una vez llegado a este punto, la ecuación $AX=B$ nos conduce a que se deban cumplir varias igualdades. Veamos cuáles son en términos de las entradas de $A$, $X$ y $Y$. Pensemos que $$A=\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn}\end{pmatrix}.$$

Pensemos también que $X$ es el vector columna con entradas (incógnitas) $x_1,\ldots,x_n$, y que $B$ es el vector columna con entradas $b_1,\ldots,b_m$.

Al realizar las operaciones, la igualdad $AX=B$ se traduce en que se deban cumplir todas las siguientes ecuaciones simultáneamente:

\begin{equation}\left\{
\begin{matrix} a_{11}x_{1} + & \dots & + a_{1n}x_{n} & = b_{1} \\
\vdots & \ddots & \vdots & \vdots \\
a_{m1}x_{1} + & \dots & + a_{mn}x_{n} & = b_{m}
\end{matrix}\right.
\label{eq:sistema}
\end{equation}

Definición. Un sistema de $m$ ecuaciones lineales con $n$ incógnitas es un sistema de ecuaciones de la forma \eqref{eq:sistema}. Como discutimos arriba, al sistema también lo podemos escribir de la forma $AX=B$. A la matriz $A$ le llamamos la matriz de coeficientes. Al vector $X$ le llamamos el vector de incógnitas.

Resolver el sistema \eqref{eq:sistema} se refiere a determinar todos los posibles valores que pueden tomar las incógnitas $x_1,\ldots,x_n$ de manera que se cumplan todas las ecuaciones dadas.

Definición. Diremos que dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.

Un resultado importante que relaciona a los sistemas de ecuaciones con las operaciones elementales que discutimos con anterioridad es el siguiente.

Proposición. Sea $A\in M_{m,n}(\mathbb{R})$ y $e$ una operación elemental cualquiera (intercambio de renglones, reescalamiento de renglón, o transvección). Entonces el sistema de ecuaciones $AX=B$ es equivalente al sistema de ecuaciones $e(A)X=e(B)$.

En otras palabras, si comenzamos con un sistema de ecuaciones $AX=B$ y aplicamos la misma operación elemental a $A$ y a $B$, entonces obtenemos un sistema equivalente. Veamos como ejemplo un esbozo de la demostración en el caso del reescalamiento de vectores. Los detalles y las demostraciones para las otras operaciones elementales quedan como ejercicio.

Demostración. Consideremos el rescalamiento $e$ de la $j$-ésima columna de una matriz por un factor $r$. Veremos que $e(A)X=e(B)$. Tomemos

\[ A=\begin{pmatrix} a_{11} & \dots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & \dots & a_{mn} \end{pmatrix}, B= \begin{pmatrix} b_{1} \\ \vdots \\ b_{m} \end{pmatrix}, X=\begin{pmatrix} x_{1} \\ \vdots \\ x_{n} \end{pmatrix} \]

Entonces la ecuación matricial $AX=B$ nos produce el siguiente sistema de ecuaciones lineales:
\[ \left\{\begin{matrix} a_{11}x_{1}+ & \dots & +a_{1n}x_{n}=b_{1} \\ \vdots & \ddots & \vdots \\ a_{m1}x_{1}+ & \dots & +a_{mn}x_{n}=b_{m}. \end{matrix} \right.\]

Tomemos una solución del sistema: \[ X’= \begin{pmatrix} x_{1}’\\ \vdots \\ x_{n}’ \end{pmatrix} \]

La ecuación matricial $e(A)X=e(B)$ nos produce el siguiente sistema de ecuaciones: \[ \left\{\begin{matrix} a_{11}x_{1}+ & \dots & +a_{1n}x_{n}=b_{1} \\ \vdots & \ddots & \vdots \\ ra_{j1}x_{1}+ & \dots & +ra_{jn}x_{n}=rb_{j} \\ \vdots & \ddots \ & \vdots \\ a_{m1}x_{1}+ & \dots & +a_{mn}x_{n}=b_{m}. \end{matrix}\right. \]

Ahora, de cada una de las $n$ ecuaciones, excepto la $j$-ésima, sabemos que se solucionan al sustituir $x_{1}’, \dots ,x_{m}’$, resta revisar la $j$-ésima ecuación. Lo que sí sabemos de que $X’$ sea solución es que $$a_{j1}x_{1}’+ \dots +a_{jn}x_{n}’=b_{j}.$$ Así, al multiplicar por $r$ de ambos lados $ra_{j1}x_{1}’+ \dots + ra_{jn}x_{n}’=rb_{j}$. Así obtenemos que $X’$ satisface también a $e(A)X=e(B)$. Inversamente si una solución satisface al sistema $e(A)X=e(B)$ también lo hace para $AX=Y$; los detalles se dejan al lector.

$\square$

Soluciones a sistemas de ecuaciones lineales

La teoría de sistemas de ecuaciones lineales nos dice que tenemos tres posibles situaciones que se pueden presentar cuando estamos resolviendo un sistema de ecuaciones lineales en $\mathbb{R}$: no hay solución, hay una única solución, o tenemos infinidad de soluciones. Por ejemplo, se puede descartar que haya exactamente dos soluciones. En cuando sucede esto, la cantidad de soluciones de dispara a una infinidad

Haremos una discusión de cuándo se presenta cada caso. De acuerdo a la sección anterior, cualquier operación elemental pasa un sistema de ecuaciones a uno equivalente. Además, de acuerdo al teorema de reducción gaussiana, cualquier matriz puede ser llevada a forma escalonada reducida. Así, al aplicar tanto a $A$ como a $B$ las operaciones elementales que llevan $A$ a su forma escalonada reducida $A_{red}$, llegamos a un sistema equivalente $A_{red}X=C$. El comportamiento del conjunto solución de $AX=B$ se puede leer en este otro sistema equivalente como sigue:

  1. Sin solución. El sistema $AX=B$ no tiene solución si en $A_{red}X=C$ hay una igualdad lineal del estilo $0x_{j1}+\dots +0x_{jn}=c_j$, con $c_j=0$. En otras palabras, si en $A_{red}$ hay una fila $j$ de ceros y la entrada $c_j$ es distinta de cero.
  2. Infinidad de soluciones. El sistema $AX=B$ tiene una infinidad de soluciones si tiene solución, y además hay por lo menos una columna $k$ de $A_{red}$ en la que no haya pivote de ninguna fila. Esta columna $k$ corresponde a una variable libre $x_k$ que puede tomar cualquier valor, y el sistema seguirá teniendo solución.
  3. Solución única. Un sistema de ecuaciones con solución, pero sin variables libres tiene una única solución. Esto se puede leer en la matriz $A_{red}$, pues se necesita que todas las columnas tengan un pivote de alguna fila.

Pensemos un poco a qué se deben los comportamientos anteriores.Pensemos en que ya llegamos a $A_{red}X=C$. Iremos determinando los posibles valores de las entradas de $X$ de abajo hacia arriba, es decir, en el orden $x_n, x_{n-1},\ldots, x_1$. Si $x_k$ es variable libre, pongamos el valor que sea. Si $x_k$ tiene el pivote de, digamos, la fila $j$, entonces la ecuación $j$ nos dice \[0+\dots + 0 + x_{k}+\dots +a_{jn}x_{n}=b_{j}.\] Esto nos diría que \[x_{k}=b_{j}-a_{j(k+1)}x_{k+1}-\dots -a_{jn}x_{n},\] así que hemos logrado expresar a $x_k$ en términos de variables ya determinadas $x_{k+1},\dots x_{n}$.

Matrices equivalentes por filas

Definición. Consideremos $I\in M_{m}(\mathbb{R})$ la matriz identidad de tamaño $m$. Una matriz elemental será una matriz que se obtenga de la identidad tras aplicar una operacion elemental.

Definición. Sean $A, B\in M_{m,n}(\mathbb{R})$. Diremos que $A$ es equivalente por filas a $B$ si $A$ se puede obtener al aplicar una sucesión finita de operaciones elementales a $B$.

Se puede demostrar que «ser equivalente por filas» es una relación de equivalencia en $M_{m,n}(\mathbb{R})$. Así mismo, se puede demostrar en general que si $e$ es una operación elemental, entonces $e(A)$ es exactamente la misma matriz que multiplicar la matriz elemental $e(I)$ por la izquierda con $A$, es decir, $e(A)=e(I)A$. Como tarea moral, convéncete de ambas afirmaciones.

Para realizar la demostración, quizás quieras auxiliarte de la siguiente observación. Tomemos una matriz $B\in M_{m,n}(\mathbb{R})$ y pensemos en cada columna de $B$ como un vector columna:

\[ B_{1} =\begin{pmatrix} B_{11} \\ \vdots \\ B_{m1} \end{pmatrix} \hspace{1cm} \cdots \hspace{1cm} B_{n} =\begin{pmatrix} B_{1n} \\ \vdots \\ B_{mn} \end{pmatrix}. \]

Tomemos ahora una matriz $A\in M_{p,m}$. Tras realizar las operaciones, se puede verificar que la matriz $AB$ tiene como columnas a los vectores columna $AB_1, AB_2,\ldots,AB_n$.

El siguiente teorema nos da una manera alternativa de saber si dos matrices son equivalentes por filas.

Teorema. Sean $A, B\in M_{m\times n}(\mathbb{R})$. Se tiene que $B$ es equivalente por filas a $A$ si y sólo si $B=PA$, donde $P$ es un producto de matrices elementales; $P\in M_{m}(\mathbb{R})$.

Demostración. Por la discusión anterior, si $B$ es equivalente por filas a $A$, $A$ resulta de la aplicación de una sucesión finita de operaciones elementales a $B$ o, lo que es lo mismo, resulta de una aplicación finita de productos de matrices elementales por la izquierda. Por otro lado, si $B=PA$, con $P=E_{k}\cdot … \cdot E_{1}$ producto de matrices elementales, tenemos que $E_{1}A$ es equivalente por filas a $A$, que $E_{2}(E_{1}A)$ es equivalente por filas a $E_{1}A$, que $E_{3}(E_2(E_1(A)))$ equivalente por filas a $E_2(E_1(A))$, y así sucesivamente. Usando que ser equivalente por filas es transitivo (por ser relación de equivalencia), concluimos que $B$ es equivalente por filas a $A$.

$\square$

¿Qué sucede con los determinantes y las operaciones elementales? La siguiente proposición lo resume.

Proposición. Sea $A$ una matriz en $M_n(\mathbb{R})$ con determinante $\det(A)$.

  • Si se intercambian dos filas, el determinante se vuelve $-\det(A)$.
  • Si se reescala una fila por un real $r\neq 0$, el determinante se vuelve $r\det(A)$.
  • Si se hace una transvección, el determinante no cambia.

Observa que, en particular, si $\det(A)\neq 0$, entonces sigue siendo distinto de cero al aplicar operaciones elementales.

Matrices invertibles y sistemas de ecuaciones lineales

En muchas ocasiones nos encontramos en cálculo de varias variables con funciones que van de $\mathbb{R}^n$ a sí mismo. Si la función que estamos estudiando es una transformación lineal, entonces corresponde a una matriz cuadrada en $M_n(\mathbb{R})$. En estos casos hay otro concepto fundamental que ayuda, entre otras cosas, para resolver sistemas de ecuaciones lineales: el de matriz invertible. Veremos a continuación que esto interrelaciona a las matrices, las matrices elementales, los sistemas de ecuaciones lineales y a los determinantes.

Definición. Una matriz $A$ cuadrada es invertible por la izquierda (resp. derecha) si existe una matriz $B$ tal que $BA=I$ (resp. $AB=I$). A $B$ le llamamos la inversa izquierda (resp. derecha) de $A$. A una matriz invertible por la derecha y por la izquierda, donde la inversa izquierda sea igual a la derecha, simplemente se le llama invertible.

Se puede demostrar que, cuando existe, la matriz izquierda (o derecha) es única. Además, se cumplen las siguientes propiedades de matrices invertibles.

Proposición. Sean $A, B\in M_n(\mathbb{R})$

  1. Si $A$ es invertible, también lo es $A^{-1}$ y $(A^{-1})^{-1}=A$.
  2. Si $A$ y $B$ son invertibles, también lo es $AB$ y $(AB)^{-1}=B^{-1} A^{-1}$.

Demostración. El inciso 1 es claro; para el inciso 2 tenemos \[ (AB)(B^{-1} A^{-1})=A(BB^{-1})A^{-1}=A(I)A^{-1}=AA^{-1}=I\] \[=B^{-1}(I)B=B^{-1}(A^{-1}A)B=(B^{-1}A^{-1})(AB) \].

$\square$

Veamos ahora cómo se conecta la noción de invertibilidad con la de matrices elementales. Como parte de la tarea moral, cerciórate de que cualquiera de las tres operaciones elementales para matrices son invertibles. Es decir, para cada operación elemental $e$, hay una operación elemental $e^{-1}$ tal que $e(e^{-1})(A)=A=e^{-1}(e(A))$ para cualquier matriz $A$ a la que se le pueda aplicar $e$.

Proposición. Toda matriz elemental es invertible.

Demostración. Supongamos que $E$ una matriz elemental correspondiente a la operación unitaria $e$. Si $e^{-1}$ es la operación inversa de $e$ y $E_{1}=e^{-1}(I)$ tenemos: \[ EE_{1}=e(E_{1})=e(e^{-1}(I))=I,\] y así mismo tenemos \[E_{1}E=e_{1}(E)=e_{1}(e(I))=I.\] De esta manera $E$ es invertible y su inversa es $E_{1}$.

$\square$

El resultado anterior habla sólo de la invertibilidad de matrices elementales, pero podemos usar a estas para caracterizar a las matrices invertibles.

Teorema. Sea $A\in M_n(\mathbb{R})$, los siguientes enunciados son equivalentes:

  1. $A$ es invertible
  2. $A$ es equivalente por filas a la matriz identidad
  3. $A$ es producto de matrices elementales

Demostración. $1\Rightarrow 2)$. Supongamos que $A$ invertible, y usemos el teorema de reducción Gaussiana para encontrar la forma escalonada reducida $A_{red}$ de $A$ mediante una sucesión de operaciones elementales. Por el teorema de la sección de matrices equivalentes por filas, tenemos que $R=E_{k}\cdots E_{1}A$, donde $E_{k},\dots ,E_{1}$ son matrices elementales. Cada $E_{i}$ es invertible, y $A$ es invertible. Por la proposición anterior, tenemos entonces que $A_{red}$ es invertible. Se puede mostrar que entonces ninguna fila de $A_{red}$ puede consistir de puros ceros (verifícalo de tarea moral), de modo que toda fila de $A$ tiene pivote (que es igual a $1$). Como hay $n$ filas y $n$ columnas, entonces hay exactamente un $1$ en cada fila y en cada columna. A $A_{red}$ no le queda otra opción que ser la matriz identidad.

$2\Rightarrow 3)$. Si $A$ es equivalente por filas a $I$, entonces hay operaciones elementales que la llevan a $I$. Como ser equivalente por filas es relación de equivalencia, existen entonces operaciones elementales que llevan $I$ a $A$. Pero entonces justo $A$ se obtiene de $I$ tras aplicar un producto (por la izquierda) de matrices elementales. Por supuesto, en este producto podemos ignorar a $I$.

$3\Rightarrow 1)$. Finalmente como cada matriz elemental es invertible y todo producto de matrices invertibles es invertible tenemos que 3 implica 1.

$\square$

Ya que entendemos mejor la invertibilidad, la podemos conectar también con la existencia y unicidad de soluciones en sistemas de ecuaciones lineales.

Teorema. Sea $A\in M_{n}(\mathbb{R})$; las siguientes afirmaciones son equivalentes:

  1. $A$ es invertible.
  2. Para todo $Y$, el sistema $AX=Y$ tiene exactamente una solución $X$.
  3. Para todo $Y$, el sistema $AX=Y$ tiene al menos una solución $X$.

Demostración. $1\Rightarrow 2)$. Supongamos $A$ invertible. Tenemos que $X=A^{-1}Y$ es solución pues $AX=A(A^{-1})=IY=Y$. Veamos que la solución es única. Si $X$ y $X’$ son soluciones, tendríamos $AX=Y=AX’$. Multiplicando por $A^{-1}$ por la izquierda en ambos lados de la igualdad obtenemos $X=X’$.

$2\Rightarrow 3)$. Es claro.

$3\Rightarrow 1)$. Tomemos los vectores canónicos $e_1,e_2,\ldots,e_n$ de $\mathbb{R}^n$. Por $(3)$ tenemos que todos los sistemas $AX=e_1, \ldots, AX=e_n$ tienen solución. Tomemos soluciones $B_1,\ldots,B_n$ para cada uno de ellos y tomemos $B$ como la matriz con columnas $B_1,\ldots, B_n$. Por el truco de hacer el producto de matrices por columnas, se tiene que las columnas de $AB$ son $AB_1=e_1,\ldots, AB_n=e_n$, es decir, $AB$ es la matriz identidad.

$\square$

En la demostración anterior falta un detalle importante. ¿Puedes encontrar cuál es? Está en la demostración $3\Rightarrow 1)$. Si quieres saber cuál es y cómo arreglarlo, puedes consultar la entrada Mariposa de 7 equivalencias de matrices invertibles.

Terminamos la teoría de esta entrada con un resultado que conecta la invertibilidad, con los determinantes.

Proposición. Sea $A\in M_{n}(\mathbb{R})$. $A$ es invertible, si y sólo si, $det(A)\neq 0$.

Demostración. Si $A$ es invertible, entonces se cumple la ecuación $I=AA^{-1}$. Aplicando determinante de ambos lados y usando que es multiplicativo: $$1=det(I)=det(AA^{-1})=det(A)det(A^{-1}).$$ Como al lado izquierdo tenemos un $1$, entonces $\det(A)\neq 0$.

Si $det(A)\neq 0$, llevemos $A$ a su forma escalonada reducida $A_{red}$. Por la observación hecha al final de la sección de matrices elementales, se tiene que $\det(A_{red})\neq 0$. Así, en cada fila tenemos por lo menos un elemento no cero. Como argumentamos anteriormente, esto implica $A_{red}=I$. Como $A$ es equivalente por filas a $I$, entonces es invertible.

$\square$

Mas adelante…

Continuaremos estableciendo herramientas de álgebra lineal que usaremos en el desarrollo de los temas subsiguientes. En la siguiente entrada hablaremos de eigenvalores y eigenvectores. Con ellos, expondremos un método que proporciona una representación matricial sencilla simple para cierto tipos de transformaciones lineales.

Tarea moral

  1. Demuestra que la relación «es equivalente por filas» es una relación de equivalencia en $M_{m,n}(\mathbb{R})$.
  2. Sea $A\in M_{m,n}\mathbb{R}$. Verifica que para cualquier operación elemental $e$ de cualquiera de los tres tipos se cumple que $e(A)X=e(B)$ es equivalente a $AX=B$. Deberás ver que cualquier solución de uno es solución del otro y viceversa.
  3. Demuestra que si $A$ es invertible, también lo es $A^{-1}$ y que $(A^{-1})^{-1}=A$. Verifica la invertibilidad izquierda y derecha.
  4. Demuestra que cualquiera de las tres operaciones unitarias para matrices son invertibles. Es decir, para cada operación unitaria, hay otra que al aplicarla sucesivamente nos regresa a la matriz original.
  5. Prueba que una matriz invertible tiene por lo menos un elemento distinto de cero en cada fila, y por lo menos un elemento distinto de cero en cada columna.

Entradas relacionadas

Geometría Analítica I: Tipos de matrices

Por Paola Berenice García Ramírez

Introducción

Hemos conocido en esta unidad las transformaciones lineales y que a partir de ellas podemos asociarles una matriz única. En la sección anterior comenzamos con las primeras operaciones entre matrices: el producto de matrices y su estrecha relación con la composición de matrices. En esta unidad veremos las matrices más representativas y sus funciones lineales a las cuales están asociadas.

Matriz identidad

No es una familia de matrices, pero es el primer tipo de matriz que debemos mencionar. La matriz identidad está asociada a la función identidad y su tamaño es de $n\times n$, es decir el número de filas es el mismo que el de columnas. Se denota por $I$ pero como se tiene una matriz identidad para cada dimensión, se puede escribir como $I_n$.

La matriz identidad se caracteriza porque todos sus elementos son ceros ($0$) excepto aquellos elementos que se encuentran en la diagonal principal, que son unos ($1$).

Ejemplo. Para la función identidad $f: \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, su matriz identidad asociada es

\[ I_2 = I_{2 \times 2} = \left(\begin{array}{cc}
1&0\\
0&1
\end{array} \right), \]

y para la función identidad $f: \mathbb{R}^n \longrightarrow \mathbb{R}^n$, su matriz identidad asociada es

\[ I_n = I_{n \times n} = \left(\begin{array}{cccc}
1&0&\cdots&0\\
0&1&\cdots&0\\
\vdots&\vdots&\ddots&\vdots\\
0&0&\cdots&1
\end{array} \right). \]

De hecho el producto de cualquier matriz por a matriz identidad no tiene ningún efecto, ya que siempre se cumple que $AI = A$ e $IA = A$.

Homotecias

Las homotecias son funciones de cambios de escala, porque conservan los ángulos pero no las distancias entre cualquier par de puntos. Sin embargo, todas las distancias se incrementan o disminuyen en una misma razón $k \in \mathbb{R}$, con $k \neq 0$, para una función $f: \mathbb{R}^n \longrightarrow \mathbb{R}^n$ definida por $f(x) = kx$, la cual es lineal.

La matriz asociada a estas funciones es $kI$, es decir la matriz que sólo tiene elementos $k$ en la diagonal principal y ceros ($0$) fuera de dicha diagonal. Cuando $k>1$ aumentan las distancias (dilataciones), cuando $k<1$ disminuyen (contraen) y en caso de que $k=1$, las distancias se conservan.

Ejemplo. Para el caso de una función lineal $f: \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, la matriz de homotecia de $2\times 2$ asociada es de la forma

\[ I_n = I_{n \times n} = \left(\begin{array}{cc}
k&0\\
0&k
\end{array} \right), \]

Ejemplo. Dada la función lineal definida por

\[ f \left(\begin{array}{c}
x\\
y
\end{array} \right) = \left(\begin{array}{c}
\frac{x}{4}\\
\frac{y}{4}
\end{array} \right), \]

cuya matriz asociada es

\[ \left(\begin{array}{cc}
\frac{1}{4}&0\\
0&\frac{1}{4}
\end{array} \right), \]

ya que

\[ f \left(\begin{array}{c}
x\\
y
\end{array} \right) = \left(\begin{array}{cc}
\frac{1}{4}&0\\
0&\frac{1}{4}
\end{array} \right) \left(\begin{array}{c}
x\\
y
\end{array} \right) = \left(\begin{array}{c}
\frac{x}{4}\\
\frac{y}{4}
\end{array} \right).\]

Vemos que la función corresponde a una homotecia que reduce las distancias entre cualquier par de puntos en una razón de $\frac{1}{4}$.

Rotaciones

Recordemos que en las rotaciones, todo el plano gira un ángulo $\alpha$ alrededor de un punto fijo (el origen del sistema coordenado) pero permanecen invariantes el tamaño y forma de las figuras.

Las columnas de la matriz asociada a las rotaciones en $\mathbb{R}^2$ con centro en el origen mediante un ángulo $\alpha$ son:

\[ f(e_1) = \left(\begin{array}{c}
cos\, \alpha\\
sen\, \alpha
\end{array} \right), \hspace{0.5cm} y \hspace{0.5cm} f(e_2)= \left(\begin{array}{c}
-sen\, \alpha\\
cos\, \alpha
\end{array} \right). \]

En consecuencia las rotaciones mandan al vector canónico $e_1$ en un vector unitario $u$ y al vector canónico $e_2$ en su vector ortogonal $u^{\perp}.$

Por tanto, para una función lineal $f: \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, su matriz de rotación asociada correspondiente es

\[ R_{\alpha} = \left(\begin{array}{cc}
cos\, \alpha & -sen\, \alpha\\
sen\, \alpha & cos\, \alpha
\end{array} \right). \]

Ejemplo. Si $\alpha = 45°$ y queremos calcular la rotación de $45°$del vector $\vec{x}$ entonces la matriz en este caso será:

\begin{align*}
R_{45°}(\vec{x}) &= \left(\begin{array}{cc}
cos\, 45°& -sen\, 45°\\
sen\, 45°& cos\, 45°
\end{array} \right) \vec{x}\\
&= \left(\begin{array}{cc}
\frac{\sqrt{2}}{2}& -\frac{\sqrt{2}}{2}\\
\frac{\sqrt{2}}{2}& \frac{\sqrt{2}}{2}
\end{array} \right) \vec{x}.
\end{align*}

Un hecho importante es que una vez que hubo una rotación de ángulo $\alpha$ y volvemos a aplicar una rotación pero de ángulo $-\alpha$, regresaremos a la matriz identidad. Es decir que con la ayuda de las igualdades

\[ cos\, (-\alpha) = cos\, \alpha \hspace{0.5cm} y \hspace{0.5cm} sen\, (-\alpha) = – sen \, \alpha,\]

se cumple que $R_{-\alpha}\, R_{\alpha} = I$. Este resultado lo dejaremos como ejercicio en la sección Tarea moral.

Ahora bien, si rotamos un ángulo $\beta$ y posteriormente un ángulo $\alpha$, rotamos entonces en total un ángulo $\alpha + \beta$, entonces se cumple que $R_{\alpha}\, R_{\beta} = R_{\alpha + \beta}$, pues

\begin{align*}
R_{\alpha}\, R_{\beta} &= \left(\begin{array}{cc}
cos\, \alpha& -sen\, \alpha\\
sen\, \alpha& cos\, \alpha
\end{array} \right) \left(\begin{array}{cc}
cos\, \beta& -sen\, \beta\\
sen\, \beta& cos\, \beta
\end{array} \right) \\
&= \left(\begin{array}{cc}
cos\, \alpha \, cos \, \beta \,- \, sen\, \alpha\, sen\, \beta & -cos\, \alpha \, sen \, \beta \,- \, sen\, \alpha\, cos\, \beta\\
sen\, \alpha \, cos \, \beta \,+ \, cos\, \alpha\, sen\, \beta & -sen\, \alpha \, sen \, \beta \, + \, cos\, \alpha\, cos\, \beta
\end{array} \right) \\
&= \left(\begin{array}{cc}
cos(\alpha + \beta)& -sen(\alpha + \beta)\\
sen(\alpha + \beta)& cos(\alpha + \beta)
\end{array} \right) = R_{\alpha + \beta},
\end{align*}

obteniendo las fórmulas trigonométricas para el coseno y el seno de la suma de ángulos como consecuencia de la composición de funciones y la multiplicación de matrices.

Reflexiones

Para ver el significado geométrico que una reflexión ejerce sobre un vector, consideremos las funciones lineales:

  1. Sea $f : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, tal que $f \left(\begin{array}{c}
    x\\
    y
    \end{array} \right) = \left(\begin{array}{c}
    -x\\
    y
    \end{array} \right) $ se llama reflexión con respecto al eje $y$.
  2. Sea $f : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, tal que $f \left(\begin{array}{c}
    x\\
    y
    \end{array} \right) = \left(\begin{array}{c}
    x\\
    -y
    \end{array} \right) $ se llama reflexión con respecto al eje $x$.
  3. Sea $f : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, tal que $f \left(\begin{array}{c}
    x\\
    y
    \end{array} \right) = \left(\begin{array}{c}
    y\\
    x
    \end{array} \right) $ se llama reflexión con respecto a la recta $y=x$.

La representación matricial de cada caso es

\[ R_y = \left(\begin{array}{cc}
-1&0\\
0&1
\end{array} \right), \hspace{0.5cm} R_x = \left(\begin{array}{cc}
1&0\\
0&-1
\end{array} \right), \hspace{0.5cm} R_{y=x} = \left(\begin{array}{cc}
0&1\\
1&0
\end{array} \right), \]

respectivamente. De forma más general, las reflexiones deben parametrizarse por la mitad del ángulo de la imagen de $e_1$, quien es el ángulo de la recta respecto a la cual se hace la reflexión. Con ello, la reflexión en la recta con ángulo $\theta$ manda a $e_1$ en el vector unitario de ángulo $2\theta$, y su matriz asociada es:

\[ E_{\theta} = \left(\begin{array}{cc}
cos\, 2\theta & sen\, 2\theta \\\
sen\, 2\theta & -cos\, 2\theta
\end{array} \right) \]

Reflexión respecto a un eje

Dejaremos como ejercicio moral ver que se cumplen $E_{\theta} E_{\theta} = I$ y que la composición de reflexiones es $E_{\alpha} E_{\beta}= R_{2(\alpha – \beta).}$

Matrices ortogonales

Una matriz ortogonal debe cumplir ser cuadrada y su función lineal asociada debe ser ortogonal (es decir, que preserva el producto interior). Entonces, para que se cumplan dichas condiciones, recurrimos a la siguiente definición:

Definición. Una matriz A de $n\times n$ es ortogonal (la matriz de una transformación ortogonal) si y sólo si $A \cdot A^T = I$.

Ejemplo. Para la matriz de reflexión con respecto a la recta $x=y$

\[
A = \left(\begin{array}{cc}
0&1\\
1&0
\end{array} \right),
\]

el producto de A con su transpuesta $A^T$ es

\[
A \cdot A^T = \left(\begin{array}{cc}
0&1\\
1&0
\end{array} \right) \left(\begin{array}{cc}
0&1\\
1&0
\end{array} \right) = \left(\begin{array}{cc}
1&0\\
0&1
\end{array} \right) = I
\]

Ejemplo. Para la matriz de rotación

\[ B = \left(\begin{array}{cc}
cos\, \alpha & sen\, \alpha\\
-sen\, \alpha & cos\, \alpha
\end{array} \right), \]

el producto de B con su transpuesta $B^T$ es

\[
B \cdot B^T = \left(\begin{array}{cc}
cos\, \alpha & -sen\, \alpha\\
sen\, \alpha & cos\, \alpha
\end{array} \right) \left(\begin{array}{cc}
cos\, \alpha & sen\, \alpha\\
-sen\, \alpha & cos\, \alpha
\end{array} \right) = \left(\begin{array}{cc}
1&0\\
0&1
\end{array} \right) = I.
\]

De hecho las matrices ortogonales de $2 \times 2$ son: las rotaciones y las reflexiones.

Tarea moral

  1. ¿Las siguientes matrices son matrices identidad?

\[ A = \left(\begin{array}{cc}
1&1\\
0&3
\end{array} \right), \hspace{0.5cm} B = \left(\begin{array}{cc}
1&0\\
0&1\\
0&0
\end{array} \right), \hspace{0.5cm} C = \left(\begin{array}{ccc}
1&0&0\\
0&1&0\\
0&0&1
\end{array} \right), \]

2. Demostrar que las homotecias tienen la propiedad de conmutar con cualquier otra matriz, es decir, $A(kI) = (kI) A$, donde $k$ es una constante real, $I$ es la matriz identidad y $A$ una matriz de $n\times n$.

3. Demostrar que la rotación de un ángulo $-\theta$ nos regresa a la unidad, es decir, probar que se cumple $R_{-\theta}R_{\theta}= I$

4. En la sección de reflexiones de esta entrada definimos a la matriz $E_{\theta}$. Demostrar que se cumple $E_{\theta} E_{\theta} = I$ y que la composición de reflexiones es $E_{\alpha}E_{\beta}= R_{2(\alpha – \beta).}$

Más adelante

En la siguiente entrada vamos a conocer al grupo de matrices invertibles de $n\times n$, el grupo general lineal de orden $n$; a las cuales pertenecen las matrices ortogonales. Además veremos la forma más fácil de saber si una matriz de $2\times 2$ es invertible, mediante el determinante y su relación con los sistemas de dos ecuaciones lineales con dos incógnitas.

Enlaces relacionados

  • Página principal del curso:
  • Entrada anterior del curso:
  • Siguiente entrada del curso: