Archivo de la etiqueta: Cálculo 3

Cálculo Diferencial e Integral III: Determinantes

Por Alejandro Antonio Estrada Franco

Introducción

El determinante de una matriz cuadrada es un número asociado a esta. Como veremos, los determinantes nos proporcionarán información de interés para varios problemas que se pueden poner en términos de matrices.

Recuerda que los temas de esta unidad son tratados a manera de repaso, por lo cual no nos detenemos en detallar las demostraciones, ni en extender las exposiciones de las definiciones. Para mayor detalle, te remitimos al curso de Álgebra Lineal I, específicamente comenzando con la entrada Transformaciones multilineales. Aún así, es recomendable que revises estas notas en el curso de Cálculo Diferencial e Integral III, pues sintetizamos los temas de tal manera que recuperamos los conceptos relevantes para el cálculo de varias variables. Así mismo, en ocasiones, abordamos las definiciones y resultados de manera un poco distinta, y es muy instructivo seguir los mismos conceptos abordados con un sabor ligeramente distinto.

Permutaciones

Recordemos que en la entrada anterior definimos para cada $n\in \mathbb{N}$ el conjunto $[n]=\{1, 2,\ldots, n\}$.

Definición. Una permutación del conjunto $[n]$ es una función biyectiva $\sigma :[n]\rightarrow [n]$. Una forma de escribir a $\sigma$ de manera más explícita es la siguiente:
\[ \sigma = \begin{pmatrix} 1 & 2 & \dots & n \\
\sigma(1) & \sigma(2) & \dots & \sigma(n) \end{pmatrix} \]

Podemos pensar también a una permutación como un reacomodo de los números $1, 2, …, n$. Pensado de esta manera, escribimos $\sigma =\sigma(1) \sigma(2)\dots \sigma(n)$.

El conjunto de todas las permutaciones del conjunto $[n]$ se denota como $S_n$. Una observación interesante es que $S_{n}$ tiene $n!$ elementos.

Definición. Para $\sigma \in S_{n}$, una inversión en $\sigma$ consiste en un par $(i,k)\in [n]\times [n]$ tal que $i>k$ pero $i$ precede a $k$ en $\sigma$ cuando se considera $\sigma$ como una lista. Diremos que $\sigma$ es permutación par o impar según tenga un número par o impar de inversiones.

Ejemplo. Consideremos $\sigma=12354$ permutación en $[5]$. Tenemos que $(5,4)$ es una inversión en $\sigma$ pues $5>4$ pero en la permutación $5$ precede a $4$. Al tener $\sigma$ una sola inversión, es una permutación impar.

$\triangle$

Definición. El signo de $\sigma$, denotado $\text{sign}(\sigma)$ se define como:
\[
\text{sign}(\sigma )= \begin{cases} 1 & \text{si $\sigma$ es par} \\
-1 & \text{si $\sigma$ es impar.}\end{cases}
\]

Sea $A\in M_{n}(\mathbb{R})$. Pensemos en un producto de $n$ entradas de $A$ tomadas de tal manera que se eligió una y sólo una de cada fila y columna. Podemos reordenar los números para poner en orden la fila de la que tomamos cada uno, y escribir el producto como
\begin{equation}
a_{1j_{1}} a_{2j_{2}}\dots a_{nj_{n}}.
\label{eq:producto}
\end{equation}

Así, $a_{kj_{k}}$ nos dice que en la fila $k$ tomamos la entrada de la columna $j$. Como se eligió una y sólo una entrada por columna, tenemos que $j_1,\ldots,j_n$ es una permutación de $[n]$. Y viceversa, cada permutación $\sigma =j_{1}\dots j_{n} \in S_{n}$ determina un producto como en \eqref{eq:producto}. Por ello la matriz $A$ nos entrega $n!$ productos con esta característica.

Determinantes en términos de permutaciones

A partir de las permutaciones podemos definir a los determinantes.

Definición. El determinante de la matriz $A$, denotado por $\det(A)$, se define como:
\[
\det(A)=\sum_{\sigma \in S_{n}} \left(\text{sign}(\sigma)\prod_{i=1}^{n} a_{i\sigma (i)}\right)
\]
donde
\[
\sigma = \begin{pmatrix} 1 & 2 & \dots & n \\
\sigma (1) & \sigma (2) & \dots & \sigma (n)
\end{pmatrix}
\]

Ejemplo. Para la matriz \[ A= \begin{pmatrix} 0 & 2 & 1 \\ 1 & 2 & 0 \\ 3 & 0 & 1 \end{pmatrix} \] tomemos en cuenta las permutaciones del conjunto $[3]$ las cuales son: \[ \begin{pmatrix} 1 & 2 & 3 \\ 1 & 2 & 3 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 1 & 3 & 2 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 2 & 1 & 3 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 2 & 3 & 1 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 3 & 1 & 2 \end{pmatrix}, \begin{pmatrix} 1 & 2 & 3 \\ 3 & 2 & 1 \end{pmatrix} \]

De acuerdo con la definición de determinante, tenemos:

\begin{align*}
\det(A)=&(1)a_{11}a_{22}a_{33}+(-1)a_{11}a_{23}a_{32}+(-1)a_{12}a_{21}a_{33}+\\
&(1)a_{12}a_{23}a_{31}+(1)a_{13}a_{22}a_{31}+(-1)a_{13}a_{21}a_{32}\\
=&0\cdot 2\cdot 1+(-1)0\cdot 0\cdot 0+(-1)2\cdot 1\cdot 1+\\
&(1)2\cdot 0\cdot 3+(1)1\cdot 2\cdot 3+(-1)1\cdot 1\cdot 0\\
=&4.
\end{align*}

$\triangle$

Propiedades de los determinantes

Veamos algunas de las propiedades que tienen los determinantes. Aprovecharemos para introducir algunas matrices especiales.

Definición. La matriz identidad $I\in M_{n}(\mathbb{R})$ es aquella que cumple que en las entradas de la forma $(i,i)$ son iguales a 1 y el resto de las entradas son iguales a 0.

Definición. Diremos que una matriz $A\in M_n(\mathbb{R})$ es una matriz triangular superior si cumple $a_{ij}=0$ para $i>j$. La llamaremos triangular inferior si cumple $a_{ij}=0$ para $i<j$. Finalmente, diremos que es diagonal si cumple $a_{ij}=0$ para $i\neq j$ (en otras palabras, si simultáneamente es triangular superior e inferior).

Definición. Sea $A\in M_{m,n}(\mathbb{R})$. La transpuesta de la matriz $A$, denotada por $A^t$, es la matriz en $M_{n,m}(\mathbb{R})$ cuyas entradas están definidas como $(a^{t})_{ij} =a_{ji}$.

El siguiente resultado enuncia algunas propiedades que cumplen los determinantes de la matriz identidad, de matrices transpuestas, y de matrices triangulares superiores, triangulares inferiores y diagonales.

Proposición. Sea $A\in M_{n}(\mathbb{R})$. Se cumple todo lo siguiente.

  1. $\det(A)=\det(A^{t})$.
  2. Si $A$ tiene dos filas iguales $\det(A)=0$.
  3. Si $A$ tiene dos columnas iguales $\det(A)=0$.
  4. Si $A$ es triangular superior, triangular inferior, o diagonal, $\det(A)=\prod_{i=1}^{n} a_{ii}$.
  5. $\det(I_n)=1$.

Demostración.

  1. Notemos que (tarea moral) $\text{sign}( \sigma )= \text{sign}( \sigma ^{-1})$, así tenemos que
    \begin{align*}
    \det(A^{t})&=\sum_{\sigma \in S_{n}} \text{sign}(\sigma)a_{\sigma (1) 1}\dots a_{\sigma (n) n}\\
    &=\sum_{\sigma \in S_{n}} \text{sign}(\sigma ^{-1})a_{1\sigma (1)}\dots a_{n\sigma (n)}\\
    &= \sum_{\sigma \in S_{n}} \text{sign}(\sigma)a_{1\sigma (1)}\dots a_{n\sigma (n)}\\&= \det(A).
    \end{align*}
  2. Si tenemos dos filas iguales, en cada producto $a_{1\sigma (1)}\cdots a_{n\sigma (n)}$ tenemos dos factores de la misma fila, por tanto para cada producto tenemos otro igual en la suma solo que con signo contrario (signo de la permutación correspondiente); al hacer la suma estos sumandos se anularán por pares resultando en cero.
  3. Mismo argumento que en el inciso anterior.
  4. Si tenemos una matriz triangular, ya sea superior, o inferior $\prod_{i=1}^{n} a_{i\sigma (i)}\neq 0$ sólo cuando $\sigma(i)=i$ ya que en otro caso este producto siempre tendrá algún factor cero.
  5. Es un corolario de la propiedad anterior, pues la matriz identidad es una matriz diagonal con unos en la diagonal.

$\square$

Otra propiedad muy importante del determinante es que es multiplicativo. A continuación enunciamos el resultado, y referimos al lector a la entrada Propiedades de determinantes para una demostración.

Teorema. Sean $A$ y $B$ matrices en $M_n(\mathbb{R})$. Se tiene que $$\det(AB)=\det(A)\det(B).$$

Mas adelante

En la siguiente entrada revisaremos la teoría de sistemas de ecuaciones lineales. Comenzaremos definiéndolos, y entendiéndolos a partir de las operaciones elementales que definimos en la entrada anterior. Hablaremos un poco de cómo saber cuántas soluciones tiene un sistema de ecuaciones. Así mismo veremos que en ciertos sistemas de ecuaciones lineales, podemos asociar una matriz cuyo determinante proporciona información relevante para su solución.

Un poco más adelante también hablaremos de diagonalizar matrices. A grandes rasgos, esto consiste en encontrar representaciones más sencillas para una matriz, pero que sigan compartiendo muchas propiedades con la matriz original. El determinante jugará de nuevo un papel muy importante en esta tarea.

Tarea moral

  1. Sea $\sigma \in S_{n}$. Muestra que su inversa, $\sigma ^{ -1}$ también es una permutación. Después, muestra que
    \[\text{sign}(\sigma)= \text{sign}(\sigma ^{-1}).\]
    Sugerencia: no es difícil hacerlo por inducción sobre el número de inversiones.
  2. Encuentra explícitamente cuántas inversiones tiene la permutación $\sigma$ en $S_n$ dada por $S(j)=n-j+1$.
  3. Escribe con más detalle la demostración de que una matriz y su transpuesta tienen el mismo determinante. Puedes pensarlo como sigue. Toma \[ \det(A)=\sum_{\sigma \in S_{n}} \text{sign}(\sigma)a_{1\sigma(1)}\cdot \dots \cdot a_{n\sigma (n)}.\] Supón que las filas $s$ y $t$ son iguales; para cada factor argumenta por qué \[ a_{1\sigma (1)}\cdots a_{s\sigma (s)} \cdots a_{t\sigma (t)}\cdots a_{n\sigma (n)} \] el factor \[ a_{1\sigma (1)}\cdots a_{t\sigma (t)}\cdots a_{s\sigma (s)} \cdots a_{n\sigma (n)} \] donde permutamos el $t$-ésimo factor con el $s$-ésimo también está en la suma, y por qué ambos son de signos contrarios.
  4. Demuestra que el producto de una matriz triangular superior con otra matriz triangular superior también es una matriz triangular superior. Enuncia y demuestra lo análogo para matrices triangulares inferiores, y para matrices diagonales.
  5. Argumenta con más detalle por qué el determinante de una matriz triangular superior es el produto de las entradas en su diagonal. Específicamente, detalla el argumento de las notas que dice que «en otro caso, este producto siempre tendrá algún factor cero».

Entradas relacionadas

Cálculo Diferencial e Integral III: Matrices

Por Alejandro Antonio Estrada Franco

Introducción

Así como en la segunda unidad del curso, en esta unidad cubriremos nuevamente algunos temas de álgebra lineal que son importantes para el cálculo de varias variables. Nuevamente, daremos una exposición un poco superficial, pues se espera que estos temas sean cubiertos a profundidad en un curso de Álgebra Lineal 1 que se lleve en paralelo. Una posibilidad es tomar de manera paralela el curso aquí en el blog, en el siguiente enlace: Álgebra Lineal I, en donde hay una exposición más holgada de los temas que revisaremos en las siguientes entradas.

Comenzaremos esta entrada mencionando la importancia de las matrices como herramienta matemática en el estudio de las funciones de $\mathbb{R}^n$ en $\mathbb{R}^m$. Revisaremos también las distintas operaciones que podemos ejecutar sobre ellas. Hablaremos de operaciones binarias y elementales. Cada una de ellas tiene sus propósitos particulares.

Importancia de las matrices en cálculo diferencial e integral

Recordemos algunos conceptos del curso de Cálculo Diferencial e Integral 1. Comencemos con una función $f:D\subset \mathbb{R} \to \mathbb{R}$ una función derivable en el punto $x_{0} \in D$. La derivada de la función $f$ en el punto $x_{0}$ es un número que representa la pendiente de la recta tangente a la gráfica de la función en el punto $(x_{0},f (x_{0})) $. La recta en cuestión tiene por ecuación $y(x) =f ( x_{0})+f'(x_{0})(x-x_{0}) $. Observa que la función $y$ citada es una función lineal. No necesariamente es una transformación lineal, pues puede desplazar al origen. Sin embargo la llamamos «la mejor aproximación lineal a $f$ en el punto $x_{0}$». A grandes rasgos, recibe este nombre pues la función $f$ cerca de un punto dado $x_{0}$ toma valores muy cercanos a los que tomaría $y(x)$ cerca de ese mismo punto.

En el estudio de las funciones reales, así como en sus aplicaciones, es mucho mas fácil auxiliarnos de aproximaciones lineales para investigar y conocer las propiedades locales o en ciertas vecindades del punto a tratar. Las aproximaciones lineales son ecuaciones de rectas, las cuales poseen propiedades muy nobles y bastante tratables. Esta técnica de trabajar problemas de funciones reales (derivables) con lineas rectas, usando la mejor aproximación lineal en el punto dado también es usada para las funciones de $\mathbb{R}^n$ en $\mathbb{R}^m$, usando transformaciones lineales con las cuales se trabajará en las siguientes secciones.

La técnica será casi igual a la usada para las funciones de una variable real: hallaremos una transformación lineal la cual podremos usar para tener la mejor aproximación lineal a la función en un punto dado de su dominio. De aquí es natural que introduzcamos a las matrices en $M_{m,n}(\mathbb{R})$, pues las transformaciones lineales de $\mathbb{R}^n$ en $\mathbb{R}^m$ pueden ser representadas por matrices una vez que hayamos elegido las bases para los espacios vectoriales $\mathbb{R}^n$ y $\mathbb{R}^m$. Además, hay propiedades de transformaciones lineales que se pueden entender fácilmente en términos de matrices. Por ejemplo, la composición y producto escalar de transformaciones lineales tienen sus correspondientes operaciones en matrices, repectivamente la multiplicación de matrices y producto por escalar.

En rojo la mejor aproximación lineal a la gráfica de una función, representada en azul

Definición de matriz

Recuerda que nuestra exposición está condensada pues los temas pueden consultarse a detalle en otras entradas de este blog. Específicamente, para el tema de matrices puedes considerar esta entrada para un tratamiento más detallado.

Definición. Sean $m$ y $n$ números naturales. Una matriz de $n$ filas y $m$ columnas con entradas en los números reales es un arreglo rectangular de la siguiente forma:

$$A=\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn}\end{pmatrix}.$$

Al conjunto de todas las matrices de $n$ filas y $m$ columnas con entradas en los números reales lo denotaremos por $M_{m,n}(\mathbb{R})$. Si $m=n$, usaremos la notación simplificada $M_n(\mathbb{R})$.

Es posible formalizar todavía más a las matrices, pensando en los conjuntos $[m]=\{1,2,\ldots,m\}$ y $[n]=\{1,2,\ldots,n\}$, y tomando una matriz como una función $A:[n]\times[m]\to\mathbb{R}$. Sin embargo, usualmente no tomaremos esta definición, y nos apegaremos a las definiciones dadas arriba.

Operaciones binarias relacionadas con matrices

Hablaremos de tres operaciones binarias relacionadas con matrices, las cuales son útiles para nuestros propósitos en cálculo, pues hay algunas operaciones entre funciones que se corresponden con ellas. Las operaciones que discutiremos son el producto por escalar, la suma de matrices y el producto de matrices. Respectivamente, estas corresponderán, en cierto sentido, al producto por escalar, suma de funciones y composición de funciones. Puedes revisar esta entrada para conocer detalle como se dan algunas de estas correspondencias.

Definición. La suma de matrices es una operación binaria que toma dos matrices con la misma cantidad de filas, y con la misma cantidad de columnas. Si la matriz $A$ tiene entradas $a_{ij}$ y la matriz $B$ tiene entradas $b_{ij}$, su suma está definida como la matriz $A+B$ cuyas entradas son $a_{ij}+b_{ij}$, es decir, las matrices se suman entrada a entrada. Pensada de esta manera, la suma es una función $+:M_{m,n}(\mathbb{R})\times M_{m,n}(\mathbb{R}) \to M_{m,n}(\mathbb{R})$.

Podemos ver esta operación también en los arreglos correspondientes:

\begin{align*}
A+B&=\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn}\end{pmatrix} + \begin{pmatrix} b_{11} & b_{12} & \cdots & b_{1n}\\ b_{21} & b_{22} & \cdots & b_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ b_{m1} & b_{m2} & \cdots & b_{mn}\end{pmatrix}\\
&:=\begin{pmatrix} a_{11}+b_{11} & a_{12}+b_{12} & \cdots & a_{1n}+b_{1n}\\ a_{21}+b_{21} & a_{22}+b_{22} & \cdots & a_{2n}+b_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1}+b_{m1} & a_{m2}+b_{m2} & \cdots & a_{mn}+b_{mn}\end{pmatrix}
\end{align*}

Definición. El producto matriz por escalar es una operación binaria que toma un número real $r$ y una matriz $A$. A la pareja $(r,A)$ le asigna otra matriz que denotaremos por $rA$. Si las entradas de $A$ son $a_{ij}$, las de $rA$ son $ra_{ij}$. En otras palabras, cada una de las entradas de $A$ se multiplica por $r$, de modo que en el arreglo se ve de la siguiente manera:

$$rA=\begin{pmatrix} ra_{11} & ra_{12} & \cdots & ra_{1n}\\ ra_{21} & ra_{22} & \cdots & ra_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ ra_{m1} & ra_{m2} & \cdots & ra_{mn}\end{pmatrix}.$$

De esta manera, el producto matriz por escalar es una operación binaria

$$\cdot: \mathbb{R} \times M_{m,n}(\mathbb{R})\to M_{m,n}(\mathbb{R}).$$

Definición. Finalmente, tenemos el producto de matrices. Para multiplicar dos matrices $A$ y $B$, necesitamos que la cantidad de columnas de $A$ sea igual a la cantidad de filas de $B$. Así, $A$ es una matriz de, digamos $m\times n$ y $B$ es una matriz de, digamos $n\times p$. Su producto será una matriz de $m\times p$. Si $A$ tiene entradas $a_{ij}$ y $B$ tiene entradas $b_{jk}$, entonces la matriz producto $AB$ tendrá entradas dadas por la siguiente regla del producto:

\begin{align*}
c_{ik}&=\sum_{j=1}^n a_{ij}b_{jk}\\
&=a_{i1}b_{1k}+a_{i2}b_{2k}+\ldots+a_{in}b_{nk}.
\end{align*}

Esto nos dice que el producto de matrices es entonces una operación binaria

$$\cdot: M_{m,n}(\mathbb{R})\times M_{n,p}(\mathbb{R})\to M_{m,p}(\mathbb{R}).$$

Operaciones elementales de matrices

Las operaciones elementales involucran únicamente una matriz. Usualmente son usadas para resolver sistemas de ecuaciones lineales, una vez que estos se han pasado a su forma matricial. Así mismo, las operaciones elementales ayudan a hallar representaciones mas sencillas de ciertas transformaciones lineales.

Definición. Dada una matriz $A$, una transposición de renglones consiste en elegir dos de los renglones de $A$ e intercambiarlos.

Definición. Dada una matriz $A$, un reescalamiento consiste en elegir un renglón y un número real $r\neq 0$, y substituir al renglón por aquel que se obtiene al multiplicar cada entrada del renglón por $r$.

Definición. Dada una matriz $A$, una transvección consiste en elegir dos renglones $u$ y $v$ de la matriz y un escalar $r$, y sustituir al renglón $v$ por el renglón $v+ru$ (aquí pensamos a $u$ y $v$ como vectores para efectuar las operaciones).

Las operaciones elementales son fundamentales en la teoría de matrices pues a partir de ellas siempre podemos llevar cualquier matriz a una forma muy sencilla, que definimos a continuación.

Definición. Una matriz $A$ está en forma escalonada reducida si suceden las siguientes cosas:

  1. Aquellas filas de $A$ que consisten de puros ceros, están hasta abajo.
  2. En aquellas filas que no sean de puros ceros, la primera entrada (de izquierda a derecha) que no sea igual a cero (a la que llamaremos pivote) es igual a $1$.
  3. Si una fila está arriba de otra y ambas tienen pivote, entonces el pivote de la de arriba está más a la izquierda que el pivote de la de abajo.
  4. Si una entrada de la matriz es pivote (de alguna fila), entonces es la única entrada distinta de cero de la columna en la que está.

En este enlace puedes encontrar una exposición más detallada de este tipo de matrices

Ejemplo. Consideremos la siguiente matriz: $$\begin{pmatrix} 0 & 5 & 3 \\ 3 & 7 & 0 \\ 0 & 0 & 1 \end{pmatrix}.$$

El pivote del primer renglón es 5, del segundo 3, y del tercero 1. Esta matriz no está en forma escalonada reducida pues no todos sus pivotes son iguales a $1$. Tampoco esta en forma escalonada reducida pues el pivote de la tercera fila (la entrada $1$), no es la única entrada distinta de cero en su columna, pues en esa columna también hay un $3$.

$\triangle$

Ejemplo. Las siguientes matrices sí están en forma escalonada reducida:

\[ \begin{pmatrix} 1 & 5 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix}\hspace{2cm} \begin{pmatrix} 0 & 1 & -2 & 0 & 0 \\ 0 & 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 0 & 1 \end{pmatrix}\hspace{2cm} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \]

$\triangle$

Quizás el teorema más fundamental de la teoría de matrices es el teorema de reducción gaussiana, que enunciamos a continuación.

Teorema. Cualquier matriz $A\in M_{m,n}(\mathbb{R})$ puede ser llevada a forma escalonada reducida mediante la aplicación de algunas operaciones elementales.

Mas adelante

Como ya lo hemos mencionado las matrices serán usadas para representar transformaciones lineales. Las transformaciones lineales nos ayudarán a introducir la noción de derivabilidad en varias variables. Y ello nos permitirá aproximar fácilmente cualquier función $f:\mathbb{R}^n\to \mathbb{R}^m$.

De esta manera, un conocimiento amplio de las matrices repercute en un conocimiento amplio de las transformaciones lineales, lo cual a su vez nos da más información en cuanto a las funciones de $\mathbb{R} ^n$ en $\mathbb{R} ^m$. Para seguir haciendo hincapié en las nociones de matrices que más nos interesan, en la siguiente entrada revisaremos un importante número asociado a cada matriz cuadrada: el determinante.

Tarea moral

  1. Consideremos las matrices $A,B$ de la siguiente manera: \[ A=\begin{pmatrix} 3 & 2 & 0 \\ 2 & 7 & 0 \\ 1 & 0 & 0 \end{pmatrix}\hspace{1cm} B=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \] Encuentra una matriz $X$ que resuelva la siguiente ecuación: \[ 5X + A = B. \]
  2. Aplica operaciones elementales sucesivas para llevar la siguiente matriz a una matriz escalonada reducida: \[ \begin{pmatrix} 1 & 4 & 0 \\ 3 & 0 & -5 \\ 0 & 0 & -1 \\ 6 & 5 & 0 \end{pmatrix}.\]
  3. Considera a la matriz identidad $I_4\in M_{4}(\mathbb{R})$ donde $I_{ij}=0$ para $i\neq j$, y $I_{ij}=1$ en otro caso. Aplica las siguiente operaciones elementales y toma nota del resultado para el siguiente ejercicio:
    • Una transposición de los renglones $1$ y $3$.
    • Un reescalamiento por $-1$ al renglón $2$
    • Una transvección usando los renglones $2$ y $1$, y el escalar $4$.
  4. Aplica las mismas operaciones del punto anterior a la matriz del Ejercicio 2. Toma nota de los resultados.
  5. Finalmente multiplica cada una de matrices del Ejercicio 3 por la izquierda con la matriz del Ejercicio 2. Compara con los resultados obtenidos en el Ejercicio 4. ¿Qué observas?

Entradas relacionadas