Archivo del Autor: Ayax Calderón

Álgebra Lineal I: Problemas de transpuesta de matriz y matrices de bloque

Por Ayax Calderón

Introducción

En esta entrada ejercitaremos los conceptos de matriz transpuesta y matriz de bloque mediante ejercicios resueltos. Además, para los últimos tres problemas definiremos un concepto que aunque no se estudia a fondo en este curso, aparece en muchas áreas de las matemáticas y de la física: el de producto tensorial.

Problemas resueltos

Problema 1. Sea $A\in M_n(\mathbb{R}$) una matriz con una única entrada distinta de cero en cada renglón y columna, dicha entrada es igual a $1$ ó $-1$. Demuestra que $A$ es una matriz ortogonal.

Solución. Sea $A=[a_{ij}]$. Queremos ver que $A^{-1}=$ $^tA $. Sean $i,j\in \{1, 2, \dots , n\}$. Entonces la entrada $(i,j)$-ésima de $A \ ^t A$ es

\begin{align*}
(A\ {^tA})_{ij}=\displaystyle\sum_{k=1}^na_{ik}a_{jk}.
\end{align*}

Supongamos que $a_{ik}a_{jk}$ es distinto de cero para algún $k\in \{1,2,\dots n\}$, por tanto $a_{ik}$ y $a_{jk}$ son distintos de cero.
Si sucediera que $i\neq j$, entonces $A$ tiene al menos dos entradas distintas de cero en la columna $k$, pero esto es imposible. Así, si $i\neq j$, entonces $a_{ik}a_{jk}=0$ para todo $k\in\{1,2,\dots n\}$ y por consiguiente la $(i,j)-$ésima entrada de $A\ ^tA$ es 0.

Por otro lado, si $i=j$, entonces
\begin{align*}
(A\ ^tA)_{ij}=\displaystyle\sum_{k=1}^na_{ik}^2.
\end{align*}

Como por hipótesis se tiene que todas las entradas del $i$-ésimo renglón de $A$ son todas $0$ salvo una que es $1$ ó $-1$, entonces $\displaystyle\sum_{k=1}^na_{ik}^2=1$ y así $(A\ ^tA)_{ij}=1$ cuando $i=j$. Concluimos que $A\ ^tA=I_n$.
Mediante un argumento análogo se ve que $^tA A = I_n.$

$\square$

Problema 2. a) Sea $A\in M_n(\mathbb{R})$ una matriz tal que $^tA \cdot A =O_n$. Demuestra que $A=O_n$.
b) ¿El inciso a) seguirá siendo cierto si reemplazamos $\mathbb{R}$ por $\mathbb{C}$?

Solución. a) Sea $A=[A_{ij}]$. Por la regla del producto de matrices se tiene que la $(i,i)$-ésima entrada de $^tA\cdot A$ es

\begin{align*}
(^tA\cdot A )_{ii} &= \displaystyle\sum_{k=1}^n (^tA)_{ik}A_{ki} \\ &=
\displaystyle\sum_{k=1}^n A_{ki}^2.
\end{align*}

Como $^tA\cdot A=O_n$, concluimos que para toda $i\in\{1,2,\dots,n\}$ se tiene que

\begin{align*}
\displaystyle\sum_{k=1}^n A_{ki}^2=0.
\end{align*}

Como cada $A_{ki}$ es un número real, al elevarlo al cuadrado obtenemos números no negativos. De lo anterior se sigue que $A_{ki}=0$ para toda $k\in \{1,2\dots ,n\}$. Como la $i$ fue tomada de manera arbitraria, concluimos que $A=O_n.$
b) El resultado no necesariamente es cierto si cambiamos el campo de los reales por el campo de los complejos. Busquemos una matriz simétrica $A\in M_2(\mathbb{C})$ tal que $^tA\cdot A= O_2$, pero como $A$ es simétrica, lo anterior solamente es $A^2=O_2$ y además se puede escribir como

\begin{align*}
A=\begin{pmatrix}
a & b\\
b & d\end{pmatrix}
\end{align*}

para algunos números complejos $a,b$ y $d$. Ahora

\begin{align*}
A^2 &= \begin{pmatrix}
a & b\\
b & d\end{pmatrix} \cdot \begin{pmatrix}
a & b\\
b & d\end{pmatrix} \\
&=\begin{pmatrix}
a^2 +b^2 & b(a+d)\\
b(a+d) & b^2+ d^2\end{pmatrix}.
\end{align*}

Así que buscamos números complejos $a,b,d$ con al menos uno de ellos distinto de cero y tales que

\begin{align*}
a^2+b^2=0, \hspace{2mm} b(a+d)=0, \hspace{2mm} b^2+d^2=0.
\end{align*}

Basta con asegurar que $a+d=0$ y $a^2+b^2=0$, para lo cual tomamos $a=i, b=1, d=-i$ .

$\square$

Producto tensorial

A continuación definiremos el producto tensorial. Es importante mencionar que esto es meramente para ejemplificar la teoría que se ha visto hasta ahora, por lo que no se profundizará en este tema.

Si $A=[a_{ij}]\in M_{m_1,n_1}(F)$ y $B\in M_{m_2,n_2}(F)$ son matrices, entonces definimos el producto de Kronecker o producto tensorial de $A$ y $B$ como la matriz de bloque $A\otimes B\in M_{m_1m_2,n_1n_2}(F)$ definida por

\begin{align*}
A\otimes B = \begin{pmatrix}
a_{11}B & a_{12}B & \dots & a_{1,n_1}B\\
a_{21}B & a_{22}B & \dots & a_{2,n_1}B\\
\vdots & \vdots & \vdots & \vdots\\
a_{m_1,1}B & a_{m_1,2}B & \dots & a_{m_1,n_1}B \end{pmatrix}.
\end{align*}

Problema 1. Calcula el producto tensorial de las matrices

\begin{align*}
A=\begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix}, \hspace{4mm} B=\begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}.
\end{align*}

Solución. Usamos directamente la definición de producto tensorial

\begin{align*}
A\otimes B=\begin{pmatrix}
0 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 1 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}\\
1\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0 \cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}\\
0\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 0\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix} & 1\cdot \begin{pmatrix}
2 & 1\\
1 & -1\end{pmatrix}
\end{pmatrix}
\end{align*}

\begin{align*}
= \begin{pmatrix}
0 & 0 & 2 & 1 & 0 & 0\\
0 & 0 & 1 & -1 & 0 & 0\\
2 & 1 & 0 & 0 & 0 & 0\\
1 & -1 & 0 & 0 & 0 & 0\\
0 & 0 & 0 & 0 & 2 & 1\\
0 & 0 & 0 & 0 & 1 & -1\end{pmatrix}
\end{align*}

$\triangle$

Problema 2. ¿El producto tensorial es conmutativo?

Solución. En general, el producto tensorial, no es conmutativo. Sean $A$ y $B$ como en el problema anterior. Entonces

\begin{align*}
B\otimes A = \begin{pmatrix}
2\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix} & 1\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix}\\
1\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix} & -1\cdot \begin{pmatrix}
0 & 1 & 0\\
1 & 0 & 0\\
0 & 0 & 1\end{pmatrix}
\end{pmatrix}
\end{align*}

\begin{align*}
=\begin{pmatrix}
0 & 2 & 0 & 0 & 1 & 0\\
2 & 0 & 0 & 1 & 0 & 0\\
0 & 0 & 2 & 0 & 0 & 1\\
0 & 1 & 0 & 0 & -1 & 0\\
1 & 0 & 0 & -1 & 0 & 0\\
0 & 0 & 1 & 0 & 0 & -1\end{pmatrix}.
\end{align*}

Comparando con lo obtenido en el problema anterior, ser verifica que el producto tensorial no es conmutativo.

$\triangle$

Problema 3. Verifica que $I_m\otimes I_n = I_{mn}.$

Solución. Por definición sabemos que $I_m\otimes I_n\in M_{mn}(F)$. Ahora veamos que

\begin{align*}
\begin{pmatrix}
1\cdot I_n & 0\cdot I_n & \dots & 0\cdot I_n\\
0\cdot I_n & 1 \cdot I_n & \dots & 0\cdot I_n\\
\vdots & \vdots &\ddots & \vdots\\
0\cdot I_n & 0\cdot I_n & \dots & 1\cdot I_n\end{pmatrix}
= I_{mn}.
\end{align*}

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de eigenvalores, eigenvectores y polinomio característico.

Por Ayax Calderón

Para esta entrada haremos uso de las definiciones y propiedades básicas de eigenvalores y polinomio característico vistas en las clases del miércoles y viernes de la semana pasada.

Problema 1. Encuentra los valores propios de la matriz.
$$A=\begin{pmatrix}
0 & -1\\
1 & 0\end{pmatrix}$$

Solución. Consideremos a $A$ como una matriz con entradas complejas. Sea $\lambda$ un eigenvalor y $x$ un vector no nulo tal que $Ax=\lambda x$. Si $x_1,x_2$ son las coordenadas de $x$, la condición $Ax=\lambda x$ es equivalente a las ecuaciones

$$-x_2=\lambda x_1, \hspace{0.5cm} x_1=\lambda x_2.$$

Sustituyendo $x_1$ en la primera ecuación se sigue que $-x_2=\lambda ^2 x_2.$
Si $x_2=0$, entonces $x_1=0$, lo cual es imposible. Por lo tanto $x_2\neq 0$ y necesariamente $\lambda ^2 =-1$, entonces $\lambda\in \{-i,i\}$. Conversamente, $i$ y $-i$ son ambos eigenvalores, ya que podemos escoger $x_2=1$ y $x_1=\lambda$ como solución del sistema anterior. Así que vista como matriz compleja, $A$ tiene dos valores propios $\pm i$.

Por otro lado, si vemos a $A$ como matriz con entradas reales, y $\lambda\in \mathbb{R}$ es un eigenvalor y $x$ un eigenvector como arriba, entonces

$$(\lambda^2 +1)x_2=0.$$

Como $\lambda$ es real, $\lambda^2 +1$ es distinto de cero y así $x_2=0$, luego $x_1=0$ y $x=0$. Así que, en conclusión, vista como matriz con entradas reales, $A$ no tiene eigenvalores.

Problema 2. Encuentra el polinomio característico y los eigenvalores de la matriz

$$A=\begin{pmatrix}
0 & 1 & 1\\
1 & 0 & 1\\
1 & 1 & 1\end{pmatrix} \in M_3(F_2).$$

Solución. $\chi_A(\lambda)= \det (\lambda I_3 -A)= \det (\lambda I_3 +A)$ (pues $-1=1$ en $F_2$).

$\begin{vmatrix}
\lambda & 1 & 1\\
1 & \lambda & 1\\
1 & 1 & \lambda + 1 \end{vmatrix} = \begin{vmatrix}
1+ \lambda & 0 & 1\\
1 + \lambda & 1+ \lambda & 1\\
0 & \lambda & \lambda + 1 \end{vmatrix}$

La igualdad anterior se obtiene de sumar la segunda columna a la primera y la tercera columna a la segunda.

Ahora vemos que

$\begin{vmatrix}
\lambda +1 & 0 & 1\\
1+ \lambda & 1+ \lambda & 1\\
0 & \lambda & \lambda + 1 \end{vmatrix} = (\lambda +1)\begin{vmatrix}
1 & 0 & 1\\
1 & 1+ \lambda & 1\\
0 & \lambda & \lambda + 1 \end{vmatrix}$

$=(\lambda +1)(\lambda +1)^2=(\lambda +1)^3.$

Por lo tanto, $\chi_A(\lambda)=(\lambda +1)^3$, y así el único eigenvalor es $1$.

$\triangle$

Problema 3. Sean $a_0, a_1, \dots, a_{n-1}\in F$ y sea

$A=\begin{pmatrix}
0 & 0 & 0 & \dots & 0 & a_0\\
1 & 0 & 0 & \dots & 0 & a_1\\
0 & 1 & 0 & \dots & 0 & a_2\\
\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\
0 & 0 & 0 & \dots & 1 & a_{n-1}\end{pmatrix}.$

Demuestra que

$$\chi_A=x^n-a_{n-1}x^{n-1}-\dots – a_0.$$

Demostración. Sea $P=x^n-a_{n-1}x^{n-1}-\dots -a_1x- a_0$. Considera la matriz

$$B=xI_n-A=\begin{pmatrix}
x & 0 & 0 & \dots & 0 & -a_0\\
-1 & x & 0 & \dots & 0 & -a_1\\
0 & -1 & x & \dots & 0 & -a_2\\
\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\
0 & 0 & 0 & \dots & -1 & x -a_{n-1}\end{pmatrix}.$$

Sumando a la primera fila de $B$ la segunda fila multiplicada por $x$, la tercera fila multiplicada por $x^2$, $\dots$, la $n-$ésima fila multiplicada por $x^{n-1}$ obtenemos la matriz.

$$C=\begin{pmatrix}
0 & 0 & 0 & \dots & 0 & P\\
-1 & x & 0 & \dots & 0 & -a_1\\
0 & -1 & x & \dots & 0 & -a_2\\
\vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\
0 & 0 & 0 & \dots & -1 & x -a_{n-1}\end{pmatrix}.$$

Tenemos que $\chi_A=\det B = \det C$ y, desarrollando $\det C$ con respecto a la primera fila, obtenemos

$$\det C = (-1)^{n+1}P\cdot \begin{vmatrix}
-1 & x & \dots & 0\\
0 & -1 & \dots & 0\\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \dots & -1\end{vmatrix} = (-1)^{n+1}P(-1)^{n-1}=P. $$

$\square$

Problema 4. Sea $A\in M_n(F)$ una matriz con polinomio característico
$$\chi_A(t)=(-1)^nt^n+\dots +a_1t+a_0.$$
Demuestra que$\chi_A(0)=a_0$. Deduce que $A$ es invertible si y sólo si $a_0\neq 0$.

Demostración. Es fácil ver que $\chi_A(0)=a_0$, ya que $a_0$ es el término independiente. Por otro lado, recordamos que $\chi_A(t)=\det(A-tI_n)$, entonces $\chi_A(0)=\det A$. se sigue que $\chi_A(0)=a_0= \det A$, y por la última igualdad sabemos que $A$ es invertible si y sólo si $a_0\neq 0$.

$\square$

Problema 5. Demuestra que cualquier matriz $A\in M_n(\mathbb{R})$ es suma de dos matrices invertibles.

Demostración. Veamos que existen $B,C\in M_n(\mathbb{R})$ tales que $A=B+C$.
Definimos la matriz $B$ como: $b_{ii}=-1$ si $a_{ii}=0$ y $b_{ii}=\frac{a_{ii}}{2}$ si $a_{ii}\neq 0$,$ b_{ij}=a_{ij}$ si $i>j$ y $b_{ij}=0$ si $i<j$.

Similarmente definimos la matriz $C$ como: $c_{ii}=1$ si $a_{ii}=0$, $c_{ii}=\frac{a_{ii}}{2}$ si $a_{ii}\neq 0$, $ c_{ij}=a_{ij}$ si $i<j$ y $c_{ij}=0$ si $i>j$.

Por construcción $B$ y $C$ son matrices triangulares con todas sus entradas diagonales distintas de cero. Por lo tanto $0\not\in\{\det B, \det C\}$, es decir, $B$ y $C$ son invertibles. Además por la manera en la que construimos las matrices $B$ y $C$ se tiene que $A=B+C$.

$\square$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de cálculo de determinantes

Por Ayax Calderón

Para esta entrada del blog haremos uso de las propiedades vistas en la entrada de propiedades de determinantes para facilitar las cuentas a la hora de calcular determinantes de matrices que un primera instancia podrían parecer complicadas. Asimismo, haciendo uso de estas propiedades, se demostrará el teorema de expansión de Laplace.

Problemas resueltos

Problema 1. Considera la siguiente matriz

$$A=\begin{pmatrix}
1 & 1 & 1\\
1 & 2 & 1\\
1 & 1 & 2\end{pmatrix}$$

y calcula $\det (A^{-1})$.

Solución. Como el determinante es multiplicativo, sabemos que $\det(A^{-1})=\frac{1}{\det A}$ , por lo que nos bastará con calcular $\det A$.
Es fácil ver que $\det A = 1(4-1)- 1(2-1)+1(1-2)=2-1-1=1.$
Así, $\det (A^{-1})=1$.

$\triangle$

Problema 2. Sea $A\in M_n(\mathbb{R}).$

  1. Muestra que si $n^2-n+1$ entradas de $A$ son iguales a $0$, entonces $\det A =0$.
  2. Muestra que se puede escoger $A$ de tal manera que $\det A \neq 0$ tiene $n^2-n+1$ entradas iguales.
  3. Muestra que si $n^2-n+2$ entradas de $A$ son iguales, entonces $\det A = 0$.

Demostración.

  1. Afirmamos que la matriz $A$ tiene una columna en la que todas las entradas son cero. Supongamos que cada columna de $A$ tiene a los más $n-1$ ceros, entonces la matriz $A$ tiene a lo más $n^2 -n$ ceros, lo cuál contradice nuestra hipótesis, por lo tanto existe una columna en la cuál todas las entradas son iguales a cero. Por lo tanto $\det A = 0$.
  2. Consideremos la matriz $A=[a_{ij}]$ dado por $a_{ij}=1$ si $i\neq j$ y $a_{ij}=i$ si $i=j$. De esta manera nos aseguramos de que $n^2-n+1$ entradas son iguales a $1$, pero $\det A \neq 0$, pues si sustraemos el primer renglón de cada uno de los siguientes renglones obtenemos una matriz triangular superior con entradas diagonales distintas de cero, por lo que $\det A \neq 0$.
  3. Si $A$ tiene $n^2-n+2$ entradas iguales (digamos a un número $k$), entonces $A$ tiene a lo más $n-2$ entradas distintas a $k$. Por lo tanto, a lo más $n-2$ columnas de $A$ contienen una entrada distinta de $k$, es decir, al menos dos columnas de $A$ tienen todas sus entradas iguales a $k$, entonces $\rank(A)<n$. Por consiguiente $\det A=0$.

$\square$

Teorema de Expansión de Laplace

Sea $A=[a_{ij}]\in M_n(F)$ una matriz y sea $C_{i,j}$ el cofactor de $a_{ij}$.

(a) (Expansión con respecto a una columna $j$) Para cada $j\in\{1,2,\dots , n\}$ tenemos $$ \det A = \displaystyle\sum _{i=1}^n a_{ij}C_{ij}.$$

(b) (Expansión con respecto a una columna $i$). Para cada $i\in \{1,2,\dots , n\}$ tenemos $$\det A = \displaystyle\sum _{j=1}^n a_{ij}C_{ij}.$$

Demostración. (a) Tomemos $j\in \{1,2,\dots , n\}$ fija , y sea $B=(e_1,\dots, e_n)$ la base canónica de $F^n$ y sea $C_1,\dots, C_n \in F^n$ las columnas de $A$, tales que $C_k=\displaystyle\sum_{i=1}^{n} a_{ik}e_i$ para toda $k$. Se sigue que

$$\det A = \det _{B}(C_1, \dots, C_n)=\det_B(C_1,\dots, C_{j-1}, \displastyle\sum_{i=1}^{n}a_{ij}e_i, C_{j+1},\dots C_n)$$

$$=\displaystyle\sum_{i=1}^n a_{ij}\det_B(C_1,\dots, C_{j-1}, e_i, C_{j+1},\dots , C_n ).$$

Nos falta ver que $X_{ij}:=\det_B(C_1,\dots, C_{j-1}, e_i, C_{j+1},\dots , C_n)= C_{ij}$. Mediante una serie de $n-j$ intercambios de columnas, podemos poner la $j-$ésima columna del determinante $X_{ij}$ en la última posición, y mediante una sucesión de $n-i$ intercambios de renglones podemos poner el $i-$ésimo renglón en la última posición, lo que nos da

$$X_{ij}=(-1)^{n-1+n-j}=\det \begin{pmatrix}
a_{11} & \dots & a_{i,j-1} & a_{1,j+1} & \dots & a_{1n} & 0\\
\vdots & \vdots & \vdots & \ddots & \vdots & \vdots & \vdots\\
a_{n1} & \dots & a_{n,j-1} & a_{n,j+1} & \dots & a_{nn} & 0\\
a_{i1} & \dots & a_{i,j-1} & a_{i,j+1} & \dots & a_{in} & 1\end{pmatrix}.$$

El último determinante es precisamente $C_{ij}$, y como $(-1)^{n-i+n-j}=(-1)^{i+j}$ se sigue el resultado deseado.

(b) La prueba para este inciso se sigue del inciso anterior y tomando en cuenta que $\det A = \det (^tA)$.

$\square$

Problema 3. Sean $x,y,z \in \mathbb{R}$, $A=
\begin{pmatrix}
0 & y & z\\
z & x & 0\\
y & 0 & x\end{pmatrix}$

y $B=
\begin{pmatrix}
0 & z & y\\
y & x & 0\\
z & 0 & x\end{pmatrix}$. Calcula el determinante de la matriz $$C=\begin{pmatrix}y^2+z^2 & xy & xz\\
xy & x^2+z^2 & yz\\
xz & yz & x^2 + y^2\end{pmatrix}.$$

Solución. Note que $^tA=B$, entonces $\det A = \det B$. Calculemos $\det A$

$$\det A = -z(yx)+y(-zx)=-2xyz$$

Además notemos que $\begin{pmatrix}
0 & y & z\\
z & x & 0\\
y & 0 & x\end{pmatrix} \begin{pmatrix}
0 & z & y\\
y & x & 0\\
z & 0 & x\end{pmatrix} = \begin{pmatrix}y^2+z^2 & xy & xz\\
xy & x^2+z^2 & yz\\
xz & yz & x^2 + y^2\end{pmatrix} $

o bien, $AB=C$.
Así, $\det C= (\det A)^2= (-2xyz)^2 = 4x^2y^2z^2.$

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Propiedades de determinantes

Por Ayax Calderón

Introducción

Para esta entrada enunciaremos y demostraremos algunas de las propiedades más importantes de los determinantes tanto para transformaciones lineales como para matrices. Estas propiedades de determinantes y en general el concepto de determinante tiene numerosas aplicaciones en otras áreas de las matemáticas como el cálculo de volúmenes $n-$dimensionales o el wronskiano en ecuaciones diferenciales, sólo por mencionar algunos, por eso es importante analizar a detalle el determinante de los distintos tipos de matrices y transformaciones lineales que conocemos.

Como recordatorio, veamos qué hemos hecho antes de esta entrada. Primero, transformaciones multilineales. De ellas, nos enfocamos en las que son alternantes y antisimétricas. Definimos el determinante para un conjunto de vectores con respecto a una base, y vimos que, en cierto sentido, son las únicas formas $n$-lineal alternantes en un espacio vectorial de dimensión $n$. Gracias a esto, pudimos mostrar que los determinantes para transformaciones lineales están bien definidos, y con ellos motivar la definición de determinante para matrices.

El determinante es homogéneo

La primera de las propiedades de determinantes que enunciaremos tiene que ver con «sacar escalares» del determinante.

Teorema. Sea $A$ una matriz en $M_n(F)$.

  1. Si multiplicamos un renglón o una columna de $A$ por un escalar $\lambda$, entonces su determinante se multiplica por $\lambda$.
  2. Se tiene que $\det(\lambda A)=\lambda^n A$.

Demostración. 1. Sea $A_j$ la matriz obtenida me multiplicar el $j$-ésimo renglón por $\lambda$. Siguiendo la definición de determinante vista en la entrada de ayer (determinantes de matrices) vemos que
\begin{align*}
\det A_j&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\dots \lambda a_{j\sigma(j)}\dots a_{n\sigma(n)}\\
&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)\lambda a_{1\sigma(1)}\dots a_{n\sigma(n)}\\
&= \lambda \det A.
\end{align*}

La demostración para la $j$-ésima columna queda como tarea moral.

2. Sea $\lamda A=[\lambda a_{ij}]$, entonces por definición tenemos

\begin{align*}
\det (\lambda A)&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)(\lambda a_{1\sigma(1)})\dots (\lambda a_{n\sigma(n)})\\
&=\displaystyle\sum_{\sigma\in S_n} \text{sign}(\sigma)\lambda^n a_{1\sigma(1)}\dots a_{n\sigma(n)}\\
&=\lambda^n \cdot \det A
\end{align*}

De manera alternativa, podemos aplicar el primer inciso $n$ veces, una por cada renglón.

$\square$

Aquí arriba hicimos la prueba explícita a partir de la definición. Una forma alternativa de proceder es notar que el determinante de una matriz es precisamente el determinante $\det$ (de vectores) con respecto a la base canónica de $F^n$ evaluada en los renglones de $A$. Al multiplicar uno de los renglones por $\lambda$, el vector entrada de $\det$ se multiplica por $\lambda$. El resultado se sigue inmediatamente de que $\det$ es una forma $n$-lineal.

El determinante es multiplicativo

Quizás de entre las propiedades de determinantes, la más importante es que es multiplicativo. Mostraremos esto a continuación.

Teorema. Sea $V$ un espacio vectorial de dimensión finita y transformaciones lineales $T_1:V\to V$, $T_2:V\to V$. Se tiene que $$\det(T_1\circ T_2) = \det T_1\cdot \det T_2.$$

Demostración. Sea $(v_1,\dots , v_n)$ una base cualquiera de $V$. Del resultado visto en la entrada anterior y la definición de determinante, se sigue que
\begin{align*}
\det (T_1 \circ T_2)&= \det _{(v_1,\dots , v_n)}(T_1(T_2(v_1)),\dots , T_1(T_2(v_n)))\\
&=\det T_1 \cdot \det_{(v_1,\dots , v_n)}(T_2(v_1), \dots , T_2(v_n))\\
&= \det T_1 \cdot \det T_2.
\end{align*}

$\square$

Observa cómo la demostración es prácticamente inmediata, y no tenemos que hacer ningún cálculo explícito en términos de coordenadas. La demostración de que el determinante es multiplicativo para las matrices también es muy limpia.

Teorema. Sean $A$ y $B$ matrices en $M_n(F)$. Se tiene que $$\det(AB)=\det A \cdot \det B.$$

Demostración. Sean $V=F^n$, $T_1:V\to V$ la transformación lineal definida por $x\mapsto Ax$ y similarmente $T_2:V\to V$ la transformación lineal definida por $x\mapsto Bx$. Sabemos que $A, B, AB$ son las matrices asociadas a $T_1, T_2, T_1\circ T_2$ con respecto a la base canónica, respectivamente.

Recordemos que para una transformación lineal $T$ en $V$, $\det T = \det A_T$, para una matriz que la represente en cualquier base. Entonces

\begin{align*}
\det(AB)&=\det A_{T_1\circ T_2}\\
&= \det T_1\circ T_2\\
&=\det T_1 \cdot \det T_2\\
&=\det A_{T_1} \cdot \det A_{T_2} \\
&= \det A \cdot \det B.
\end{align*}

$\square$

Nota que hubiera sido muy complicado demostrar que el determinante es multiplicativo a partir de su definición en términos de permutaciones.

El determinante detecta matrices invertibles

Otra de las propiedades fundamentales del determinante es que nos ayuda a detectar cuándo una matriz es invertible. Esto nos permite agregar una equivalencia más a la lista de equivalencias de matrices invertibles que ya teníamos.

Teorema. Una matriz $A$ en $M_n(F)$ es invertible si y sólo si $\det A\neq 0$.

Demostración. Supongamos que $A$ es invertible, entonces existe $B\in M_n(F)$ tal que $AB=I_n=BA$.
Así,

$1=\det I_n = \det (AB) = \det A \cdot \det B$.

Como el lado izquierdo es $1$, ambos factores del lado derecho son distintos de $0$. Por lo tanto $\det A \neq 0.$ Nota que además esta parte de la prueba nos dice que $\det A^{-1}=(\det A)^{-1}$.

Ahora supongamos que $\det A \neq 0$. Sea $(e_1, \dots , e_n)$ la base canónica de $F^n$ y $C_1,\dots , C_n$ las columnas de $A$. Como $\det_{(e_1,\ldots,e_n)}$ es una forma lineal alternante, sabemos que si $C_1,\ldots,C_n$ fueran linealmente dependientes, la evaluación daría cero. Ya que la columna $C_i$ es la imagen bajo $A$ de $e_i$, entonces

$\det A =\det _{(e_1,\dots , e_n)}(C_1, \dots , C_n) \neq 0$.

Por lo tanto los vectores $C_1, \dots , C_n$ son linealmente independientes y así $\text{rank}(A)=n$. Se sigue que $A$ es una matriz invertible.

$\square$

Determinante de transformación y matriz transpuesta

Una cosa que no es totalmente evidente a partir de la definición de determinante para matrices es que el determinante no cambia si transponemos una matriz o una transformación lineal. Esta es la última de las propiedades de determinantes que probaremos ahora.

Teorema. Sea $A$ una matriz en $M_n(F)$. Se tiene que $$\det({^tA})=\det A.$$

Demostración. Por definición

$\det({^tA})=\displaystyle\sum_{\sigma \in S_n}\text{sign}(\sigma^{-1})a_{\sigma^{-1}(1)1 \dots a_{\sigma^{-1}(n)n}}.$

Luego, para cualquier permutación $\sigma$ se tiene

$$a_{\sigma(1)1}\dots a_{\sigma(n)n}=a_{1\sigma^{-1}(1)}\dots a_{n\sigma^{-1}(n)}$$

pues $a_{i\sigma^{-1}(i)}=a_{\sigma(j)j}$, donde $j=\sigma^{-1}(i)$.
También vale la pena notar que $$\text{sign}(\sigma^{-1})=\text{sign}(\sigma)^{-1}=\text{sign}(\sigma).$$

De lo anterior se sigue que

\begin{align*}
\det({^tA})&=\displaystyle\sum_{\sigma \in S_n} \text{sign}(\sigma^{-1})a_{1\sigma^{-1}(1)}\dots a_{n\sigma^{-1}(n)}\\
&=\displaystyle\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\dots a_{n\sigma(n)}\\
&=\det A.
\end{align*}

$\square$

Teorema. Sea $V$ un espacio vectorial de dimensión finita $T:V\to V$ una transformación lineal. Se tiene que $$\det(^t T) = \det T.$$

Demostración. Sea $A$ la matriz asociada a $T$, entonces $^tA$ es la matriz asociada a $^tT$. Luego $$\det (^tT)=\det (^tA)=\det A = \det T.$$

$\square$

Veamos un ejemplo de un problema en el que podemos aplicar algunas de las propiedades anteriores.

Problema. Sea $A\in M_n(F)$ una matriz antisimétrica para algún $n$ impar. Demuestra que $\det(A)=0$.

Demostración. Como $A=-A^t$, entonces $\det A = \det (- {^tA})$, pero $\det A = \det ({^tA})$.
Se sigue que
\begin{align*}
\det ({^tA}) &= \det (-{^tA})\\
&=(-1)^n \det ({^tA})\\
&=-\det ({^tA}).
\end{align*}

Concluimos $\det (^tA)=0$

$\square$

Más adelante…

En esta entrada enunciamos y demostramos varias propiedades de los determinantes. Ahora, vamos a ponerlas en práctica resolviendo algunos problemas.

En las siguientes entradas, que constituyen la parte final del curso, vamos a hablar de diferentes técnicas para calcular el determinante de una matriz y obtendremos sus eigenvalores y eigenvectores. Vamos a ver cómo esto nos conduce a uno de los teoremas más importantes del curso de Álgebra Lineal I: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que al multiplicar una columna de una matriz por $\lambda$, entonces su determinante se multiplica por $\lambda$.
  • Demuestra que si una matriz tiene dos columnas iguales, entonces su determinante es igual a cero.
  • Analiza cómo es el determinante de una matriz antisimétrica $A\in M_n(F)$ con $n$ par.
  • Formaliza la frase «el determinante detecta transformaciones invertibles» en un enunciado matemático. Demuéstralo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de desigualdades vectoriales

Por Ayax Calderón

Introducción

En esta entrada practicaremos las dos desigualdades vectoriales que hemos visto anteriormente: la desigualdad de Cauchy – Schwarz y con la desigualdad de Minkowski. Veremos que de ellas se obtiene información valiosa sobre los espacios con producto interior.

Como ya se menciono en otras entradas del blog, estos espacios son muy importantes más allá del álgebra lineal, pues también aparecen en otros áreas como el análisis matemático, variable compleja, probabilidad, etc. Así mismo, los espacios vectoriales con producto interior tienen muchas aplicaciones en el mundo real. Por esta razón es muy importante aprender a detectar cuándo podemos usar desigualdades vectoriales.

Problemas resueltos

Comencemos con algunos problemas de desigualdades vectoriales que usan la desigualdad de Cauchy-Schwarz.

Problema 1. Demuestra que si $f:[a,b]\longrightarrow \mathbb{R}$ es una función continua, entonces

$$\left(\int_a ^b f(t)dt\right)^2 \leq (b-a)\int_a ^b f(t)^2 dt.$$

Demostración. Sea $V=\mathcal{C}([a,b],\mathbb{R})$ el espacio de las funciones continuas de $[a,b]$ en los reales.

Veamos que $\langle \cdot , \cdot \rangle: V\times V \longrightarrow \mathbb{R}$ definido por $$\langle f,g \rangle = \int_a^b f(t)g(t) \, dt$$ es una forma bilineal simétrica.

Sea $f\in V$ fija. Veamos que $g\mapsto \langle f,g \rangle$ es lineal.

Sean $g,h \in V$ y $k\in F$, entonces

\begin{align*}
\langle f,g+hk \rangle &= \int_a ^b f(t)(g(t)+kh(t))dt\\
&=\int_a ^b (f(t)g(t)+kf(t)h(t)) dt\\
&=\int_a ^b f(t)g(t)dt +k \int_a ^b f(t)h(t)dt\\
&=\langle f,g \rangle + k \langle f,h \rangle .
\end{align*}

Análogamente se ve que si $g\in V$ fija, entonces $f\mapsto \langle f,g \rangle$ es lineal.

Luego,
\begin{align*}
\langle f,g \rangle &= \int_a ^b f(t)g(t)\, dt\\
&= \int_a ^b g(t)f(t)\, dt\\
&= \langle g,f \rangle.
\end{align*}
Por lo tanto $\langle \cdot, \cdot \rangle$ es una forma bilineal simétrica.

Ahora observemos que $\langle \cdot ,\cdot \rangle$ es positiva.
$$\langle f,f \rangle = \int_a ^b f(t)^2 dt \geq 0$$ pues $f^2 (t)\geq 0$. Aunque no lo necesitaremos, mostremos además que que $\langle \cdot, \cdot \rangle$ es positiva definida. Si $f$ tiene algún valor $c$ en el interior de $[a,b]$ en la que $f(c)\neq 0$, como es continua, hay un $\epsilon>0$ tal que en todo el intervalo $(c-\epsilon,c+\epsilon)$ se cumple que $|f|$ es mayor que $|f(c)|/2$, de modo que
\begin{align*}
\langle f, f \rangle &= \int_a^b f^2(t)\, dt\\
&\geq \int_{c-\epsilon}^{c+\epsilon} f^2(t)\, dt\\
&\geq \int_{c-\epsilon}^{c+\epsilon}\frac{f(c)^2}{4} \, dt\\
&=\frac{\epsilon f(c)^2}{2}>0.
\end{align*}

Así, para que $\langle f, f \rangle$ sea $0$, es necesario que $f$ sea $0$ en todo el intervalo $(a,b)$ y por continuidad, que sea cero en todo $[a,b]$.

Sea $q$ la forma cuadrática asociada a $\langle \cdot, \cdot \rangle$.
En vista de todo lo anterior, podemos aplicar la desigualdad de Cauchy -Schwarz tomando $g$ la función constante $1$, es decir, tal que $g(x)=1$ para todo $x$ en $[a,b]$, la cual claramente es continua.

Entonces, $$\langle f,g \rangle &\leq q(f)q(g),$$ que substituyendo las definiciones es
\begin{align*}
\left( \int_a ^b f(t)\, dt\right)^2 &\leq \left(\int_a ^b f(t)^2 \, dt\right)\left(\int_a ^b 1^2\, dt\right)\\
&= (b-a)\int_a ^b f(t)^2 \, dt
\end{align*}

$\square$

Problema 2. a) Sean $x_1, \dots, x_n \in \mathbb{R}$. Demuestra que
$$ (x_1^2+\dots +x_n^2)\left(\frac{1}{x_1^2} + \dots + \frac{1}{x_n^2}\right) \geq n^2.$$
b) Demuestra que si $f:[a,b]\longrightarrow (0,\infty)$ es una función continua, entonces $$\left ( \int_a^b f(t)dt \right) \left (\int_a^b \frac{1}{f(t)}dt \right) \geq (b-a)^2$$

Demostración. a) Considera $\mathbb{R}^n$ con el producto interior usual. Sean $a,b\in\mathbb{R}^n$ dados por
\begin{align*}
a&=(x_1,\dots,x_n)\\
b&=\left( \frac{1}{x_1},\dots, \frac{1}{x_n}\right ).
\end{align*}

La desigualdad de Cauchy-Schwarz afirma que $\lvert \langle a,b \rangle \rvert \leq \norm{a} \norm{b}$. Se tiene que

\begin{align*}
\langle a,b \rangle &= (x_1,\ldots,x_n)\cdot \left(\frac{1}{x_1},\ldots,\frac{1}{x_n}\right)\\
&=1+1+\ldots+1\\
&=n,
\end{align*}

de modo que
\begin{align*}
|n|&\leq \norm{a} \norm{b}\\
&=\sqrt{(x_1^2+\dots +x_n^2)}\sqrt{\left(\frac{1}{x_1^2}+\dots + \frac{1}{x_n^2}\right )}.
\end{align*}

Si elevamos al cuadrado ambos extremos de esta igualdad, obtenemos la desigualdad deseada.

$\square$

b) En el problema 1 de esta entrada vimos que $$\langle f,g \rangle = \int_a^b f(t)g(t) dt$$ es un producto interior para el espacio de funciones continuas en $[a,b]$, y el espacio de este problema es un subespacio del de funciones continuas, así que también define un producto interior aquí.

Para la función $f$ dada, definamos $\phi (t)=\sqrt{f(t)}$ y $\psi (t)=\frac{1}{\sqrt{f(t)}}$.
Notemos que $\phi$ y $\psi$ son continuas, y además como $\forall t\in [a,b]$ se tiene $f(t)\in(0,\infty)$, también tenemos que $\psi (t), \phi (t)\in (0,\infty)$.

Aplicando la desigualdad de Cauchy-Schwarz $$\langle \phi, \psi \rangle^2 \leq \langle \phi , \phi \rangle \langle \psi , \psi \rangle.$$

Entonces
$$ \left(\int_a^b \phi (t) \psi (t) dt\right)^2 \leq \left(\int_a^b \phi(t)^2 dt \right)\left( \int_a^b\psi (t)^2 dt \right).$$

Luego, substituyendo los valores de $\phi$ y $\psi$:
$$ \left( \int_a^b \sqrt{f(t)}\cdot \frac{1}{\sqrt{f(t)}}dt\right )^2 \leq \left(\int_a^b f(t) dt \right)\left ( \int_a^b\frac{1}{f(t)}dt \right).$$

Finalmente, haciendo la integral a la izquierda:
$$(b-a)^2\leq \left(\int_a^b f(t) dt \right)\left (\int_a^b \frac{1}{f(t)}dt \right).$$

$\square$

Hay algunos problemas de desigualdades en los reales que necesitan que usemos herramientas de desigualdades vectoriales.

Problema 3. Sean $x,y,z$ números mayores que 1, tales que $\frac{1}{x} + \frac{1}{y} + \frac{1}{z}=2$. Muestre que
$$\sqrt{x+y+x} \geq \sqrt{x-1} + \sqrt{y-1} + \sqrt{z-1}.$$


Demostración. Considera $\mathbb{R}^3$ con el producto interior usual y $u,v\in \mathbb{R}^3$ con
\begin{align*}
u&=\left(\sqrt{\frac{x-1}{x}}, \sqrt{\frac{y-1}{y}},\sqrt{\frac{z-1}{z}}\right),\\
v&=(\sqrt{x},\sqrt{y},\sqrt{z}).
\end{align*}

Aplicamos la desigualdad de Cauchy-Schwarz a $u$ y $v$:

\begin{align*}
\sqrt{x-1} +& \sqrt{y-1} + \sqrt{z-1}\\
&\leq \sqrt{\frac{x-1}{x}+\frac{y-1}{y}+\frac{z-1}{z}}\sqrt{x+y+z}\\
&=\sqrt{(1+1+1)-\left(\frac{1}{x}+\frac{1}{y}+\frac{1}{z}\right)}\sqrt{x+y+z}\\
&=\sqrt{3-2} \cdot \sqrt{x+y+z}\\
&=\sqrt{x+y+z}.
\end{align*}

Por lo tanto, $$\sqrt{x+y+x} \geq \sqrt{x-1} + \sqrt{y-1} + \sqrt{z-1}.$$

$\square$

Problema 4. Sea $f:[a,b]\longrightarrow (0,\infty)$ una función continua.
Demuestre que $$\int_a^b f(t)dt \leq \left ( (b-a)\int_a^b f(t)^2dt\right)^\frac{1}{2}.$$

Demostración. Ya vimos que $$\langle f,g \rangle = \int_a^b f(t)g(t)dt$$ es un producto interior para el espacio de funciones continuas.
Considera $g$ la función constante $1$.

Aplicando la desigualdad de Minkowski se tiene que
$$\sqrt{\langle f+g,f+g \rangle}\leq \sqrt{\langle f,f \rangle} + \sqrt{\langle g,g \rangle}$$

Tenemos entonces que:

$$\left ( \int_a^b (f(t)+1)^2 dt \right)^\frac{1}{2} \leq \left( \int_a^b f(t)^2 dt \right)^\frac{1}{2} + \left ( \int_a^b dt\right )^\frac{1}{2}.$$

Desarrollando el cuadrado en el lado izquierdo,
$$\left (\int_a^b f(t)^2 dt +2\int_a^b f(t)dt +(b-a) \right )^\frac{1}{2} \leq \left(\int_a^bf(t)^2dt \right)^\frac{1}{2} + (b-a)^\frac{1}{2}$$

Luego, elevando ambos lados de la ecuación al cuadrado
$$\int_a^b f(t)^2 dt + 2\int_a^b f(t) dt +(b-a)$$
$$\leq \int_a^b f(t)^2 dt +2\sqrt{b-a}\left( \int_a^b f(t)^2 dt\right)^\frac{1}{2} +(b-a)$$

Finalmente, cancelando términos igual en ambos lados, obtenemos la desigualdad deseada

$$\int_a^b f(t) dt \leq \left((b-a) \int_a^b f(t)^2 dt\right)^\frac{1}{2}.$$

$\square$

Tarea Moral

  • Resuelve el problema 2.b usando la desigualdad de Minkowski.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»