Archivo de la etiqueta: matrices

Geometría Analítica I: Producto de matrices

Por Paola Berenice García Ramírez

Introducción

En la entrada anterior definimos a un vector y a una matriz de una función lineal, podemos proceder a definir su producto. En esta entrada primero veremos cómo se realiza el producto de una matriz con un vector. Después trataremos la fuerte relación entre la composición de funciones y el producto de matrices. Con dicha relación, por último definiremos el producto de matrices cualesquiera.

Producto de una matriz con un vector

Si tenemos un matriz $A$ de $m\times n$, sabemos que una forma de ver a nuestra matriz es como un conjunto ordenado de $n$ vectores en $\mathbb{R}^n$ y entonces se escribe $A=(u_1, u_2, \cdots, u_n)$, con $u_{i} \in \mathbb{R}^n$, donde $i=1,2,\cdots,n$. También sabemos que cada vector al que haremos referencia tiene la notación $x=(x_1, x_2, \cdots, x_n )^T$.

Vamos a definir con estos conceptos al producto de una matriz $A$ por un vector $x$:

Definición. El producto de una matriz $A$ de dimensión $m\times n$ de la forma

\begin{equation*}
A = (u_1,u_2, \cdots, u_n),
\end{equation*}

por un vector de la forma

\[ x=(x_1, x_2, \cdots, x_n )^T = \left(\begin{array}{c}
x_1\\
x_2\\
\vdots\\
x_n
\end{array} \right);\]

se define por

\[ Ax = (u_1, u_2, \cdots, u_n )\left(\begin{array}{c}
x_1\\
x_2\\
\vdots\\
x_n
\end{array} \right) = x_1 u_1 + x_2 u_2 + \cdots + x_n u_n. \]

Veamos un ejemplo que nos apoye con la definición:

Ejemplo. Sean la matriz $A$ y el vector $x$ como sigue

\[ A = \left(\begin{array}{ccc}
4&7&-1\\
2&-3&1\\
5&4&-2
\end{array} \right), \hspace{0.5cm} y \hspace{0.5cm} x=(x,y,z)^T , \]

entonces el producto de la matriz $A$ con el vector $x$ será:

\[ Ax = \left(\begin{array}{ccc}
4&7&-1\\
2&-3&1\\
5&4&-2
\end{array} \right) \left(\begin{array}{c}
x\\
y\\
z
\end{array} \right) = x \left(\begin{array}{c}
4\\
2\\
5
\end{array} \right) + y \left(\begin{array}{c}
7\\
-3\\
4
\end{array} \right) + z \left(\begin{array}{c}
-1\\
1\\
-2
\end{array} \right) = \left(\begin{array}{c}
4x+7y-z\\
2x-3y+z\\
5x+4y-2z
\end{array} \right).\]

Ahora, para comprender mejor la definición del producto de matrices, que es el tema principal de esta entrada; es mejor hablar de su origen, el cual proviene de los sistemas lineales. Arthur Cayley (1821-1895) fue un matemático británico que analizaba los sistemas con dos ecuaciones y dos incógnitas:

\begin{align*}
ax + by &= x’ \\
cx + dy &= y’
\end{align*}

como transformación del plano donde a cada punto $(x,y)$ le corresponde el punto $(x’,y’)$.

A la función de $\mathbb{R}^2$ en $\mathbb{R}^2$ donde

\[ p(x) = \left(\begin{array}{c}
ax + by\\
cx + dy
\end{array} \right), \]

se le asocia la matriz

\[ \left(\begin{array}{cc}
a & b\\
c & d
\end{array} \right), \]

que es quien transforma el plano, moviendo cada punto $(x,y)$ a la posición $(x’,y’)$.

Ahora vamos a considerar otra matriz

\[ \left(\begin{array}{cc}
e & f\\
g & h
\end{array} \right), \]

quien también transformará al plano, pero el punto $(x’,y’)$ se moverá a la posición $(x´´,y´´)$ mediante el sistema:

\begin{align*}
ex’ + fy’ &= x´´ \\
gx’ + hy’ &= y´´.
\end{align*}

Si lo que deseamos es que las dos transformaciones se ejecuten una detrás de la otra, es decir, que el punto $(x,y)$ vaya a la posición $(x´´,y´´)$; entonces para la primera ecuación se tendrá:

\begin{align*}
x´´ &= ex’ + fy’\\
&= e(ax+by) + f(cx+dy)\\
&= (ae+cf)x +(be+df)y,
\end{align*}

y para la segunda ecuación tenemos:

\begin{align*}
y´´ &= gx’ + hy’\\
&= g(ax+by) + h(cx+dy)\\
&= (ag+ch)x +(bg+dh)y.
\end{align*}

En consecuencia, la composición de las dos transformaciones tiene por sistema a:

\begin{align*}
(ae+cf)x +(be+df)y &= x´´\\
(ag+ch)x +(bg+dh)y &= y´´.
\end{align*}

De hecho las definiciones de Cayley se generalizaron a cualquier dimensión. Con esta motivación vamos a definir el producto de matrices.

Multiplicación de matrices

Definición. Sean $f: \mathbb{R}^n \longrightarrow \mathbb{R}^m$ y $g: \mathbb{R}^m \longrightarrow \mathbb{R}^k$ dos funciones lineales, la composición $g \circ f: \mathbb{R}^n \longrightarrow \mathbb{R}^k$ también será lineal. Sean las matrices $A$ de tamaño $m\times n$ y $B$ de tamaño $k\times m$ que corresponden a $f$ y a $g$ respectivamente. Definimos al producto de matrices $BA$ como la matriz $k\times n$ que corresponde a la función lineal $g \circ f$.

Entonces $BA$ es la única matriz de $k\times n$ que cumple:

\begin{equation*}
(g\circ f)(x) = (BA) x, \hspace{0.25cm} \text{para todo} \hspace{0.25cm} x \in \mathbb{R}^n .
\end{equation*}

Para comprender la definición, recordemos que la matriz $A$ con tamaño $m\times n$ está asociada a la función lineal $f: \mathbb{R}^n \longrightarrow \mathbb{R}^m$ y la matriz $B$ con tamaño $k\times m$ está asociada a la función lineal $g: \mathbb{R}^m \longrightarrow \mathbb{R}^k$. La conversión se da por la convención existente en el orden en que se realiza la composición de funciones (hacia atrás).

La definición no nos indica cómo realizar la multiplicación de matrices, para lo cual conviene que recordemos primeramente que las columnas de una matriz son las imágenes de la base canónica bajo la función asociada. Entonces si $A=(u_1, u_2, \cdots, u_n )$ donde $u_i = f(e_i ) \in \mathbb{R}^m$, entonces $(g \circ f)(e_i) =g(f(e_i)) = g(u_i) = Bu_i$. Por tanto

\begin{equation*}
BA = B (u_1,u_2, \cdots, u_n) = (Bu_1, Bu_2, \cdots, Bu_n).
\end{equation*}

Ahora, para obtener las columnas de la nueva matriz, usaremos la multiplicación de $B$ por los vectores columna de $A$, que es la multiplicación que ya definimos en la primer parte de esta entrada.

Expresaremos cada una de las entradas de la matriz $BA$, pero nos conviene ver a la matriz $B$ como una columna de vectores renglón, obteniendo

\[ BA = \left(\begin{array}{c}
w_{1}^{T}\\
w_{2}^{T}\\
\vdots\\
w_{k}^{T}
\end{array} \right) \left(\begin{array}{c}
u_1, u_2, \cdots, u_n
\end{array} \right) = \left(\begin{array}{cccc}
w_1 \cdot u_1 & w_1 \cdot u_2 & \cdots & w_1 \cdot u_n\\
w_2 \cdot u_1 & w_2 \cdot u_2 & \cdots & w_2 \cdot u_n\\
\vdots& \vdots & \ddots &\vdots\\
w_k \cdot u_1 & w_k \cdot u_2 & \cdots & w_k \cdot u_n
\end{array} \right), \]

Con esta fórmula podemos ver porqué es importante que el número de filas de $B$ (los transpuestos de los vectores $w_i$) debe ser el mismo número de columnas de $A$ (los vectores $u_j$) y comprender la mecánica para obtener las entradas de una matriz $k \times n$ a partir de una matriz $B$ con tamaño $k \times m$ y una matriz $A$ con tamaño $m \times n$.

Ejemplo. Sean

\[ B = \left(\begin{array}{ccc}
2&-1&0\\
1&3&1
\end{array} \right), \hspace{0.5cm} y \hspace{0.5cm} A= \left(\begin{array}{cccc}
1&0&2&4\\
-1&-2&1&0\\
3&5&6&1
\end{array} \right), \]

El producto $BA$ está bien definido porque $B$ es de tamaño $3\times 4$ y $A$ es de tamaño $2\times 3$, por tanto $BA$ es una matriz de $2\times 4$. Las filas de $B$ serán $w_1$ y $w_2$ y las columnas de $A$ serán $u_1, u_2, u_3$ y $u_4$, es decir:

Por tanto, $BA$ es la matriz:

\[ BA = \left(\begin{array}{cccc}
3&2&3&8\\
1&-1&11&5
\end{array} \right). \]

Ejemplo. Tomemos las matrices $A$ y $B$ del ejemplo anterior, observemos que no podemos realizar el producto $AB$, ya que el número de columnas de $B$ es $4$ y el número de filas de $A$ es $2$ y éstos números no coinciden.

En conclusión, el producto de matrices no es conmutativo, de hecho, aunque existan ambos $AB$ y $BA$, éstos no tienen porqué coincidir.

Ejemplo. Sean \[ A = \left(\begin{array}{cc}
7&0\\
-1&0
\end{array} \right), \hspace{0.5cm} y \hspace{0.5cm} B= \left(\begin{array}{cc}
0&2\\
0&-5
\end{array} \right), \]

podemos calcular $AB$ y $BA$, obtenemos

\[ AB = \left(\begin{array}{cc}
0&14\\
0&-2
\end{array} \right), \hspace{0.5cm} y \hspace{0.5cm} BA= \left(\begin{array}{cc}
-2&0\\
5&0
\end{array} \right), \]

y vemos que $AB \neq BA.$

Tarea moral

  1. Aunque $A$ y $B$ no sean las matrices cero (cuyas entradas son todas cero), su producto sí puede serlo. Den un ejemplo de 2 matrices tales que $AB=0$, pero $A\neq 0$ y $B \neq 0$, donde $0$ es la matriz cero.
  2. Demuestra que si $A, B, C$ son matrices $2\times 2$, entonces $A(B+C) = AB +AC$ y $(A+B)C= AC +BC$.
  3. Demuestra que si $A,B, C$ son matrices de $3\times 3$, entonces $A(BC) = (AB)C$, es decir que el producto de matrices es asociativo. Por tanto, podemos escribir al producto simplemente como $ABC$.
  4. Sean

\[ A = \left(\begin{array}{ccc}
3&-1&4\\
2&5&-2\\
1&3&2
\end{array} \right), \hspace{0.5cm} B= \left(\begin{array}{cc}
1&3\\
-1&4\\
5&2
\end{array} \right), \hspace{0.5cm} C= \left(\begin{array}{cccc}
1&3&-1&2\\
-2&4&1&5\\
5&2&-3&1
\end{array} \right), \]

Realizar el producto de matrices $AB, BC, AC$ y justificar en caso de que no pueda efectuarse alguno de los productos.

Más adelante

En la primera parte de la unidad 3 vimos distintos tipos de transformación de funciones. Para la segunda parte definimos matrices de tamaño $m\times n$, matrices asociadas a funciones lineales y en esta entrada vimos la operación del producto de matrices.

A continuación vamos a ver algunas de las familias de matrices más representativas que están asociadas a funciones. Nos serán familiares dichas funciones porque las trabajamos en la primera parte de esta Unidad 3.

Enlaces relacionados

  • Página principal del curso:
  • Entrada anterior del curso:
  • Siguiente entrada del curso:

Geometría Analítica I: Matrices y funciones lineales

Por Paola Berenice García Ramírez

Introducción

En la entrada anterior vimos funciones lineales, un concepto fundamental y que sin él no podríamos definir formalmente al conjunto de las matrices en $\mathbb{R}^n$. Requerimos ver cómo los conceptos de función lineal y el de matriz se entrelazan; para comprender porqué a menudo se trabaja más con matrices asociadas a una función lineal cuando hablamos de transformaciones.

Matrices

Previo a la definición de nuestro interés en esta sección debemos recordarles quiénes son lo vectores canónicos de $\mathbb{R}^n$, ya que vamos a trabajar con ellos en esta entrada. Los vectores canónicos son aquellos formados por sólo una entrada igual a 1 y el resto de entradas son todas cero. Se denotan por $e_i$, donde $i=\{1,2,\cdots,n\}$ y el subíndice $i$ nos indica la posición de la entrada con 1.

Ejemplo. Si nos encontramos en $\mathbb{R}^3$, sus vectores canónicos son:

\begin{align*}
e_{1}&=(1,0,0),& e_{2}&=(0,1,0),& e_{3}&=(0,0,1).
\end{align*}

A continuación tomaremos una función lineal $f : \mathbb{R}^2 \longrightarrow \mathbb{R}^2$, donde $f(e_{1})=(4,3)$ y $f(e_{2})=(-1,2)$. Entonces $f$ se escribe como:

\begin{align*}
f(x,y) &= x(4,3) + y(-1,2)\\
&= (4x – y, 3x+2).\\
\end{align*}

Vemos que hay una clara desventaja en la forma en que representamos a $f$, porque podemos confundirnos al ordenar y separar comas. Si ahora consideramos a los vectores como columnas en lugar de filas, el reordenamiento será de la siguiente manera:

\[ f \left(\begin{array}{c}
x\\
y
\end{array} \right) = x \left(\begin{array}{c}
4\\
3
\end{array} \right) + y \left(\begin{array}{c}
-1\\
2
\end{array} \right) = \left(\begin{array}{c}
4x-y\\
3x+2y
\end{array} \right)\]

con lo cual, incluso ya no ocupamos las comas y el orden es más fácil. En consecuencia debemos definir esta notación.

Definición 1. Una matriz de orden o dimensión de $m \times n$ es una tabla con elementos con $m$ filas y $n$ columnas. Usualmente las matrices se representan con letras mayúsculas como $A, B, \cdots, etc$.

Definición 2. Un elemento o entrada de la matriz se designa mediante $a_{ij}$, donde el primer subíndice $i$ indica la fila en que se encuentra el elemento, mientras que el segundo subíndice $j$ es la columna en que lo encontramos.

Entonces una matriz de $m\times n$ es de la forma:

\[ A = \left(\begin{array}{cccc}
a_{11}&a_{12}&\cdots&a_{1n}\\
a_{21}&a_{22}&\cdots&a_{2n}\\
\vdots&\vdots&\ddots&\vdots\\
a_{m1}&a_{m2}&\cdots&a_{mn}
\end{array} \right).\]

Ejemplo. Como ejemplos de matrices tenemos a

\[ B= \left(\begin{array}{ccc}
2&3&4\\
6&-5&3\\
\end{array} \right), \hspace{1.5cm} C= \left(\begin{array}{ccc}
1&4&6\\
2&3&11\\
-7&4&8
\end{array} \right),\]

donde la matriz $B$ es de dimensión $2\times 3$, ya que tiene 2 filas y 3 columnas; mientras que $C$ es de dimensión $3\times 3$, con 3 filas y 3 columnas.

Deseamos que conozcan otra forma de definir a una matriz $A$ que nos será muy útil. A una matriz $A$ podemos verla como un conjunto ordenado de $n$ vectores en $\mathbb{R}^n$; esos vectores serán sus columnas, y entonces puede escribirse como:

\begin{equation*}
A = (u_1,u_2, \cdots, u_n),
\end{equation*}

donde

\[ u_i = \left(\begin{array}{c}
a_{1i}\\
a_{2i}\\
\vdots\\
a_{mi}
\end{array} \right) \in \mathbb{R}^m, \]

con $i=1,2,\cdots,n$.

Como escribiremos a los vectores en $\mathbb{R}^n$ como vectores columna y no como filas, entonces debemos tener otra notación que justifique dicho cambio.

Transpuesta de una matriz

Definición 3. La transpuesta de una matriz $A$ de dimensión $m \times n$ es una matriz $B$ de dimensión $n \times m$, que obtenemos después de intercambiar filas y columnas. De manera que los elementos cumplen

\begin{equation*}
b_{ij} = a_{ji},
\end{equation*}

donde $i=1,2,\cdots,m$ y $j=1,2,\cdots,n$. En general, se le denota a la transpuesta de $A$ por $A^T$.

Ejemplo. Vamos a escribir de nuevo las matrices del ejemplo anterior con sus respectivas transpuestas. Para la matriz $B$

\[ B= \left(\begin{array}{ccc}
2&3&4\\
6&-5&3\\
\end{array} \right),\]

su transpuesta $B^T$ es

\[ B^T = \left(\begin{array}{cc}
2&6\\
3&-5\\
4&3
\end{array} \right). \]

Y para la matriz $C$

\[ C= \left(\begin{array}{ccc}
1&4&6\\
2&3&11\\
-7&4&8
\end{array} \right),\]

su transpuesta $C^T$ es

\[C^T = \left(\begin{array}{ccc}
1&2&-7\\
4&3&4\\
6&11&8
\end{array} \right).\]

También nos falta definir otro concepto que nos será de utilidad con la notación que estamos construyendo.

Vectores columna

Definición 4. Un vector columna de orden $m$ es una ordenación de elementos en $m$ filas y que tiene una columna:

\[ a = \left(\begin{array}{c}
a_{1}\\
a_{2}\\
\vdots\\
a_{m}
\end{array} \right) \in \mathbb{R}^m, \]

Un vector fila de orden $n$ es una ordenación de elementos e $n$ columnas y que tiene una fila:

\begin{equation*}
c = (c_1,c_2, \cdots, c_n).
\end{equation*}

A este tipo de vectores como vemos, se les designa por una letra minúscula y de hecho la transpuesta de un vector fila es un vector columna y viceversa.

Entonces los vectores fila son los transpuestos de los vectores columna denotándolos por $x^T = (x_1,x_2, \cdots, x_n)$ o bien $x = (x_1,x_2, \cdots, x_n)^T$. Entonces, la notación que hasta ahora hemos presentado, la podemos ver reflejada con el siguiente ejemplo.

Ejemplo. Si tenemos que para $\mathbb{R}^2$ existen los dos vectores canónicos $e_1 = (1,0)$ y $e_2 = (0,1)$ y queremos representar los vectores como vectores columna, procedemos a escribir la notación de transpuesta previamente; es decir $e_1 = (1,0)^T$ y $e_2 = (0,1)^T$. Con ello podemos trabajar ahora los vectores como columnas:

\[ e_1= \left(\begin{array}{c}
1\\
0
\end{array} \right), \hspace{0.5cm} y \hspace{0.5cm} e_2 = \left(\begin{array}{c}
0\\
1
\end{array} \right).\]

Ahora tenemos las herramientas con las que podemos enlazar los conceptos de matriz con el de una función lineal; así que veamos a ver una definición muy importante para ello.

Matriz de una función lineal

Para continuar debemos observar que una matriz de tamaño $m\times n$ contiene la información de una función lineal de $\mathbb{R}^n$ en $\mathbb{R}^m$, invirtiendo el orden debido a la convención que existe debido al orden en que se realiza la composición de funciones.

Definición 5. A la matriz $A$ se le asocia la función lineal $f: \mathbb{R}^n \mapsto \mathbb{R}^m$ que manda al vector canónico $e_i \in \mathbb{R}^n$ en su i-ésima columna, es decir, $f(e_i) = u_i$, para $i=,2,\cdots,n$.

Ejemplo. Si recordamos a la función del inicio de esta entrada de $\mathbb{R}^2$ en $\mathbb{R}^2$ donde

\[ f(x) = \left(\begin{array}{c}
4x-y\\
3x+2y
\end{array} \right),\]

bueno pues a la función lineal de $\mathbb{R}^2$ en $\mathbb{R}^2$ se le asocia la matriz

\[ f(x) = \left(\begin{array}{cc}
4&-1\\
3&2
\end{array} \right).\]

Observemos bien cómo la variable $x$ está asociada a la primer columna y la variable $y$ a la segunda columna.

Tarea moral

  1. Para el primer ejercicio vamos a dar una definición:

Definición. La suma de dos matrices $A$, $B$, ambas de dimensión $m \times n$, se llama matriz suma de $A$ y $B$ y se denota $C=A+B$ a la matriz $C$ de dimensión $m \times n$ tal que

\begin{equation*}
a_{ij} = a_{ij} + b_{ij}, \hspace{0.3cm} i=1,2,\cdots,m; \hspace{0.2cm} j=1,2,\cdots,n.
\end{equation*}

Calcular la suma de $A+B$, $B+C$ y $A+C$ con las matrices:

\[ A = \left(\begin{array}{cc}
3&8\\
4&-2
\end{array} \right), \hspace{1.5cm} B= \left(\begin{array}{cc}
1&-1\\
3&-2
\end{array} \right), \hspace{1.5cm} C= \left(\begin{array}{cc}
2&-5\\
6&4
\end{array} \right).\]

2. De las siguientes matrices , calcular sus transpuestas:

\[ D = \left(\begin{array}{cc}
1&3\\
5&7\\
9&11\\
-1&4
\end{array} \right), \hspace{1.5cm} B= \left(\begin{array}{c}
-1\\
5\\
3\\
2
\end{array} \right), \hspace{1.5cm} C= \left(\begin{array}{ccc}
1&3&-5\\
4&7&-9
\end{array} \right). \]

3. De la siguiente función $g: \mathbb{R}^2 \longrightarrow \mathbb{R}^2$ dada por:

\[ g(x) = \left(\begin{array}{c}
6x-8y\\
-2x+81y
\end{array} \right),\]

¿Cuál es la matriz asociada a la función lineal?.

Más adelante

Ahora que definimos a un vector y a una matriz de una función lineal, podemos proceder a definir su producto. En la siguiente entrada primero veremos cómo se realiza el producto de una matriz con un vector y después definir el producto de matrices cualesquiera. Además se darán cuenta de la fuerte relación que hay entre la composición de funciones y el producto de funciones.

Enlaces relacionados

  • Página principal del curso:
  • Entrada anterior del curso:
  • Siguiente entrada del curso:

Álgebra Lineal II: El teorema de descomposición polar real

Por Ayax Calderón

Introducción

En la entrada anterior enunciamos y demostramos el teorema espectral para matrices simétricas reales. Una de las consecuencias de este teorema es el teorema de descomposición polar. Se puede pensar en el teorema de descomposición polar como al análogo a un resultado muy conocido de números complejos: cualquier número complejo se puede pensar de la forma $z=e^{i\theta}r$ con $r\geq 0$ real. Geométricamente, el complejo se obtiene «rotando tanto como el argumento y luego alargando de acuerdo a la norma».

Así mismo, veremos que toda matriz $A$ tendrá una expresión de la forma $A=US$ donde $U$ es una matriz ortogonal (que juega el papel de «la rotación») y $S$ es una matriz simétrica positiva (que por el teorema espectral recordemos que es básicamente «alargar en varias direcciones»). Este resultado es increíble: ¡nos dice cómo son todas, todas las matrices reales en términos de matrices muy sencillas: las ortogonales (que conocemos muy bien) y las simétricas (que por el teorema espectral también conocemos muy bien)!

Caso invertible del teorema de descomposición polar

Recordemos un resultado de la entrada anterior, que era una de las partes de nuestro teorema de clasificación de matrices positivas. Nos dice que las matrices simétricas positivas «tienen raíz cuadrada».

Proposición. Sea $A$ una matriz simétrica positiva. Entonces existe una matriz simétrica $B$ tal que $B^2=A$.

Como recordatorio, para obtener a $B$ lo que hicimos fue diagonalizar a $A$ de la forma $A=P^{-1}DP$ con $D$ matriz diagonal cuyas entradas eran $\lambda_1,\ldots,\lambda_n$ los eigenvalores de $A$. Como $A$ era positiva, sus eigenvalores eran no negativos, así que podíamos construir $D’$ con entradas $\sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}$. Después, vimos que $B=P^{-1}D’P$ servía para que $B^2=A$. Observa que además $B$ es positiva pues sus eigenvalores son no negativos.

Como observación adicional, si $A$ fuera positiva definida entonces sus eigenvalores serían positivos, y entonces $B$ también tendría eigenvalores positivos. Así, $B$ sería positiva definida también. De hecho, se puede demostrar que en este caso la matriz $B$ es única (bajo la condición de ser simétrica positiva definida y raíz de $A$). Probar esto queda como parte de los ejercicios de la entrada.

Estamos listos para enunciar y demostrar el teorema de descomposición polar en el caso de matrices invertibles.

Teorema (De descomposición polar, caso invertible). Sea $A\in M_n(\mathbb{R})$ una matriz invertible. Entonces existe una única pareja $(U,S)$ con $U$ una matriz ortogonal y $S$ una matriz simétrica positiva definida para la que se cumple que $A=US$.

Demostración. Tomemos $A\in M_n(\mathbb{R})$ una matriz invertible. La matriz $^tAA$ es simétrica y positiva definida. Por la discusión anterior, existe una única matriz simétrica positiva definida $S$ tal que $^tAA=S^2$. Como $A$ es invertible, $S$ también lo es, así que definamos $$U=AS^{-1}.$$

Afirmamos que $(U,S)$ cumplen con lo requerido. Ya justificamos que $S$ es simétrica positiva definida. Además, de $U=AS^{-1}$ se obtiene inmediatamente $US=A$. Sólo falta verificar que $U$ es ortogonal. Para ello, al multiplicarla con su transpuesta obtenemos lo siguiente:
\begin{align*}
^tUU&=\hspace{.5mm}^tS^{-1}\hspace{.5mm}^tAAS^{-1}\\
&=S^{-1}S^2S^{-1}\\
&=I_n.
\end{align*}

Veamos ahora la unicidad. Supongamos que $A=U’S’$ con $U’$ ortogonal y $S’$ simétrica positiva definida, Entonces
$$^tAA=S’\hspace{.5mm}^tU’U’S’={S’}^2.$$

De esta manera, $S’$ es precisamente la raíz cuadrada de $^tAA$, que por la discusión anterior es única. Deducimos entonces que $S’=S$ y por lo tanto $U’=A{S’}^{-1}=AS^{-1}=U$.

$\square$

Caso general del teorema de descomposición polar

Es natural preguntarse qué sucede cuando la matriz $A$ no es invertible. Resulta que en ese caso aún podemos encontrar una descomposición, aunque perdemos un poco de las propiedades de las matrices y la unicidad. Por ejemplo, si $A=O_n$, entonces $A=UO_n$ para cualquier matriz ortogonal $U$ y entonces tenemos muchas posibles descomposiciones.

Teorema (De descomposición polar, caso general). Cualquier matriz $A\in M_n(\mathbb{R})$ se puede escribir de la forma $A=US$ con $U$ una matriz ortogonal y $S$ una matriz simétrica positiva.

¿Por qué falla nuestra demostración? Todavía tenemos que $^tAA$ es positiva, así que podríamos tomar una raíz cuadrada $S$. El problema es que como $A$ no es invertible, entonces $S$ tampoco lo es. Por ello, no podemos definir $U=AS^{-1}$ como lo hicimos con anterioridad. Sin embargo, podemos ser astutos y «cambiar tantito» a $A$ para que sí se vuelva invertible. De hecho, podemos tomar muchas matrices que se acercan a $A$ y sí son invertibles. Con ello podemos usar un «argumento al límite». Formalicemos estas ideas.

Demostración. Consideremos las matrices $A_k=A+\frac{1}{k}I_n$. Recordemos que $\det(A+\lambda I_n)$ es un polinomio de grado $n$ así que tiene a lo más $n$ raíces. Por ello, existe un $k_0$ tal que para toda $k>k_0$ la matriz $A_k$ es invertible. Al aplicar el teorema de descomposición polar a cada una de dichas $A_k$, obtenemos una matriz ortogonal $U_k$ y una simétrica positiva definida $S_k$ tales que

$$A_k=U_kS_k.$$

Las entradas de cada $U_k$ cumplen que están en el intervalo $[-1,1]$ (pues la suma de las entradas de cada fila es igual a $1$). Así, $U_k$ es una sucesión de matrices en el compacto de matrices con entradas $[-1,1]$. En un compacto toda sucesión tiene una subsucesión convergente, así que podemos elegir una subsucesión de estas matrices, digamos $U_{k_1}, U_{k_2},\ldots$ que converge a una matriz $U$.

Se puede ver que el producto de matrices es continúo y obtener inversas de matrices también es continuo (por ejemplo, por las fórmulas de inversa por matriz de adjuntos). De este modo, aplicando límite $j\to \infty$ a la igualdad $^tU_{k_j}U_{k_j}=I_n$ obtenemos que $^tU=I_n$, de modo que $U$ es ortogonal.

Del mismo modo, como trasponer es continuo, $S_{k_1}, S_{k_2},\ldots$ converge a una matriz simétrica $S$. Finalmente, usando nuevamente la continuidad del producto de matrices obtenemos

\begin{align*}
A&=\lim_{j\to \infty} A_{k_j}\\
&=\lim_{j\to \infty} U_{k_j} S_{k_j}\\
&=US.
\end{align*}

Sólo nos falta demostrar que $S$ es positiva, pero si tomamos $X\in\mathbb{R}^n$, entonces pasando al límite $j\to \infty$ en la desigualdad $^tXS_{k_j}X > 0$ obtenemos $^tXSX\geq 0$. Aquí es donde se podría perder que $S$ es positiva definida, pero seguimos teniendo que $S$ es positiva.

$\square$

Más adelante…

Tanto el teorema espectral como el teorema de descomposición polar son resultados de caracterización fundamentales en álgebra lineal y finalmente nos dan una respuesta a la pregunta de, geométricamente, cómo son todas las posibles transformaciones lineales. En las siguientes secciones se esbozarán los resultados análogos para el caso complejo.

Después de ello, en la cuarta unidad del curso cubriremos otro teorema que nos permitirá decir «cómo son todas las matrices». Quizás no todas las matrices sean directamente similares a una matriz diagonal. Pero enunciaremos y demostraremos el teorema de Jordan que dirá que cualquier matriz es similar a una «casi diagonal», a la que llamaremos diagonal por bloques.

Tarea moral

  1. Sean que $A$ y $B$ son matrices simétricas. Demuestra que $A$ y $B$ conmutan si y sólo si existe una misma matriz $P$ tal que $PAP^{-1}$ y $PBP^{-1}$ son diagonales (a esto se le conoce como que $A$ y $B$ sean «simultáneamente diagonalizables»)
  2. Usando el ejercicio anterior, demuestra que si $A$ es simétrica positiva definida, y se cumple $B^2=A=C^2$ con $B$ y $C$ matrices simétricas positivas definidas, entonces $B=C$.
  3. Sean $A,B\in M_n(\mathbb{R})$ matrices tales que $^tAA=^tBB$. Demuestra que existe una matriz ortogonal $U\in M_n(\mathbb{R})$ tal que $B=UA$.
  4. Encuentra la descomposición polar de $$\begin{pmatrix}
    11 & -5\\
    -2 & 10 \end{pmatrix}.$$
  5. Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Matrices positivas y congruencia de matrices

Por Diego Ligani Rodríguez Trejo

Introducción

Ya hablamos de las matrices asociadas a formas bilineales (y sesquilineales), y de formas cuadráticas (y cuadráticas hermitianas). Así mismo, tomamos un pequeño paréntesis para recordar qué es un producto interior y un espacio euclideano. Además, vimos las nociones análogas para el caso complejo.

Lo que haremos ahora es conectar ambas ideas. Extenderemos nuestras nociones de positivo y positivo definido al mundo de las matrices. Además, veremos que estas nociones son invariantes bajo una relación de equivalencia que surge muy naturalmente de los cambios de matriz para formas bilineales (y sesquilineales).

Congruencia de matrices

En las entradas de matrices de formas bilineales y matrices de formas sesquilineales vimos cómo obtener matrices asociadas a una misma forma bilineal (o sesquilineal) usando distintas bases. Dos matrices $A$ y $A’$ representaban a la misma forma bilineal en distintas bases si y sólo si existía una matriz de cambio de base $P$ tal que $$A’= \text{ }^tP A P,$$ en el caso real, o bien tal que $$A’=P^\ast A P,$$ en el caso complejo.

Definición. Sean $A$ y $B$ matrices simétricas en $M_n(\mathbb{R})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{R})$ tal que $$A=\text{ } ^tP B P.$$

Definición. Sean $A$ y $B$ matrices hermitianas en $M_n(\mathbb{C})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{C})$ tal que $$A=P^\ast B P.$$

Las definiciones anteriores están restringidas a las matrices simétricas (o hermitianas, respectivamente). Se podrían dar definiciones un poco más generales. Sin embargo, a partir de ahora nos enfocaremos únicamente a resultados que podamos enunciar para matrices simétricas (o hermitianas, respectivamente).

Proposición. La relación «ser congruentes» es una relación de equivalencia, tanto en el caso real, como en el caso complejo.

Demostración. Daremos la demostración en el caso real. El caso complejo queda como ejercicio. Empecemos con la reflexividad. Esto es claro ya que la matriz identidad $I_n$ es invertible y se tiene la igualdad

\begin{align*} A=\text{ } ^tI_nAI_n.\end{align*}

Para la simetría, supongamos que tenemos matrices $A$ y $B$ en $M_n(\mathbb{R})$ tales que $A$ es congruente a $B$ con la matriz invertible $P$ de $M_n(\mathbb{R})$, es decir, tales que

\begin{align*} A=\text{ } ^tPBP.\end{align*}

Como $P$ es invertible, su transpuesta también. De hecho, $(^tP)^{-1}=\text{ } ^t(P^{-1})$. Así, podemos multiplicar por la inversa de $^tP$ a la izquierda y la por la inversa de $P$ a la derecha para obtener

\begin{align*} ^t(P^{-1})AP^{-1}=B.\end{align*}

Esto muestra que $B$ es congruente a $A$.

Finalmente, veamos la transitividad. Supongamos que $A$ es congruente a $B$ mediante la matriz invertible $P$ y que $B$ es congruente a $C$ mediante la matriz invertible $Q$. Tendríamos entonces las igualdades

\begin{align*}
A&= \text{ }^t PBP,\\
B&= \text{ }^t QCQ,
\end{align*}

de donde $$A= \text{ }^tP \text{ }^tQCQP= \text{ }^t (QP) C (QP).$$ Esto muestra que $A$ es congruente a $C$ mediante la matriz $QP$, que como es producto de invertibles también es invertible.

$\square$

Clasificación de matrices simétricas por congruencia

¿Será posible para cualquier matriz simétrica encontrar una matriz congruente muy sencilla? La respuesta es que sí. El siguiente teorema puede pensarse como una versión matricial del teorema de Gauss.

Teorema. Cualquier matriz simétrica en $M_n(\mathbb{R})$ es congruente a una matriz diagonal.

Demostración. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y sea $q$ la forma cuadrática en $\mathbb{R}^n$ asociada a $A$ en la base canónica, es decir, aquella tal que $$q(X)=\text{ }^tXAX,$$ para cualquier vector $X\in \mathbb{R}^n$.

Lo que tenemos que hacer es encontrar una base de $\mathbb{R}^n$ en la cual la matriz asociada a $q$ sea diagonal. Haremos esto mediante el teorema de Gauss. Por ese resultado, existen reales $\alpha_1,\ldots,\alpha_r$ y formas lineales linealmente independientes $l_1,\ldots,l_r$ tales que $$q(x)=\sum_{i=1}^r \alpha_i l_i(x)^2.$$

Completemos $l_1,\ldots,l_r$ a una base $l_1,\ldots,l_n$ de $(\mathbb{R}^n)^\ast$. Tomemos la base $u_1,\ldots, u_n$ de $\mathbb{R}^n$ dual a $l_1,\ldots,l_n$. Esta es la base que nos ayudará. Recordemos que la definición de base dual hace que tengamos

\begin{align*} l_i(u_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$,}
\end{cases}
\end{align*}

y que por lo tanto las funciones $l_i$ «lean» las coordenadas de un vector en la base de las $u_i$. Tomemos un vector cualquiera $x\in \mathbb{R}^n$ y escribámoslo en la base de las $u_i$ como $x=\sum_{i=1}^n x_iu_i$. Definiendo $\alpha_{r+1}=\ldots=\alpha_n=0$, tenemos que:

\begin{align*}
q(x)&= \sum_{i=1}^n \alpha _i l_i(x)^2\\
&= \sum_{i=1}^n \alpha_i x_i^2.
\end{align*}

Esto nos dice que la matriz asociada a $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz diagonal $D$ que tiene en la diagonal a los coeficientes $\alpha_i$. Esto muestra lo que queríamos.

$\square$

El teorema también tiene una versión compleja.

Teorema. Cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.

La demostración es similar. Usa el teorema de Gauss complejo. Por esta razón, queda como ejercicio.

Estos resultados parecen una curiosidad algebraica. Sin embargo, pronto veremos que tienen consecuencias importantes como la clasificación de todos los productos interiores (y los productos interiores hermitianos).

Matrices positivas y positivas definidas

En entradas anteriores definimos qué quiere decir que una forma bilineal (o sesquilineal) sea positiva o positiva definida. Podemos dar una definición análoga para matrices. Nos enfocaremos sólo en matrices simétricas (en el caso real) y en matrices hermitianas (en el caso complejo).

Definición. Una matriz simétrica $A$ en $M_n(\mathbb{R})$ es positiva si para cualquier $X\in \mathbb{R}^n$ se tiene que $^tXAX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Definición. Una matriz hermitiana $A$ en $M_n(\mathbb{C})$ es positiva si para cualquier $X\in \mathbb{C}^n$ se tiene que $X^\ast AX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Es sencillo ver que entonces una matriz $A$ real (o compleja) que sea positiva definida da un producto interior (o bien un producto interior hermitiano) en $\mathbb{R}^n$ (o bien en $\mathbb{C}^n$) dado por $\langle X,Y\rangle = \text{ } ^tX A Y$, (o bien por $\langle X,Y\rangle = X^\ast A Y$). Y viceversa, un producto interior (o producto interior hermitiano) tiene representaciones matriciales que son positivas definidas. Esto no depende de la base elegida.

Proposición. Si $A,B \in M_n(\mathbb{R})$ son matrices congruentes y $A$ es una matriz positiva, entonces $B$ también lo es.

Demostración. Supongamos que la congruencia se da mediante la matriz invertible $P$ de la siguiente manera: $$B=\text{ }^t P A P.$$

Tomemos un vector $X\in \mathbb{R}^n$. Tenemos que:

\begin{align*}
^t X B X &= \text{ }^t X \text{ } ^t P A P X\\
&=\text{ } ^t(PX) A (PX)\\
&\geq 0.
\end{align*}

En la última igualdad estamos usando que $A$ es positiva. Esto muestra lo que queremos.

$\square$

Dicho en otras palabras, en el mundo real las congruencias preservan las positividades de matrices. También puede demostrarse que las congruencias preservan las positividades definitivas. Y así mismo, se tienen resultados análogos para el caso complejo. En la sección de ejercicios viene uno de estos resultados.

Clasificación de matrices positivas

Es sencillo ver si una matriz real diagonal $D$ es positiva. Todas las entradas en su diagonal deben de ser mayores o iguales a cero. En efecto, si su $i$-ésima entrada en la diagonal fuera un número $d_{ii}<0$, entonces para el $i$-ésimo vector canónico $e_i$ de $\mathbb{R}^n$ tendríamos $^te_i D e_i=d_{ii}<0$, lo cual sería una contradicción.

Combinando esto con todo lo hecho en esta entrada, obtenemos un teorema de clasificación de matrices positivas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. $A$ es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$.

Demostración. 1) implica 2). Sabemos que $A$ es congruente a una matriz diagonal. Como $A$ es positiva, dicha matriz diagonal también lo es. Por el comentario antes del enunciado del teorema, dicha matriz diagonal debe tener únicamente entradas mayores o iguales que 0.

2) implica 3). Supongamos que $A=\text{ }^t P D P$, en donde $P$ es invertible y $D$ tiene únicamente entradas no negativas $d_1,\ldots,d_n$ en la diagonal. Definamos a $S$ como la matriz diagonal de entradas $\sqrt{d_1}, \ldots, \sqrt{d_n}$. Tenemos que $$D=S^2=SS=\text{ }^tSS.$$ De este modo, definiendo $B=SP$ obtenemos \begin{align*}A&= \text{ }^t P D P\\ &= ( \text{ }^t P \text{ }^t S) (SP) \\&= \text{ }^t (SP) SP \\&= \text{ }^t B B,\end{align*} como queríamos.

3) implica 1). Supongamos que $A= \text{ }^t B B$ para alguna matriz $B$. Para cualquier $X\in \mathbb{R}^n$ tendríamos que $$ \text{ }^t X A X = \text{ }^t (BX) BX = \norm{BX}\geq 0.$$ Aquí la norma es con respecto al producto interior canónico de $\mathbb{R}^n$. Esto es lo que queríamos.

$\square$

También existe un teorema análogo que clasifica las matrices positivas definidas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva definida.
  2. $A$ es congruente a una matriz diagonal con puras entradas diagonales positivas.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$ invertible.

Y, así mismo, existen análogos para matrices hermitianas con entradas en los complejos.

Más adelante…

En esta entrada definimos la relación de congruencia de matrices. Vimos qué son las matrices positivas y las positivas definidas. Además, vimos que la congruencia preserva estas nociones.

Podemos ser mucho más finos con nuestro análisis. Si tenemos una matriz simétrica, por los resultados de esta entrada es congruente a una matriz diagonal. Podemos fijarnos en cuántas entradas positivas, cuántas negativas y cuántas cero hay en esta diagonal. En la siguiente entrada veremos que las congruencias también preservan estas cantidades.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Demuestra que cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.
  2. Demuestra que si $A$ es una matriz en $M_n(\mathbb{C})$ hermitiana y positiva definida, y $B$ es una matriz en $M_n(\mathbb{C})$ hermitiana y congruente a $A$, entonces $B$ también es positiva definida.
  3. Sea $n \geq 1$ y $A=[a_{ij}] \in M_n(\mathbb{R})$ definida por $a_{ij}=min(i,j)$, prueba que $A$ es simétrica y definida positiva.
  4. Sea $A=[a_{ij}] \in M_n(\mathbb{R})$ tal que $a_{ij}=1$ si $i \neq j$ y $a_{ii} > 1$ si $1 \leq i \leq n$. Prueba que $A$ es simétrica y definida positiva.
  5. Demuestra que una matriz hermitiana $A\in M_n(\mathbb{C})$ es positiva si y sólo si puede ser escrita de la forma $A=BB^\ast$ para alguna matriz $B\in M_n(\mathbb{C})$, y que es positiva definida si y sólo si tiene una expresión así con $B$ invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Matrices de formas bilineales

Por Diego Ligani Rodríguez Trejo

Introducción

Al principio de esta unidad, especialmente en la entrada del teorema de Gauss empezamos a hablar de una relación entre formas bilineales y matrices. Aquí formalizaremos esta relación. Veremos cómo se define la matriz asociada a una forma bilineal y cómo podemos traducir operaciones con la forma bilineal en operaciones con su matriz asociada.

Matriz asociada a una forma bilineal y una forma cuadrática

En toda esta entrada, $V$ es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.

Definición. Sea $ e_1, \cdots , e_n$ una base de $V$ y $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal de $V$. La matriz de $b$ con respecto a la base $e_1,\ldots, e_n$ es la matriz

\begin{align*} A=[a_{ij}] \text{ con } a_{ij}=b(e_i,e_j),\end{align*}

para todo $i,j$ tal que $1 \leq i,j \leq n$.

Para definir la forma matricial de una forma cuadrática tenemos que ser un poco más cuidadosos. Hay más de una forma bilineal que puede generar a una misma forma cuadrática. Sin embargo, por la identidad de polarización tenemos que esta forma bilineal es única si pedimos adicionalmente que sea simétrica. De aquí obtenemos la siguiente definición.

Definición. Sea $e_1, \cdots , e_n$ una base de $V$ y $q$ una forma cuadrática de $V$, la matriz de $q$ con respecto a la base $e_1, \ldots, e_n$ es la matriz de su forma polar en esa misma base.

Problema. Sea $V=\mathbb{R}^3$ y $q$ dada como sigue
\begin{align*} q(x)=x_1x_2+x_2x_3+x_3x_1,\end{align*}

para cada $x=(x_1,x_2,x_3)\in \mathbb{R}^3$.

Encuentra su matriz asociada $A$ en la base canónica y su matriz asociada $B$ en la base \begin{align*}u_1&=(1,1,0),\\ u_2&=(1,0,1),\\ u_3&=(0,1,1).\end{align*}

Solución. Primero, mediante la identidad de polarización tenemos que la forma polar $b$ de $q$ cumple que $b(x,x’)$ es

\begin{align*} \frac{x’_1x_2+x’_2x_1+x’_1x_3+x’_3x_1+x’_2x_3+x’_3x_2}{2} ,\end{align*}

para $x=(x_1,x_2,x_3)$ y $x’=(x’_1,x’_2,x’_3)$.

Ahora, calculemos qué le hace esta forma bilineal a la base canónica de par en par.

\begin{align*}
&b(e_1,e_1)=b(e_2,e_2)=b(e_3,e_3)=0 \\
\text{y} \quad &b(e_1,e_2)=b(e_1,e_3)=b(e_2,e_3)=\frac{1}{2}.
\end{align*}

Por lo que su matriz asociada en la base canónica es

\begin{align*} A=\begin{pmatrix} 0 & \frac{1}{2} & \frac{1}{2} \\
\frac{1}{2} & 0 & \frac{1}{2} \\
\frac{1}{2} & \frac{1}{2} & 0 \end{pmatrix}\end{align*}

Por otro lado, calculando lo que $b$ le hace a nuestra otra base

\begin{align*}
&b(u_1,u_1)=b(u_2,u_2)=b(u_3,u_3)=1 \\
\text{y} \quad &b(u_1,u_2)=b(u_1,u_3)=b(u_2,u_3)=\frac{3}{2}
\end{align*}

Y construyendo esta otra matriz:

\begin{align*}
B=\begin{pmatrix} 1 & \frac{3}{2} & \frac{3}{2} \\
\frac{3}{2} & 1 & \frac{3}{2} \\
\frac{3}{2} & \frac{3}{2} & 1
\end{pmatrix}
\end{align*}

$\triangle$

Evaluar la forma bilineal con su matriz

En la entrada del teorema de Gauss vimos que si $b$ es una forma bilineal de $V$ y $e_1,\ldots,e_n$ es una base, entonces para cualesquiera vectores

\begin{align*}
x&=x_1e_1+\ldots+x_ne_n\\
y&=y_1e_1+\ldots+y_ne_n
\end{align*}

tenemos que $$b(x,y)=\sum_{i=1}^n \sum_{j=1}^n x_i y_j b(e_i,e_j).$$

Por la regla del producto de matrices, la expresión de la derecha es precisamente lo que se obtiene al realizar la siguiente operación:

$$^t{X} \begin{pmatrix}b(e_1,e_1) & b(e_1,e_2) & \ldots & b(e_1,e_n)\\ b(e_2,e_1) & b(e_2,e_2) & \ldots & b(e_2,e_n)\\ \vdots & & \ddots & \vdots \\ b(e_n,e_1) & b(e_n,e_2) & \ldots & b(e_n,e_n) \end{pmatrix} Y,$$

donde $X=(x_1,\ldots,x_n)$ y $Y=(y_1,\ldots,y_n)$.

Notemos que en medio tenemos justo la forma matricial de $b$ en la base $e_1,\ldots,e_n$. Al lado izquierdo tenemos al transpuesto del vector de coordenadas de $x$ en la base $e_1,\ldots, e_n$ y al lado derecho tenemos al vector de coordenadas de $y$ en esta misma base. Hemos demostrado lo siguiente.

Proposición. Sea $b$ una forma bilineal de $V$ y $\beta$ una base de $V$. Sea $A$ la matriz de $b$ en la base $\beta$. Sean $X$ y $Y$ los vectores de coordenadas de vectores $x$ y $y$ de $V$ en la base $\beta$, respectivamente. Entonces $$b(x,y)=\text{}^tXAY.$$

Algunas consecuencias de la proposición anterior son:

  • Una forma bilineal es simétrica si y sólo si su matriz en una base cualquiera es simétrica.
  • Si fijamos la base $\beta$ y la forma bilineal $b$, entonces la matriz que hace que $b(x,y)=\text{}^tXAY$ para todos $x,y$ es única.

La discusión anterior nos permite comenzar con una forma bilineal $b$ y una base $\beta$ y obtener una (y sólo una) matriz. Partiendo de una matriz y una base $\beta$ también podemos obtener una forma bilineal mediante la regla $$b(x,y)=\text{}^tXAY.$$

Cambios de base

En los resultados anteriores al fijar un espacio vectorial $V$ de dimensión $n$ y una base $\beta$ obtenemos una asociación biyectiva (de hecho un isomorfismo) entre formas bilineales de $V$ y matrices en $M_n(\mathbb{R})$.

Sin embargo, al cambiar la base de $V$, la matriz que representa a una forma bilineal puede cambiar.

Proposición. Supongamos que una forma bilineal $b$ tiene asociada una matriz $A$ con respecto a una base $\beta$ y una matriz $A’$ con respecto a otra base $\beta’$. Sea $P$ la matriz de cambio de base de $\beta$ a $\beta’$. Entonces
\begin{align*} A’=\text{ } ^tPAP.\end{align*}

Demostración. Sean $x,y \in V$ dos vectores cualesquiera. Escribamos $\beta = \{u_1, \cdots , u_n\}$ y $\beta’ = \{u’_1, \cdots , u’_n\}$. Usando $\beta$ escribamos

\begin{align*} x=x_1u_1 + \cdots + x_nu_n.\end{align*}

Definamos a $X$ como el vector columna de las coordenadas de $x$ en la base $\beta$, es decir:

$$X=\begin{pmatrix} x_1 \\
\vdots \\
x_n \end{pmatrix}.$$

Definimos análogamente a $X’, Y, Y’$ como los vectores columnas de coordenadas de $x$ en la base $\beta’$, de $y$ en la base $\beta$ y de $y$ en la base $\beta’$, respectivamente.

Sabemos entonces que

\begin{align*} b(x,y)= \text{ }^tXAY= \text{ }^tX’A’Y’\end{align*}

Además, sabemos que

\begin{align*}
X&=PX’\\
Y&=PY’
\end{align*}

De aquí se tiene la siguiente cadena de igualdades:

\begin{align*}
\text{ }^tX’A’Y’&= b(x,y)\\
&=\text{ }^tXAY\\
&=\text{ }^t(PX’)A(PY’)\\
&=\text{ }^tX’\text{ }^tPAPY’.
\end{align*}

Fijándonos en los extremos

\begin{align*} \text{ }^tX’A’Y’=\text{ }^tX’\text{ }^tPAPY’. \end{align*}

Por la unicidad de la matriz que representa a $b$ en la base $\beta’$, finalmente concluimos que

\begin{align*} A’=\text{ } ^tPAP.\end{align*}

$\square$

Más adelante…

Esta es una pequeña introducción a la relación entre las formas bilineales (y cuadráticas por extensión) y las matrices. Podemos ver que ésta nos dio otra manera de entender y calcular a las formas bilineales. Algo que no hemos explorado es el poder que esta relación nos entrega al aplicar todo lo que conocemos acerca de matrices a las matrices asociadas a una forma bilineal. Antes de llegar a eso, primero veremos el análogo complejo de lo que acabamos de estudiar.

Otro problema que enfrentamos es la dependencia de las matrices a su base. Aunque este no es un problema que podamos evitar, nos gustaría encontrar propiedades que se mantengan sin importar la base que sea elegida. Esto lo abordaremos un poco más adelante. De hecho, cuando lo hagamos estaremos listos para enunciar y demostrar un resultado muy interesante: la ley de inercia de Sylvester.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= (x+2y+3z)^2+(y+z)^2. \end{align*}
    Prueba que $q$ es cuadrática y encuentra su forma polar. ¿Es esta forma cuadrática $q$ positiva definida? ¿Es positiva?
  2. Encuentra la matriz $A$ asociada a la forma cuadrática $q$ del ejercicio anterior con respecto a la base canónica y la matriz $B$ asociada a $q$ con respecto a la base $(1,1,1), (0,-1,-1),(0,0,2)$.
  3. Encuentra las matrices de cambio de base entre la base canónica y la base del inciso anterior. Verifica que se cumple el resultado de cambios de base.
  4. Encuentra una expresión de Gauss para $q$.
  5. Encuentra el rango de $A$ y de $B$. Encuentra el determinante de $A$ y de $B$ ¿Notas algo en particular?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»