Archivo de la etiqueta: álgebra lineal

Álgebra Lineal II: Matrices de formas bilineales

Por Diego Ligani Rodríguez Trejo

Introducción

Al principio de esta unidad, especialmente en la entrada del teorema de Gauss empezamos a hablar de una relación entre formas bilineales y matrices. Aquí formalizaremos esta relación. Veremos cómo se define la matriz asociada a una forma bilineal y cómo podemos traducir operaciones con la forma bilineal en operaciones con su matriz asociada.

Matriz asociada a una forma bilineal y una forma cuadrática

En toda esta entrada, $V$ es un espacio vectorial sobre $\mathbb{R}$ de dimensión finita.

Definición. Sea $ e_1, \cdots , e_n$ una base de $V$ y $b: V \times V \rightarrow \mathbb{R}$ una forma bilineal de $V$. La matriz de $b$ con respecto a la base $e_1,\ldots, e_n$ es la matriz

\begin{align*} A=[a_{ij}] \text{ con } a_{ij}=b(e_i,e_j),\end{align*}

para todo $i,j$ tal que $1 \leq i,j \leq n$.

Para definir la forma matricial de una forma cuadrática tenemos que ser un poco más cuidadosos. Hay más de una forma bilineal que puede generar a una misma forma cuadrática. Sin embargo, por la identidad de polarización tenemos que esta forma bilineal es única si pedimos adicionalmente que sea simétrica. De aquí obtenemos la siguiente definición.

Definición. Sea $e_1, \cdots , e_n$ una base de $V$ y $q$ una forma cuadrática de $V$, la matriz de $q$ con respecto a la base $e_1, \ldots, e_n$ es la matriz de su forma polar en esa misma base.

Problema. Sea $V=\mathbb{R}^3$ y $q$ dada como sigue
\begin{align*} q(x)=x_1x_2+x_2x_3+x_3x_1,\end{align*}

para cada $x=(x_1,x_2,x_3)\in \mathbb{R}^3$.

Encuentra su matriz asociada $A$ en la base canónica y su matriz asociada $B$ en la base \begin{align*}u_1&=(1,1,0),\\ u_2&=(1,0,1),\\ u_3&=(0,1,1).\end{align*}

Solución. Primero, mediante la identidad de polarización tenemos que la forma polar $b$ de $q$ cumple que $b(x,x’)$ es

\begin{align*} \frac{x’_1x_2+x’_2x_1+x’_1x_3+x’_3x_1+x’_2x_3+x’_3x_2}{2} ,\end{align*}

para $x=(x_1,x_2,x_3)$ y $x’=(x’_1,x’_2,x’_3)$.

Ahora, calculemos qué le hace esta forma bilineal a la base canónica de par en par.

\begin{align*}
&b(e_1,e_1)=b(e_2,e_2)=b(e_3,e_3)=0 \\
\text{y} \quad &b(e_1,e_2)=b(e_1,e_3)=b(e_2,e_3)=\frac{1}{2}.
\end{align*}

Por lo que su matriz asociada en la base canónica es

\begin{align*} A=\begin{pmatrix} 0 & \frac{1}{2} & \frac{1}{2} \\
\frac{1}{2} & 0 & \frac{1}{2} \\
\frac{1}{2} & \frac{1}{2} & 0 \end{pmatrix}\end{align*}

Por otro lado, calculando lo que $b$ le hace a nuestra otra base

\begin{align*}
&b(u_1,u_1)=b(u_2,u_2)=b(u_3,u_3)=1 \\
\text{y} \quad &b(u_1,u_2)=b(u_1,u_3)=b(u_2,u_3)=\frac{3}{2}
\end{align*}

Y construyendo esta otra matriz:

\begin{align*}
B=\begin{pmatrix} 1 & \frac{3}{2} & \frac{3}{2} \\
\frac{3}{2} & 1 & \frac{3}{2} \\
\frac{3}{2} & \frac{3}{2} & 1
\end{pmatrix}
\end{align*}

$\triangle$

Evaluar la forma bilineal con su matriz

En la entrada del teorema de Gauss vimos que si $b$ es una forma bilineal de $V$ y $e_1,\ldots,e_n$ es una base, entonces para cualesquiera vectores

\begin{align*}
x&=x_1e_1+\ldots+x_ne_n\\
y&=y_1e_1+\ldots+y_ne_n
\end{align*}

tenemos que $$b(x,y)=\sum_{i=1}^n \sum_{j=1}^n x_i y_j b(e_i,e_j).$$

Por la regla del producto de matrices, la expresión de la derecha es precisamente lo que se obtiene al realizar la siguiente operación:

$$^t{X} \begin{pmatrix}b(e_1,e_1) & b(e_1,e_2) & \ldots & b(e_1,e_n)\\ b(e_2,e_1) & b(e_2,e_2) & \ldots & b(e_2,e_n)\\ \vdots & & \ddots & \vdots \\ b(e_n,e_1) & b(e_n,e_2) & \ldots & b(e_n,e_n) \end{pmatrix} Y,$$

donde $X=(x_1,\ldots,x_n)$ y $Y=(y_1,\ldots,y_n)$.

Notemos que en medio tenemos justo la forma matricial de $b$ en la base $e_1,\ldots,e_n$. Al lado izquierdo tenemos al transpuesto del vector de coordenadas de $x$ en la base $e_1,\ldots, e_n$ y al lado derecho tenemos al vector de coordenadas de $y$ en esta misma base. Hemos demostrado lo siguiente.

Proposición. Sea $b$ una forma bilineal de $V$ y $\beta$ una base de $V$. Sea $A$ la matriz de $b$ en la base $\beta$. Sean $X$ y $Y$ los vectores de coordenadas de vectores $x$ y $y$ de $V$ en la base $\beta$, respectivamente. Entonces $$b(x,y)=\text{}^tXAY.$$

Algunas consecuencias de la proposición anterior son:

  • Una forma bilineal es simétrica si y sólo si su matriz en una base cualquiera es simétrica.
  • Si fijamos la base $\beta$ y la forma bilineal $b$, entonces la matriz que hace que $b(x,y)=\text{}^tXAY$ para todos $x,y$ es única.

La discusión anterior nos permite comenzar con una forma bilineal $b$ y una base $\beta$ y obtener una (y sólo una) matriz. Partiendo de una matriz y una base $\beta$ también podemos obtener una forma bilineal mediante la regla $$b(x,y)=\text{}^tXAY.$$

Cambios de base

En los resultados anteriores al fijar un espacio vectorial $V$ de dimensión $n$ y una base $\beta$ obtenemos una asociación biyectiva (de hecho un isomorfismo) entre formas bilineales de $V$ y matrices en $M_n(\mathbb{R})$.

Sin embargo, al cambiar la base de $V$, la matriz que representa a una forma bilineal puede cambiar.

Proposición. Supongamos que una forma bilineal $b$ tiene asociada una matriz $A$ con respecto a una base $\beta$ y una matriz $A’$ con respecto a otra base $\beta’$. Sea $P$ la matriz de cambio de base de $\beta$ a $\beta’$. Entonces
\begin{align*} A’=\text{ } ^tPAP.\end{align*}

Demostración. Sean $x,y \in V$ dos vectores cualesquiera. Escribamos $\beta = \{u_1, \cdots , u_n\}$ y $\beta’ = \{u’_1, \cdots , u’_n\}$. Usando $\beta$ escribamos

\begin{align*} x=x_1u_1 + \cdots + x_nu_n.\end{align*}

Definamos a $X$ como el vector columna de las coordenadas de $x$ en la base $\beta$, es decir:

$$X=\begin{pmatrix} x_1 \\
\vdots \\
x_n \end{pmatrix}.$$

Definimos análogamente a $X’, Y, Y’$ como los vectores columnas de coordenadas de $x$ en la base $\beta’$, de $y$ en la base $\beta$ y de $y$ en la base $\beta’$, respectivamente.

Sabemos entonces que

\begin{align*} b(x,y)= \text{ }^tXAY= \text{ }^tX’A’Y’\end{align*}

Además, sabemos que

\begin{align*}
X&=PX’\\
Y&=PY’
\end{align*}

De aquí se tiene la siguiente cadena de igualdades:

\begin{align*}
\text{ }^tX’A’Y’&= b(x,y)\\
&=\text{ }^tXAY\\
&=\text{ }^t(PX’)A(PY’)\\
&=\text{ }^tX’\text{ }^tPAPY’.
\end{align*}

Fijándonos en los extremos

\begin{align*} \text{ }^tX’A’Y’=\text{ }^tX’\text{ }^tPAPY’. \end{align*}

Por la unicidad de la matriz que representa a $b$ en la base $\beta’$, finalmente concluimos que

\begin{align*} A’=\text{ } ^tPAP.\end{align*}

$\square$

Más adelante…

Esta es una pequeña introducción a la relación entre las formas bilineales (y cuadráticas por extensión) y las matrices. Podemos ver que ésta nos dio otra manera de entender y calcular a las formas bilineales. Algo que no hemos explorado es el poder que esta relación nos entrega al aplicar todo lo que conocemos acerca de matrices a las matrices asociadas a una forma bilineal. Antes de llegar a eso, primero veremos el análogo complejo de lo que acabamos de estudiar.

Otro problema que enfrentamos es la dependencia de las matrices a su base. Aunque este no es un problema que podamos evitar, nos gustaría encontrar propiedades que se mantengan sin importar la base que sea elegida. Esto lo abordaremos un poco más adelante. De hecho, cuando lo hagamos estaremos listos para enunciar y demostrar un resultado muy interesante: la ley de inercia de Sylvester.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ y definamos $q: V \rightarrow \mathbb{R}$
    \begin{align*} q(x,y,z)= (x+2y+3z)^2+(y+z)^2. \end{align*}
    Prueba que $q$ es cuadrática y encuentra su forma polar. ¿Es esta forma cuadrática $q$ positiva definida? ¿Es positiva?
  2. Encuentra la matriz $A$ asociada a la forma cuadrática $q$ del ejercicio anterior con respecto a la base canónica y la matriz $B$ asociada a $q$ con respecto a la base $(1,1,1), (0,-1,-1),(0,0,2)$.
  3. Encuentra las matrices de cambio de base entre la base canónica y la base del inciso anterior. Verifica que se cumple el resultado de cambios de base.
  4. Encuentra una expresión de Gauss para $q$.
  5. Encuentra el rango de $A$ y de $B$. Encuentra el determinante de $A$ y de $B$ ¿Notas algo en particular?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Espacios euclideanos y espacios hermitianos

Por Diego Ligani Rodríguez Trejo

Introducción

Hasta ahora hemos hablado de las formas bilineales, las formas bilineales simétricas, las formas cuadráticas y todos sus análogos complejos. Vimos también cómo podemos representar mediante matrices a estas formas.

Una de las aplicaciones más útiles de estos conceptos es que nos permitirán hablar de espacios vectoriales «con geometría». Este concepto ya lo exploramos en el primer curso de Álgebra Lineal, cuando hablamos de producto interior y de espacios euclideanos.

Por un lado, en esta entrada haremos un breve recordatorio de estos temas. Por otro lado, hablaremos de cómo dar los análogos complejos. Esto nos llevará al concepto de espacios hermitianos.

Un acuerdo sobre el mundo real y complejo

Como hemos visto anteriormente, los resultados relacionados con formas bilineales tienen frecuentemente sus análogos en el mundo complejo. A veces hay algunas diferencias importantes, pero la mayoría de los casos son mínimas. Por esta razón, a partir de ahora dejaremos varias de las demostraciones de los casos complejos como ejercicios. En caso de ser necesario, haremos el énfasis pertinente en las diferencias entre el caso real y el complejo.

Formas positivas

Para poder «tener geometría» en un espacio vectorial, es necesario que tenga una forma bilineal un poco más especial que las que hemos estudiado. En el caso real requerimos lo siguiente.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$. Tomemos una forma bilineal $b: V \times V \rightarrow \mathbb{R}$.

  • Diremos que $b$ es positiva si $b(x,x)\geq 0$ para todo $x\in V$.
  • Diremos que $b$ es positiva definida si $b(x,x)>0$ para todo $x\in V$ con $x\neq 0$.

En el caso complejo hay que ser un poco más cuidadosos. Si $\varphi$ es una forma sesquilineal, podría suceder que $\varphi(x,x)$ no sea un número real y entonces no pueda establecerse una desigualdad entre $\varphi(x,x)$ y $0$. Sin embargo, bajo la hipótesis adicional de que $\varphi$ sea hermitiana, vimos que $\varphi(x,x)$ sí es real.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Tomemos una forma sesquilineal hermitiana $\varphi: V \times V \rightarrow \mathbb{R}$.

  • Diremos que $\varphi$ es positiva si $\varphi(x,x)\geq 0$ para todo $x\in V$.
  • Diremos que $\varphi$ es positiva definida si $\varphi(x,x)>0$ para todo $x\in V$ con $x\neq 0$.

Adicionalmente, diremos que una forma cuadrática de un espacio vectorial sobre $\mathbb{R}$ es positiva (resp. positiva definida) si su forma polar es positiva (resp. positiva definida). Y diremos que una forma cuadrática hermitiana de un espacio vectorial sobre $\mathbb{C}$ es positiva (resp. positiva definida) si su forma polar es positiva (resp. positiva definida).

Desigualdades de Cauchy-Schwarz real y compleja

Una de las consecuencias de tener formas positivas es que se cumple una desigualdad entre las evaluaciones de una forma cuadrática (o cuadrática hermitiana) y su forma polar. A continuación enunciamos la versión real que demostramos en el primer curso.

Teorema (desigualdad de Cauchy-Schwarz real). Sea $q: V \rightarrow \mathbb{R}$ una forma cuadrática y $b$ su forma polar.

  • Si $b$ es positiva, entonces para cualesquiera $x,y \in V$
    \begin{align*} b(x,y)^2 \leq q(x)q(y). \end{align*}
  • Más aún, si $b$ es positiva definida, entonces la igualdad del inciso anterior se da si y sólo si $x$ y $y$ son linealmente dependientes.

La versión compleja es casi análoga, pero hay que tener el cuidado de usar la norma al evaluar la forma sesquilineal para obtener un número real que podamos comparar con otro.

Teorema (desigualdad de Cauchy-Schwarz compleja). Sea $\Phi: V \rightarrow \mathbb{R}$ una forma cuadrática hermitiana y $\varphi$ su forma polar.

  • Si $\varphi$ es positiva, entonces para cualesquiera $x,y \in V$
    \begin{align*} |\varphi(x,y)|^2 \leq \Phi(x)\Phi(y). \end{align*}
  • Más aún, si $\varphi$ es positiva definida, entonces la igualdad del inciso anterior se da si y sólo si $x$ y $y$ son linealmente dependientes.

$\square$

La demostración es muy parecida a la del caso real, y queda como ejercicio.

Espacios euclideanos y hermitianos

La sección anterior da la pista de que hay sutiles diferencias entre tener formas positivas y positivas definidas. La noción de que una forma sea positiva definida es más restrictiva, y por ello deberíamos esperar que un espacio vectorial (real o complejo) con una forma positiva definida tenga más propiedades.

Definición. Un producto interior para un espacio vectorial $V$ sobre los reales es una forma bilineal, simétrica y positiva definida.

Definición. Un producto interior hermitiano para un espacio vectorial $V$ sobre los complejos es una forma sesquilineal, hermitiana y positiva definida.

Típicamente se usa una notación especial para los productos interiores (o interiores hermitianos). En vez de referirnos a ellos con expresiones del estilo $b(x,y)$ (o $\varphi(x,y)$), más bien usamos expresiones del estilo $\langle x, y \rangle$. Cuando no queremos poner los argumentos, usualmente dejamos sólo unos puntos, así: $\langle \cdot, \cdot \rangle$.

Si el espacio vectorial además tiene dimensión finita, entonces estamos en un tipo de espacios muy especiales, en los que podremos probar varios resultados. Estos espacios son tan especiales que tienen su propio nombre.

Definición. Un espacio euclideano es un espacio vectorial sobre $\mathbb{R}$, de dimensión finita, y con un producto interior $\langle \cdot, \cdot \rangle$.

Definición. Un espacio hermitiano es un espacio vectorial sobre $\mathbb{C}$, de dimensión finita, y con un producto interior hermitiano $\langle \cdot, \cdot \rangle$.

Ejemplo. Tomemos $\mathbb{C}^n$ y la función $\langle \cdot, \cdot \rangle: \mathbb{C}^n \times \mathbb{C}^n \to \mathbb{C}$ dada por $$ \langle x, y\rangle = \sum_{i=1}^n \overline{x_i}y_i.$$

Se puede verificar que $\langle \cdot, \cdot \rangle$ es una forma sesquilineal, hermitiana y positiva definida. De este modo, $\mathbb{C}^n$ con este producto interior hermitiano es un espacio hermitiano.

$\triangle$

Normas, distancias y ángulos

Si tenemos un espacio vectorial con producto interior (o producto interior hermitiano), entonces ahora sí podemos introducir varias nociones geométricas: la de norma, la de distancia y la de ángulos. Además, estas nociones tendrán las propiedades geométricas que esperamos.

En las siguientes definiciones tenemos que $V$ es un espacio vectorial sobre $\mathbb{R}$ (o sobre $\mathbb{C}$) con un producto interior (o producto interior hermitiano, respectivamente) $\langle \cdot, \cdot \rangle$.

Definición. Para $x\in V$, definimos la norma de $x$ como $$\norm{x}:=\sqrt{\langle x,x \rangle}.$$

Definición. Para $x, y\in V$, definimos la distancia de $x$ a $y$ como $$d(x,y):=\norm{x-y}.$$

Definición. Para $x, y\in V$, definimos el ángulo entre $x$ y $y$ como $$\text{ang}(x,y)=\cos^{-1}\left(\frac{|\langle x,y\rangle|}{\norm{x}\norm{y}}\right).$$

En esta última definición, las barras indican el valor absoluto en el caso real y la norma en el caso complejo. Observa que implícitamente estamos usando la desigualdad de Cauchy-Schwarz para asegurarnos de que el argumento de $\cos^{-1}$ en efecto es un número entre $0$ y $1$.

A continuación tenemos dos proposiciones clave que nos dicen que la norma y la distancia que definimos sí tienen todas las propiedades «que deben tener» una norma y una distancia.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ (o sobre $\mathbb{C}$) con un producto interior (o producto interior hermitiano, respectivamente) $\langle \cdot, \cdot \rangle$. Entonces, la función norma $\norm{\cdot}:V\to \mathbb{R}$ cumple lo siguiente:

  • Para todo $x\in V$, se tiene que $\norm{x}$ es un número real, con $\norm{x}\geq 0$ y $\norm{x}=0$ si y sólo si $x=0$.
  • Para todo $x\in V$ y $c$ en $\mathbb{R}$ (o $\mathbb{C}$), se tiene que $\norm{cx}=|c|\norm{x}$.
  • Desigualdad del triángulo. Para cualesquiera $x,y \in V$, se tiene que $$\norm{x+y}\leq \norm{x}+\norm{y}.$$

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ (o sobre $\mathbb{C}$) con un producto interior (o producto interior hermitiano, respectivamente) $\langle \cdot, \cdot \rangle$. Entones, la función distancia $d:V\times V \to \mathbb{R}$ cumple lo siguiente:

  • Para cualesquiera $x,y$ en $V$, se tiene que $d(x,y)$ es un número real, con $d(x,y)\geq 0$ y $d(x,y)=0$ si y sólo si $x=y$.
  • Simetría. Para cualesquiera $x,y$ en $V$, se tiene que $d(x,y)=d(y,x)$.
  • Desigualdad del triángulo. Para cualesquiera $x,y,z \in V$, se tiene que $$d(x,z)\leq d(x,y)+d(y,z).$$

La última proposición puede también resumirse como que $V$ con la función $d$ es un espacio métrico. Una métrica en un conjunto permite establecer una topología. Así, en un espacio con producto interior (o producto interior hermitiano), es posible establecer nociones de continuidad, convergencia, cálculo, etc. Es interesante saber que se pueden tomar estos caminos, pero queda fuera de los alcances de nuestro curso.

Más adelante…

Con esto concluimos nuestro pequeño repaso de producto interior y espacios euclideanos. Así mismo, con esto establecemos las bases de los productos interiores hermitianos y de los espacios hermitianos. Como puedes ver, ambas nociones están muy relacionadas entre sí. Los conceptos de norma y distancia dan pie a un sin fin de teoría muy interesante. Es útil poder llegar a ellos desde un enfoque puramente algebraico, y nos muestra el poder que tiene este campo de estudio.

¿Cómo se ven las nociones de positividad y positividad definida en términos de matrices? Esto es algo que estudiaremos en la siguiente entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{R}^3$ espacio vectorial sobre $\mathbb{R}$ y definamos $q: V \rightarrow \mathbb{R}$ como sigue:
    \begin{align*} q(x,y,z)= x^2+y^2+z^2-xy-yz-xz. \end{align*}
    ¿Es $q$ positiva? ¿Es positiva definida?
  2. Sea $n$ un entero positivo y $V$ el espacio de polinomios con coeficientes reales cuyos grados no excedan $n$. Prueba que
    \begin{align*} \langle P, Q\rangle :=\sum_{i=0}^nP(i)Q(i) \end{align*}
    es un producto interno en $V$. ¿Cómo construirías un producto interno hermitiano análogo en el caso de $W$ el espacio de polinomios con coeficientes complejos cuyos grados no excedan $n$?
  3. Revisa la demostración de la desigualdad de Cauchy-Schwarz en los espacios reales. Usa esto para dar una demostración para la versión análoga compleja. Recuerda también demostrar cuándo se da la igualdad si el producto interno hermitiano es positivo definido.
  4. Con la misma notación del ejercicio anterior, prueba la desigualdad de Minkowski, es decir, para todos $x,y \in V$
    \begin{align*} \sqrt{\Phi(x+y)} \leq \sqrt{\Phi(x)} + \sqrt{\Phi(y)}. \end{align*}
  5. Revisa la demostración de las propiedades de la norma y de la distancia para el caso real. Tomando esto como base, realiza la demostración para el caso complejo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Formas cuadráticas hermitianas

Por Diego Ligani Rodríguez Trejo

Introducción

El análogo complejo a las formas cuadráticas son las formas cuadráticas hermitianas. En esta entrada las definiremos, enfatizaremos algunas diferencias con el caso real y veremos algunas de sus propiedades.

Al final enunciaremos una versión compleja del teorema de Gauss.

Formas cuadráticas hermitianas

Definición Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\varphi$ una forma sesquilineal hermitiana de $V$. La forma cuadrática hermitiana correspondiente a $\varphi$ es la función $\Phi: V\to \mathbb{C}$ tal que para cualquier $x$ en $V$ se tiene que

\begin{align*} \Phi(x)=\varphi (x,x) \end{align*}

Observa que aquí, de entrada, estamos pidiendo que $\varphi$ sea sesquilineal. Esto entra en contraste con el caso real, en donde no nos importaba si la forma bilineal que tomábamos inicialmente era simétrica o no. Como veremos un poco más abajo, dada la forma cuadrática hermitiana $\Phi$, hay una única forma sesquilineal hermitiana de la que viene. Por esta razón, llamaremos a la función $\varphi$ la forma polar de $\Phi$.

Problema 1. Sea $V=\mathbb{C}^n$ y $\Phi : V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(x_1, \ldots, x_n)= |x_1|^2 + \cdots + |x_n|^2.\end{align*} Muestra que $\Phi$ es una forma cuadrática.

Solución. Recordemos que para cualquier $z \in \mathbb{C}$ se tiene $|z|^2=z \overline{z}$. Así propongamos $\varphi$ como sigue:

\begin{align*}
\varphi(x,y):= (\overline{x_1})(y_1) + \cdots + (\overline{x_n})(y_n).
\end{align*}

Es sencillo mostrar que $\varphi$ así definida es una forma sesquilineal hermitiana, y queda como ejercicio.

$\square$

Problema 2. Sea $V$ el espacio de funciones continuas del intervalo $[0,1]$ a $\mathbb{C}$ y $\Phi: V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(f)= \int_0^1|f(t)|^2 dt.\end{align*} Muestra que $\Phi$ es una forma cuadrática.

Solución. La solución es muy parecida. Proponemos $\varphi$ como sigue:

\begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt \end{align*}

Es sencillo mostrar que $\varphi(f,f)=\Phi(f)$ y que $\varphi$ es forma sesquilineal hermitiana. Ambas cosas quedan como ejercicio.

$\square$

Propiedades básicas de formas cuadráticas hermitianas

Veamos algunas propiedades de las formas cuadráticas hermitianas.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$, $\varphi$ una forma sesquilinear hermitiana y $\Phi(x)$ su forma cuadrática asociada.

  1. Para todo $x\in V$, se tiene que $\Phi(x)=\varphi(x,x)$ siempre es un número real.
  2. Para todo $x\in V$ y $a\in \mathbb{C}$ se tiene que $\Phi(ax)=|a|\Phi(x)$.
  3. Para cualesquiera $x,y$ en $V$ se tiene que $\Phi(x+y)=\Phi(x)+\Phi(y)+2\text{Re}(\varphi(x,y))$.

Demostración. Los incisos 1) y 2) son consecuencia inmediata de los ejercicios de la entrada anterior. Para el inciso 3) usamos que la suma de un número con su conjugado es el doble de su parte real para obtener la siguiente cadena de igualdades:

\begin{align*}
\Phi(x+y)&=\varphi(x+y,x+y)\\
&=\varphi(x,x)+ \varphi(y,y)+ \varphi(x,y)+\varphi(y,x)\\
&=\varphi(x,x)+ \varphi(y,y)+ \varphi(x,y)+\overline{\varphi(x,y)}\\
&=\Phi(x) + \Phi(y) + 2\text{Re}(\varphi(x,y)).
\end{align*}

$\square$

Identidad de polarización compleja

Para demostrar que una función es una forma cuadrática hermitiana, usualmente necesitamos a una función que sea la candidata a ser la forma sesquilineal hermitiana que la induzca. Es decir, necesitamos un método para proponer la forma polar. Podemos hacer esto mediante la identidad de polarización compleja.

Proposición (Identidad de polarización). Sea $\Phi: V \rightarrow \mathbb{C}$ una forma cuadrática hermitiana. Existe una única forma sesquilineal hermitiana $\varphi: V \times V \rightarrow \mathbb{C}$ tal que $\Phi(x)=\varphi(x,x)$ para todo $x \in V$.

Más aún, ésta se puede encontrar de la siguiente manera:

\begin{align*} \varphi(x,y)= \frac{1}{4}\sum_{k=0}^4 i^k \Phi (y+i^kx)\end{align*}

Aquí $i$ es el complejo tal que $i^2=-1$. Esta suma tiene cuatro sumandos, correspondientes a las cuatro potencias de $i$: $1,i,-1,-i$.

Demostración. Por definición, como $\Phi$ es una forma cuadrática hermitiana, existe $s:V\times V\to \mathbb{C}$ una forma sesquilineal hermitiana tal que $\Phi(x)=s(x,x)$. Veamos que la fórmula propuesta en el enunciado coincide con $s$. La definición en el enunciado es la siguiente:

\begin{align*} \varphi(x,y)=\frac{1}{4}\sum_{k=0}^4 i^k \Phi (y+i^kx)\end{align*}

Como $\Phi(x)=s(x,x)$ podemos calcular $\varphi$ como sigue
\begin{align*} \varphi(x,y)=\frac{1}{4}\sum_{k=0}^4 i^k s(y+i^kx,y+i^kx)\end{align*}

Desarrollando los sumandos correspondientes a $k=0$ y $k=2$, y simplificando, se obtiene

\begin{align*}2s(y,x) + 2s(x,y).\end{align*}

Del mismo modo, los sumandos para $k=1$ y $k=3$ quedan como

\begin{align*} 2s(x,y) – 2s(y,x) \end{align*}

Sustituyendo esto en la definición original de $\varphi$ tenemos que

\begin{align*} \varphi(x,y)&=\frac{ 2s(y,x) + 2s(x,y) + 2s(x,y) – 2s(y,x) }{4}\\&=s(x,y). \end{align*}

De esta igualdad podemos concluir que $\varphi = s$, por lo que 1) $\varphi$ es forma sesquilineal hermitiana y 2) la forma cuadrática hermitiana de $\varphi$ es $\Phi$. Esta forma debe ser única pues si hubiera otra forma sesquilineal hermitiana tal que $s'(x,x)=\Phi(x)$, los pasos anteriores darían $s'(x,x)=\varphi(x,y)$ nuevamente.

$\square$

En particular, esta identidad nos dice que formas sesquilineales hermitianas distintas van a formas cuadráticas hermitianas distintas. Es por ello que podemos llamar a la función $\varphi$ dada por la fórmula en el enunciado la forma polar de $\Phi$.

Teorema de Gauss complejo

Enunciamos a continuación la versión compleja del teorema de Gauss.

Teorema. Sea $\Phi$ una función cuadrática hermitiana $\mathbb{C}^n$. Existen $\alpha_1, \cdots , \alpha_r$ números complejos y formas lineales $l_1, \cdots l_r$ linealmente independiente de $\mathbb{C}^n$ tales que para todo $x$ en $\mathbb{C}^n$ se tiene:

\begin{align*} \Phi(x_1, \cdots , x_n ) = \sum_{i=1}^r \alpha_i |l_i(x)|^2. \end{align*}

Observa que en la expresión de la derecha no tenemos directamente a las formas lineales, sino a las normas de éstas.

Más adelante…

Ya hablamos de formas bilineales y de formas sesquilineales. ¿Habrá una forma alternativa de representarlas? Cuando teníamos transformaciones lineales entre espacios vectoriales, podíamos representarlas por matrices. Resulta que a las formas bilineales también podemos representarlas por matrices. Veremos cómo hacer esto (y cuáles son las ventajas de hacer eso) en las siguientes dos entradas. En una veremos los resultados correspondientes a formas bilineales y en la otra los resultados correspondientes a formas sesquilineales.

Un poco más adelante aprovecharemos esta representación matricial para retomar el estudio de los productos interiores.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{C}^n$ y definamos $\varphi:V\times V \to \mathbb{C}$ como sigue:
    \begin{align*} \varphi(x,y)= \overline{x_1}y_1 + \cdots + \overline{x_n}y_n, \end{align*}
    para cualquier par $x,y \in V$ con $x=(x_1, \cdots x_n)$ y $y=(y_1, \cdots y_n)$. Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  2. Sea $V$ el espacio de funciones continuas del intevalo $[0,1]$ a $\mathbb{C}$ y $\varphi: V\times V \to \mathbb{C}$ definida como sigue:
    \begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt,\end{align*}
    para cualquier par $f_1, f_2 \in V$. Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  3. Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\Phi$ una forma cuadrática hermitiana. Prueba la siguiente identidad (identidad del paralelogramo)
    \begin{align*} \Phi(x+y) + \Phi(x-y) = 2(\Phi(x) + \Phi(y)).\end{align*} ¿Cómo se compara con la identidad del paralelogramo real?
  4. Compara la identidad de polarización real con la identidad de polarización compleja. ¿Por qué son tan distintas entre sí?
  5. Demuestra el Teorema de Gauss para formas cuadráticas hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Formas sesquilineales

Por Diego Ligani Rodríguez Trejo

Introducción

Como mencionamos anteriormente, las formas bilineales que hemos estudiado son restringidas en el sentido de que sólo pueden ser definidas en espacios vectoriales sobre los reales. En este curso estudiaremos una noción muy relacionada, que en algunos sentidos extiende lo que hemos visto a espacios vectoriales sobre los complejos.

Probablemente en estas entradas tengas una sensación de ya haber visto todo. Como un déjà vu. Es bastante normal. Los resultados son casi análogos a los del caso real. Sin embargo, hay algunas diferencias importantes en las que haremos énfasis.

Formas sesquilineales

La palabra «bilineal» tiene que ver con que ambas entradas de una forma bilineal son lineales. ¿A qué se refiere «sesquilineal»? La raíz latina sesqui que significa uno y medio, y precisamente veremos esto reflejado en la definición.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Una forma sesquilineal en $V$ es una función $\varphi: V \times V \rightarrow \mathbb{C} $ tal que:

  • Para cualesquiera $x_1,x_2,y \in V$ y para cualquier $\lambda \in \mathbb{C}$, se tiene que $$\varphi (\lambda x_1+x_2, y) = \overline{\lambda} \varphi (x_1,y)+ \varphi(x_2 , y).$$
  • Para cualesquiera $y_1,y_2,x \in V$ y para cualquier $\lambda \in \mathbb{C}$, se tiene que $$\varphi (x,\lambda y_1+y_2) = \lambda\varphi (x,y_1)+ \varphi(x, y_2).$$

De esta manera, la «media» linealidad se refiere a que en la primera entrada de $\varphi$ las sumas sí se abren, pero los escalares «salen conjugados». Debido a esto, no es tan común que una forma sesquilineal sea simétrica. Sin embargo, tenemos una noción similar que resultará fundamental.

Definición. Una forma sesquilineal $\varphi$ se llamará hermitiana si $\overline{ \varphi(y,x) }= \varphi(x,y)$ para cualesquiera $x, y \in V$.

Como comentario, en algunos contextos las formas sesquilineales son lineales en la primer coordenada y semi-lineales en la segunda. Asegúrate de verificar la definición cada que cambies de contexto. A las formas sesquilineales hermitianas también se les conoce como conjugadas simétricas.

Propiedades de formas sesquilineales

Las formas sesquilineales son parecidas a las formas bilineales en el sentido de que basta saber cómo son en parejas de elementos de una base para conocerlas por completo. De hecho, como en el caso de formas bilineales tenemos un resultado un poco más general. Sin embargo, ten cuidado. Observa que todo el tiempo debemos cuidar que los escalares de la primera entrada salen conjugados.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Sean $m,n$ enteros positivos, $a_1, \cdots a_n, b_1, \cdots b_m$ vectores en $V$, $\lambda_1, \cdots \lambda_n, \mu_1, \cdots \mu_m$ números complejos y $\varphi$ una forma sesquilineal. Se cumple que:
\begin{align*}
\varphi\left(\sum_{i=1}^n \lambda_ia_i , \sum_{j=1}^m\mu_jb_j\right)=\sum_{i=1}^n\sum_{j=1}^m\overline{\lambda_i}\mu_j\varphi(a_i,b_j)
\end{align*}

La demostración queda como ejercicio. Usando esta proposición se puede demostrar un resultado en términos de bases.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$ de dimensión $n$ y $e_1,\ldots,e_n$ una base de $V$. Sean $a_{ij}$ números complejos para $i,j=1,\ldots,n$. Existe una y sólo una forma sesquilineal $\varphi:V\times V\to \mathbb{C}$ tal que $\varphi(e_i,e_j)=a_{ij}$.

Los espacios de formas sesquilineales y hermitianas

Dado un espacio vectorial complejo $V$, podemos definir los siguientes dos conjuntos, de todas las formas sesquilineales y todas las formas hermitianas, respectivamente:

\begin{align*} S(V) &:= \{ \varphi: V \times V \rightarrow \mathbb{C} \; | \; \varphi \text{ es sesquilineal} \}\\
H(V) &:= \{ \varphi \in S(V) \; | \; \varphi \text{ es hermitiana}\}
\end{align*}
Los conjuntos son no vacíos, pues la función constante $0$ es forma sesquilineal y hermitiana.

De manera análoga a lo que sucedía con las formas bilineales, el conjunto $S(V)$ es un subespacio vectorial del espacio complejo de todas las funciones de $V \times V $ en $\mathbb{C}$. Esto puedes verificarlo por tu cuenta. Sin embargo, $H(V)$ no es un subespacio vectorial de dicho subespacio. De hecho, ni siquiera es un espacio vectorial sobre $\mathbb{C}$. En los problemas puedes encontrar un contraejemplo de que sea cerrado bajo multiplicación escalar.

Sin embargo, no todo está perdido. Podemos pensar a $S(V)$ como un espacio vectorial sobre los reales. Simplemente limitamos los productos escalares a números reales. En este contexto, resulta que $H(V)$ sí es un subespacio de $S(V)$ (y por lo tanto un espacio vectorial sobre $\mathbb{R}$). Veamos esto.

Proposición. El conjunto $H(V)$ es un subespacio vectorial de $S(V)$, pensando a este último como espacio vectorial sobre $\mathbb{R}$.

Demostración. Sabemos que $H(V) \subseteq S(V)$ y que ambos son distintos del vacío, así que basta probar que $H(V)$ es cerrado bajo la suma y multiplicación por escalares reales.

Sean $\varphi_1, \varphi_2 \in H(V)$, $x,y \in V$ y $\lambda \in \mathbb{R}$. Sabemos por cómo está definida la suma que

\begin{align*} (\varphi_1 + \varphi_2) (x,y)= \varphi_1(x,y) + \varphi_2 (x,y) \end{align*}

Además, como $\varphi_1, \varphi_2 \in H(V)$, tenemos que

\begin{align*} \varphi_1(x,y) &= \overline{\varphi_1(y,x)}\\\varphi_2(x,y) &= \overline{\varphi_2(y,x)} \end{align*}

por lo que

\begin{align*} (\varphi_1 + \varphi_2) (x,y) &= \overline{\varphi_1(y,x)} + \overline{\varphi_2(y,x)}\\&= \overline{ (\varphi_1+\varphi_2) (y,x) }
\end{align*}

De aquí se concluye que $\varphi_1 + \varphi_2 \in H(V)$.

Para la multiplicación tenemos la siguiente cadena de igualdades, en donde estamos usando $\overline(\lambda)=\lambda$ (¿por qué?):

\begin{align*}
(\lambda \varphi_1) (x,y) &= \lambda (\varphi_1(x,y))\\
&=\lambda (\overline{ \varphi_1(y,x)})\\
&= \overline{\lambda\varphi_1(y,x)}
\end{align*}

Se concluye que $\lambda \varphi_1 \in H(V)$.

Con las dos propiedades mostradas basta para afirmar que $H(V)$ es un subespacio vectorial de $S(V)$ como espacio vectorial sobre $\mathbb{R}$.

$\square$

El espacio $H(V)$ no es únicamente un subespacio de $S(V)$. De hecho es un subespacio importante, pues nos permite escribir a $S(V)$ fácilmente como suma directa de dos subespacios.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Tomemos a $S(V)$ como espacio vectorial sobre $\mathbb{R}$. Tenemos la siguiente descomposición: $$S(V)=H(V)\oplus iH(V).$$

Un recordatorio de la suma directa lo puedes encontrar aquí.

Demostración. Empecemos probando que $S(V)$ efectivamente se puede descomponer como la suma de $H(V)$ e $iH(V)$.
Para esto, basta demostrar que cualquier forma sesquilineal se puede expresar como suma de una forma hermitiana e $i$ veces otra forma hermitiana. Para ello, dada $\varphi \in S(V)$ definimos $h_1, h_2$ como sigue:

\begin{align*} h_1(x,y)&=\frac{\varphi(x,y)+ \overline{\varphi(y,x)}}{2}\\h_2(x,y)&=\frac{\varphi(x,y)- \overline{\varphi(y,x)}}{2i}\end{align*}

Claramente $\varphi=h_1+ih_2$, así que basta mostrar que $h_1$ y $h_2$ son hermitianas. Lo haremos para $h_2$ y $h_1$ quedará como ejercicio.

Tomemos cualesquiera $x,y$ en $V$. Calculemos $\overline{h_2(y,x)}$:

\begin{align*}
\overline{h_2(y,x)}=\overline{\left(\frac{\varphi(y,x)- \overline{\varphi(x,y)}}{2i}\right)} \end{align*}

Nota que se cumple la siguiente identidad:
\begin{align*} \frac{\varphi(y,x)- \overline{\varphi(x,y)}}{2i}=\frac{-\varphi(y,x)i+ \overline{\varphi(x,y)}i}{2} \end{align*}

Así,

\begin{align*} \overline{h_2(y,x)}=\overline{\left(\frac{-\varphi(y,x)i + \overline{\varphi(x,y)}i}{2}\right)}\end{align*}

Además, para cualquier $c \in \mathbb{C}$ tenemos que $\overline{ci}=-\overline{c}i$, por lo que

\begin{align*} \overline{h_2(y,x)}= \frac{\overline{\varphi (y,x)}i -\varphi (x,y)i}{2}\end{align*}

Finalmente multiplicando por $\frac{i}{i}:$

\begin{align*} \overline{h_2(y,x)}&= \frac{-\overline{\varphi (y,x)} + \varphi (x,y)}{2i}\\&=\frac{ \varphi (x,y)- \overline{ \varphi (y,x)}}{2i}\\&=h_2(x,y) \end{align*}

Concluimos que $h_2 \in H(V)$. Hasta ahora, hemos mostrado que $$S(V)=H(V)+iH(V).$$ Demostrar que $H(V)$ y $iH(V)$ están en posición de suma directa es más sencillo.

Sea $h \in H(V) \cap iH(V)$. En particular $h \in iH(V)$ por lo que existe $h_1 \in H(V)$ tal que $h=ih_1$ así, para cualesquiera $x,y \in \mathbb{C}$

\begin{align*} h(x,y)&=\overline{h(y,x)}\\&=\overline{ih_1(y,x)}\\&=-i\overline{h_1(y,x)}\\&=-ih_1(x,y)\\&=-h(x,y).\end{align*}

De esta cadena concluimos que $h(x,y)=-h(x,y)$ y sabemos que el único complejo que cumple esto es el $0$. Por lo tanto $h(x,y)=0$, así que $h=0$ y entonces $H(V) \cap iH(V)= \{ 0 \}$. Esto es suficiente para saber qué $H(V)$ y $iH(V)$ están en posición de suma directa. Concluimos que
\begin{align*} S(V)= H(V) \oplus iH(V).\end{align*}

$\square$

Más adelante…

En esta entrada definimos a las formas sesquilineales como un análogo en $\mathbb{C}$ a las formas bilineales. Como es de esperarse, también definiremos un análogo a las formas cuadráticas. Las «nuevas» formas cuadráticas que definiremos también tendrán su teorema de Gauss.

Un poco después de eso podremos hablar de las formas matriciales para formas bilineales y para formas sesquilineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Muestra que $H(V)$ en general no es un espacio vectorial sobre $\mathbb{C}$. Para ello, muestra que si $V$ es $\mathbb{C}^2$ y $\varphi((x_1,x_2),(y_1,y_2))=\overline{x_1}x_1+\overline{x_2}y_2$, entonces $\varphi$ es hermitiana, pero $i\varphi$ no lo es.
  2. Demuestra la proposición sobre aplicar una forma sesquilineal en combinaciones lineales.
  3. Demuestra la proposición sobre formas sesquilineales y bases. En ese contexto, ¿cómo deben ser los $a_{ij}$ para que la forma sea hermitiana?
  4. Sea $\varphi$ una forma hermitiana en un espacio vectorial complejo $V$. Demuestra que:
    • Para todo $x\in V$ la expresión $\varphi(x,x)$ es un número real.
    • Para todo $x\in V$ y $a\in \mathbb{C}$ se tiene que $\varphi(ax,ax) = |a|^2\varphi(x,x)$.
  5. En el contexto de la proposición de descomposición de $S(V)$ como suma directa de $H(V)$ y $iH(V)$, demuestra que $h_1$ es hermitiana.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Transformaciones normales, simétricas y antisimétricas

Por Ayax Calderón

Introducción

A partir de la noción de adjunción que definimos en la entrada anterior, es posible definir ciertos tipos especiales de transformaciones lineales: las transformaciones normales, las simétricas y las antisimétricas.

Primero veremos las transformaciones lineales simétricas y antisimétricas. Estos nombres quizás te recuerden a las matrices simétricas y antisimétricas. Existe una relación importante entre ambos conceptos, aunque no es tan directo enunciarla. Veremos esto con calma.

Después, hablaremos de las transformaciones normales. Este tipo de transformaciones están motivadas por la pregunta de qué sucede cuando una transformación conmuta con su adjunta. Definiremos esto de manera adecuada y demostraremos algunas propiedades que cumplen las transformaciones normales.

En esta entrada $V$ es un espacio euclidiano. En particular, estaremos trabajando únicamente en espacios vectoriales sobre los reales. Más adelante discutiremos los análogos complejos de los resultados que veremos.

Transformaciones simétricas y antisimétricas

Comencemos con las siguientes dos definiciones.

Definición. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Diremos que $T$ es:

  • Simétrica o auto-adjunta si $T^*=T$.
  • Antisimétrica o alternante si $T^*=-T$.

Tal vez estos nombres te parezcan familiares. El siguiente problema nos ayudará a explicar la relación entre las transformaciones simétricas y las matrices que llevan el mismo nombre.

Problema. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal simétrica. Sea $A$ la forma matricial de $T$ en alguna base ortonormal de $T$. Demuestra que $A$ es una matriz simétrica.

Solución. Por una proposición de la entrada anterior, por elegir una base ortonormal se tiene que la matriz correspondiente a $T^\ast$ es $^t A$. Pero como $T$ es una matriz simétrica, se tiene que $T^\ast=T$. De este modo, $^t A= A$, y por lo tanto $A$ es una matriz simétrica.

$\square$

Sucede algo análogo con las matrices antisimétricas, lo cual queda como tarea moral.

Transformaciones normales

Introduzcamos una definición más.

Definición. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Diremos que $T$ es normal si $T$ conmuta con su transformación adjunta, es decir, si $$TT^*=T^*T.$$

Similarmente, diremos que una matriz $A\in M_n(\mathbb{R})$ es normal si $$A{}^tA={}^tAA.$$

Ejemplo. La matriz $\begin{pmatrix} 1 & -3 \\ 3 & 1 \end{pmatrix}$ es normal. En efecto, puedes verificar que:

$$\begin{pmatrix} 1 & -3 \\ 3 & 1 \end{pmatrix}\begin{pmatrix} 1 & 3 \\ -3 & 1 \end{pmatrix} = \begin{pmatrix} 10 & 0 \\ 0 & 10 \end{pmatrix} = \begin{pmatrix} 1 & 3 \\ -3 & 1 \end{pmatrix}\begin{pmatrix} 1 & -3 \\ 3 & 1 \end{pmatrix}.$$

$\triangle$

Las definiciones de transformaciones y matrices normales están conectadas mediante el siguiente resultado sencillo de demostrar.

Proposición. Si $T:V\to V$ es una transformación es normal con $V$ espacio euclideano y tomamos una base ortonormal $\beta$ de $V$, entonces $\text{Mat}_\beta(T)$ es normal.

Caracterización geométrica de transformaciones normales

Las matrices normales tienen algunas propiedades geométricas que las caracterizan. El siguiente enunciado formaliza esto.

Problema. Sea $T$ una transformación lineal sobre un espacio euclidiano $V$. Demuestra que los siguientes incisos son equivalentes:

  1. $||T(x)||=||T^*(x)||$ para todo $x\in V$.
  2. $\langle T(x),T(y)\rangle=\langle T^*(x),T^*(y) \rangle$.
  3. $T$ es normal.

Solución. $(1)\Rightarrow (2)$. Supongamos $(1)$. Usando la identidad de polarización dos veces y la linealidad de $T$ y $T^*$ obtenemos
\begin{align*}
\langle T(x),T(y) \rangle &=\frac{||T(x+y)||^2-||T(x)||^2-||T(y)||^2}{2}\\
&=\frac{||T(x+y)^*||^2-||T(x)^*||^2-||T(y)^*||^2}{2}\\
&=\langle T(x)^*,T(y)^* \rangle.
\end{align*} lo cual prueba $(2)$.

$(2)\Rightarrow (3)$. Supongamos ahora $(2)$. Entonces para cualesquiera $x,y\in V$ se tiene que
\begin{align*}
\langle (T\circ T^* – T^*\circ T)(x), y \rangle &=\langle T(T^*(x)),y\rangle- \langle T^*(T(x)) ,y\rangle \\
&=\langle T^*(x),T^*(y) \rangle – \langle y,T^*(T(x))\rangle\\
&=\langle T(x),T(y) \rangle – \langle T(y),T(x)\rangle\\
&=0.
\end{align*}
Como la igualdad anterior se da para todo $y$, en particular se cumple, por ejemplo, para los $y$ de una base. Así, $(T\circ T^*-T^*\circ T)(x)=0$ para cualquier $x\in V$, lo que precisamente significa que $T\circ T^*= T^*\circ T$, es decir, que $T$ es normal.

$(3)\Rightarrow (1)$. Finalmente, supongamos $(3)$. Entonces
\begin{align*}
||T(x)||^2&=\langle T(x),T(x)\rangle\\
&=\langle x,T^*(T(x))\rangle \\
&= \langle T(T^*(x)),x \rangle\\
&=\langle T^*(x),T^*(x) \rangle \\
&= ||T^*(x)||^2,
\end{align*}
y por lo tanto $||T(x)||=||T^*(x)||$ para todo $x\in V$, lo que prueba $(1)$.

$\square$

Más adelante…

Por la proposición que enunciamos para transformaciones normales, tenemos que si $T$ es de este tipo, entonces $||T(x)||=||T^*(x)||$. Esto es una propiedad geométrica, pues está relacionando dos normas. Sin embargo, una cosa que nos interesa mucho estudiar es cuándo sucede algo parecido: $||T(x)||=||x||$. Esto lo que nos estaría diciendo es que «$T$ preserva las normas». En la siguiente entrada motivaremos y exploraremos este tipo de transformaciones lineales, a las que llamaremos ortogonales.

Tarea moral

  1. Demuestra que la forma matricial de una transformación antisimétrica, bajo una base ortonormal, es una matriz antisimétrica.
  2. Demuestra que cualquier transformación lineal $T$ en un espacio euclideano puede ser escrita de la forma $T=S+A$, donde $S$ es transformación lineal simétrica y $A$ es transformación lineal antisimétrica. Demuestra que esta manera de escribir a $T$ es única.
  3. Hemos platicado mucho de qué sucede cuando representamos transformaciones lineales en un espacio euclideano $V$ mediante bases ortonormales. Pero, ¿qué pasa si no hacemos esto? Determina si lo siguiente es verdadero o falso cuando elegimos una base $\beta$ de $V$ que no sea ortonormal.
    • Si $A$ es la matriz de una transformación $T$ en la base $\beta$, entonces $^tA$ es la matriz de $T^\ast$ en la base $\beta$.
    • Si $T$ es simétrica, entonces su matriz $A$ en la base $\beta$ es simétrica.
    • Si $T$ es normal, entonces su matriz $A$ en la base $\beta$ es normal.
  4. Sea $T:\mathbb{R}^2\to \mathbb{R}^2$ un rotación de ángulo $\theta\in(0,\pi)$. La representación matricial de $T$ en la base canónica está dada por
    $$\begin{pmatrix}
    \cos\theta &-\sin\theta\\
    \sin\theta &\cos\theta
    \end{pmatrix}.$$
    Verifica que $T$ es normal.
  5. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal normal. Prueba que $T-c\text{id}$ es normal para todo real $c$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»