Archivo de la etiqueta: álgebra lineal

Álgebra Lineal II: Existencia de la forma canónica de Jordan para nilpotentes

Por Elizabeth Chalnique Ríos Alvarado

Introducción

En la entrada anterior estudiamos de manera un poco más sistemática las matrices y transformaciones lineales nilpotentes. Lo que haremos ahora es enunciar el teorema de la forma canónica de Jordan para matrices nilpotentes. Este es un teorema de existencia y unicidad. En esta entrada demostraremos la parte de la existencia. En la siguiente entrada hablaremos de la unicidad y de cómo encontrar la forma canónica de Jordan de matrices nilpotentes de manera práctica.

El teorema de Jordan para nilpotentes

El teorema que queremos demostrar tiene dos versiones: la de transformaciones y la matricial. La versión en transformaciones dice lo siguiente.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ y $T:V\to V$ una transformación lineal nilpotente. Entonces existen únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} y para los cuales existe una base de $V$ en la cual $T$ tiene como forma matricial a la siguiente matriz de bloques:

$$\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

La versión en forma matricial dice lo siguiente.

Teorema. Sea $A$ una matriz nilpotente en $M_n(F)$. Entonces existen únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} y para los cuales $A$ es similar a la siguiente matriz de bloques: $$\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

A esta matriz de bloques (ya sea para una transformación, o para una matriz) le llamamos la forma canónica de Jordan de $A$.

En vista de que dos matrices son similares si y sólo si representan a la misma transformación lineal en distintas bases, entonces ambos teoremas son totalmente equivalentes. Así, basta enfocarnos en demostrar una de las versiones. Haremos esto con la versión para transformaciones lineales.

Trasnformaciones nilpotentes y unos vectores linealmente independientes

En esta sección enunciaremos un primer resultado auxiliar para demostrar la existencia de la forma canónica de Jordan. Veremos que a partir de una transformación lineal nilpotente podemos obtener algunos vectores linealmente independientes.

Proposición. Sea $V$ un espacio vectorial de dimensión finita y $T:V\to V$ una transformación lineal de índice $k$. Sea $v$ un vector tal que $T^{k-1}(v)\neq 0$, el cual existe ya que $T^{k-1}$ no es la transformación lineal cero. Entonces:

  1. Los vectores $v$, $T(v)$, $\ldots$, $T^{k-1}(v)$ son linealmente independientes.
  2. El subespacio $W$ que generan es de dimensión $k$ y es estable bajo $T$.
  3. La transformación $T$ restringida a $W$ en la base $T^{k-1}(v)$, $T^{k-2}(v)$, $\ldots$, $T(v)$, $v$ tiene como matriz al bloque de Jordan $J_{0,k}$. Ojo. Aquí los vectores los escribimos en orden contrario, empezando con la mayor potencia de $T$ aplicada.

Demostración. Probemos las afirmaciones una por una. Para empezar, supongamos que para ciertos escalares $\alpha_0,\ldots,\alpha_{k-1}$ tenemos que $$\alpha_0v+\alpha_1T(v)+\ldots+\alpha_{k-1}T^{k-1}(v)=0.$$

Vamos a probar inductivamente de $0$ a $k-1$ que $\alpha_k=0$. Para mostrar que $\alpha_0=0$, aplicamos $T^{k-1}$ a la combinación lineal anterior para obtener:

\begin{align*}
0&=\alpha_0T^{k-1}(v)+\alpha_1T^k(v)+\ldots+\alpha_{k-1}T^{2k-2}(v)\\
&=\alpha_0T^{k-1}(v).
\end{align*}

Aquí estamos usando en todos los sumandos, excepto el primero, que $T^k=0$. Como $T^{k-1}(v)\neq 0$, concluimos que $\alpha_0=0$. Suponiendo que ya hemos mostrado $\alpha_0=\ldots=\alpha_l=0$, la combinación lineal con la que empezamos queda como $$\alpha_{l+1}T^{l+1}(v)+\alpha_{l+2}T^{l+2}(v)+\ldots+\alpha_{k-1}T^{k-1}(v)=0.$$ Aplicando $T^{k-l-2}$ y usando un argumento similar al anterior se llega a que $\alpha_{l+1}=0$. Esto muestra que la única combinación lineal de los vectores que da cero es la combinación lineal trivial, así que son linealmente independientes.

De manera inmediata obtenemos entonces que esos $k$ vectores generan un subespacio $W$ de dimensión $k$. Para ver que $W$ es $T$ estable, tomemos un elemento $w$ en $W$, es decir $$w=\alpha_0v+\alpha_1T(v)+\ldots+\alpha_{k-1}T^{k-1}(v)$$ para algunos escalares $\alpha_0,\ldots,\alpha_{k-1}$. Debemos ver que $T(w)$ está nuevamente en $W$. Haciendo las cuentas y usando nuevamente que $T^k=0$ obtenemos:

\begin{align*}
T(w)&=T(\alpha_0v+\alpha_1T(v)+\ldots+\alpha_{k-1}T^{k-1}(v))\\
&= \alpha_0T(v)+\alpha_1T^2(v)+\ldots+\alpha_{k-2}T^{k-1}(v)+\alpha_{k-1}T(v)\\
&= \alpha_0T(v)+\alpha_1T^2(v)+\ldots+\alpha_{k-2}T^{k-1}(v)\\
\end{align*}

Este vector de nuevo es combinación lineal de los vectores que nos interesan, así que $T(w)$ está en $W$, como queríamos.

La afirmación de la forma matricial es inmediata pues precisamente

$$T(T^{j}(v))=0\cdot T^{n-1}(V)+\ldots+1\cdot T^{j+1}(v)+\ldots+0\cdot T(v) + 0\cdot v,$$ de donde se lee que las columnas de dicha forma matricial justo son las del bloque de Jordan $J_{0,k}$.

$\square$

El teorema anterior da otra demostración de algo que ya habíamos mostrado en la entada anterior: el índice de una matriz en $M_n(F)$ (o de una transformación nilpotente en un espacio vectorial de dimensión $n$) no puede exceder $n$.

Encontrar un subespacio complementario y estable

Ahora veremos otro resultado auxiliar que necesitaremos para demostrar la existencia de la forma canónica de Jordan. A partir de él podemos conseguirnos un «subespacio complementario y estable» que en la prueba de la existencia nos ayudará a proceder inductivamente. Este truco ya lo hemos visto antes en la clasificación de matrices ortogonales y el la demostración del teorema espectral.

Proposición. Sea $V$ un espacio vectorial de dimensión finita $n$ y $T:V\to V$ una transformación lineal nilpotente de índice $k$. Tomemos $v$ un vector tal que $T^{k-1}(v)\neq 0$. Sea $W$ el subespacio generado por $v,T(v),\ldots,T^{k-1}(v)$. Entonces, existe un subespacio $W’$ estable bajo $T$ y tal que $T=W\oplus W’$.

La principal dificultad para probar esta proposición es una cuestión creativa: debemos saber de dónde sacar el espacio $W’$. Para ello, haremos uso de la transformación transpuesta y de un espacio ortogonal por dualidad. Como recordatorio, si $T:V\to V$ es una transformación lineal, entonces su transformación transpuesta es una transformación lineal $^tT:V^\ast \to V^\ast$ para la cual $^tT(\ell)(u)=\ell(T(u))$ para cualquier forma lineal $\ell$ y cualquier vector $u$ en $V$.

Demostración. Primero, nos enfocamos en construir $W’$. Para ello procedemos como sigue. Como $T^{k-1}(v)\neq 0$, entonces existe una forma lineal $\ell$ tal que $\ell(T^{k-1}(v))\neq 0$. Se puede mostrar que $S:=\text{ }^t T$ también es nilpotente de índice $k$. Por la proposición de la sección anterior, tenemos entonces que $\ell, S(\ell),\ldots,S^{k-1}(\ell)$ son $k$ vectores linealmente independientes en $V^\ast$ y por lo tanto que generan un subespacio $Z$ de dimensión $k$. El espacio $W’$ que propondremos será $Z^\bot$.

Debemos mostrar que:

  1. En efecto $V=W\oplus W’$.
  2. En efecto $W’$ es $T$ estable.

Para la primer parte, usando teoría de espacios ortogonales tenemos que $$\dim(W’)=\dim(Z^\bot)=n-\dim(Z)=n-k,$$ así que los subespacios tienen la dimensión correcta para ser complementarios. Además, si $u\in W\cap W’$, entonces $u$ es combinación lineal de $v, T(v),\ldots, T^{k-1}(v),$ digamos $$u=\alpha_0v+\ldots+\alpha_{k-1}T^{k-1}(v)$$ y se anula por $\ell, S(\ell),\ldots,S^{k-1}(\ell)$, lo que quiere decir que se anula por $\ell, \ell\circ T, \ldots, \ell \circ T^{k-1}$. Esto permite probar iterativamente que $\alpha_0=\ldots=\alpha_{k-1}=0$, de modo que $u=0$. Con esto, $W$ y $W’$ son de intersección trivial y dimensiones complementarias, lo cual basta para que $V=W\oplus W’$.

Para terminar, debemos ver que $W’$ es $T$ estable. Tomemos un $u$ en $W’$, es decir, tal que se anula por $\ell, \ell\circ T, \ldots, \ell \circ T^{k-1}$. Al aplicar $T$, tenemos que $T(u)$ también se anula por todas estas transformaciones. Esto se debe a que para $\ell \circ T^j$ con $j\leq k-2$ se anula ya que $\ell\circ T^j(T(u))=\ell\circ T^{j+1}(u)=0$ por cómo tomamos $u$ y para $\ell \circ T^{k-1}$ se anula pues $T$ es nilpotente de índice $k$.

$\square$

Existencia de forma canónica de Jordan para nilpotentes

La idea para encontrar la forma canónica de Jordan debe ser clara a estas alturas: se procederá por inducción, el caso base será sencillo, asumiremos la hipótesis inductiva y para hacer el paso inductivo descomponeremos al espacio $V$ mediante la proposición de la sección anterior. Veamos los detalles.

Demostración (existencia de forma canónica de Jordan para nilpotentes). Estamos listos para probar la existencia de la forma canónica de Jordan para una transformación lineal nilpotente $T:V\to V$ con $V$ un espacio vectorial de dimensión finita $n$. Procederemos por inducción en la dimensión. Si $n=1$, entonces $V$ es generado por un vector $v$ y la transformación lineal $T$ debe mandarlo al vector $0$ para ser nilpotente. En esta base, $T(v)=0$ y la matriz que representa a $T$ es entonces $(0)=J_{0,1}$.

Supongamos que existe la forma canónica de Jordan para cuando $V$ es de cualquier dimensión menor a un entero positivo dado $n$. Tomemos $V$ un espacio vectorial de dimensión $n$ y $T:V\to V$ una transformación lineal nilpontente. Si $T$ es de índice $n$, entonces $T^{n-1}(v),\ldots,T(v),v$ son linealmente independientes y por lo tanto son una base de $V$. La forma matricial de $T$ en esta base es el bloque de Jordan $J_{0,n}$, en cuyo caso terminamos.

De otra forma, el índice es un número $k<n$. Entonces, $T^{k-1}(v),\ldots,T(v),v$ generan un subespacio estable $W$ de dimensión $k$. Por la proposición de la sección anterior, podemos encontrar un subespacio complementario $W’$ de dimensión $n-k<n$ y estable bajo $T$. Como la restricción de $T$ a $W’$ tiene codominio $W’$, es nilpotente y $\dim(W)<\dim(V)$, entonces por hipótesis inductiva $W’$ tiene una base $\beta$ bajo la cual la restricción de $T$ a $W’$ tiene como forma matricial una matriz diagonal por bloques con puros bloques de Jordan del estilo $J_{0,k_j}$. Al completar $\beta$ con $T^{k-1}(v),\ldots,T(v),v$ , obtenemos una base de $V$ en la cual $T$ tiene como forma matricial una matriz diagonal por bloques con puros bloques de Jordan del estilo $J_{0,k_j}$ (que vienen de la hipótesis inductiva) y un bloque de Jordan $J_{0,k}$. Salvo quizás un reordenamiento de la base para ordenar los $k_j$ y $k$, obtenemos exactamente lo buscado.

$\square$

Más adelante…

Ya demostramos una parte fundamental del teorema que nos interesa: la existencia de la forma canónica de Jordan para transformaciones (y matrices) nilpotentes. Nos falta otra parte muy importante: la de la unicidad. Las demostraciones de unicidad típicamente son sencillas, pero en este caso no es así. Para decir de manera explícita cuál es la forma canónica de Jordan de una transformación (o matriz) nilpotente, deberemos hacer un análisis cuidadoso del rango de las potencias de la transformación (o matriz). Veremos esto en las siguientes entradas.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Verifica que la siguiente matriz es nilpotente: $$\begin{pmatrix}13 & 6 & -14 & -5\\ 2 & 0 & -4 & -2 \\ 29 & 12 & -34 & -13 \\ -45 & -18 & 54 & 21\end{pmatrix}.$$
    Siguiendo las ideas de la demostración de existencia de esta entrada, ¿cómo podrías dar la forma canónica de Jordan de esta matriz? Intenta hacerlo.
  2. Sea $V$ un espacio vectorial de dimensión finita y $T:V\to V$ una transformación lineal nilpotente de índice $k$. Demuestra que $^tT$ también es una transformación lineal nilpotente de índice $k$. ¿Cuál sería el resultado análogo para matrices?
  3. Sea $V$ un espacio vectorial de dimensión finita y $T:V \to V$ una transformación lineal tal que para cualquier $v$ en $V$ existe algún entero $n$ tal que $T^n(v)=0$. Estos $n$ pueden ser distintos para distintos $v$. Muestra que $T$ es nilpotente.
  4. Considera el subespacio $V$ de polinomios reales con grado a lo más $4$ y $D:V\to V$ la transformación lineal derivar. Da, de manera explícita, espacios $W$ y $W’$ como en las proposición de encontrar el subespacio complementario estable.
  5. Hay varios detalles que quedaron pendientes en las demostraciones de esta entrada. Revisa la entrada para encontrarlos y da las demostraciones correspondientes.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Introducción a forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta última unidad usaremos las herramientas desarrolladas hasta ahora para enunciar y demostrar uno de los teoremas más hermosos y útiles en álgebra lineal: el teorema de la forma canónica de Jordan. A grandes rasgos, lo que nos dice este teorema es que cualquier matriz prácticamente se puede diagonalizar. En esta primera entrada hablaremos un poco de qué puedes esperar en el transcurso de la unidad, aunque en un orden algo distinto que te ayudará a entender mejor la motivación de presentar la teoría cómo vendrá en las siguientes notas.

Bloques de Jordan

Un bloque de Jordan de tamaño $k$ y eigenvalor $\lambda$ es una matriz en $M_k(F)$ que se obtiene de comenzar con $\lambda I_k$ y agregar encima de la diagonal principal puros unos. Queda algo así:

$$J_{\lambda,k}=\begin{pmatrix} \lambda & 1 & 0 & \ldots & 0 & 0 \\ 0 & \lambda & 1 & \ldots & 0 & 0 \\ 0 & 0 & \lambda & \ldots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \ldots & \lambda & 1 \\ 0 & 0 & 0 & \ldots & 0 & \lambda \end{pmatrix}.$$

Puedes notar que esto es prácticamente una matriz diagonal, a excepción de la diagonal de unos que queda por encima de la diagonal principal. Esto debería sugerirte que los bloques de Jordan son casi tan amigables como las matrices diagonales. Como veremos en las siguientes entradas, es muy fácil calcularles su traza, determinante, polinomio característico, polinomio mínimo, eigenvalores, eigenvectores, etc.

A partir de los bloques de Jordan podemos formar matrices de bloques de Jordan pegando varios bloques de Jordan en una diagonal para obtener una matriz del siguiente estilo:

\begin{equation}\label{eq:Jordan}\begin{pmatrix} J_{\lambda_1,k_1} & 0 & 0 & \ldots & 0 \\ 0 & J_{\lambda_2,k_2} & 0 & \ldots & 0 \\ 0 & 0 & J_{\lambda_3,k_3} & \ldots & 0 \\ & \vdots & & \ddots & \vdots \\ 0 & 0 & 0 & \ldots & J_{\lambda_d,k_d}\end{pmatrix}.\end{equation}

Aquí pusimos muchos ceros, pero en el fondo cada uno de estos ceros son una matriz de ceros. Por ejemplo, si tenemos los tres bloques de Jordan $J_{3,2}$, $J_{-2,1}$ y $J_{5,3}$ y pegamos estos bloques, obtenemos la siguiente matriz de bloques:

$$\left( \begin{array}{cc|c|ccc} 3 & 1 & 0 & 0 & 0 & 0 \\ 0 & 3 & 0 & 0 & 0 & 0\\ \hline 0 & 0 & -2 & 0 & 0 & 0 \\ \hline 0 & 0 & 0 & 5 & 1 & 0\\ 0 & 0 & 0 & 0 & 5 & 1 \\ 0 & 0 & 0 & 0 & 0 & 5 \end{array}\right).$$

Recuerda que las líneas que dibujamos en una matriz de bloques son simplemente ayuda visual. Estas matrices también son prácticamente diagonales y, como te imaginarás, también es fácil encontrar muchas de sus propiedades.

Teorema de la forma canónica de Jordan

Si recuerdas, una de las motivaciones fuertes para que nos interesara diagonalizar una matriz $A$ es que la matriz diagonal $D$ semejante comparte muchas propiedades con $A$, pero $D$ es mucho más fácil de entender. A veces no podremos encontrar una matriz diagonal semejante a $A$, pero lo que nos dice el teorema de formas canónicas de Jordan es que prácticamente siempre podremos encontrar una matriz de bloques de Jordan semejante a $A$.

Teorema. Sea $A\in M_n(F)$ una matriz tal que su polinomio característico $\chi_A(X)$ se divide sobre $F$. Entonces, $A$ es similar a una matriz de bloques de Jordan, es decir, una matriz como en \refeq{eq:Jordan}.

En realidad, cuando enunciemos el teorema lo haremos de manera más formal, y hasta diremos en qué sentido la forma canónica de Jordan es única.

¿Por qué decimos que entonces prácticamente siempre podemos diagonalizar una matriz? En cursos más avanzados se muestra que sin importar en qué campo $F$ estemos trabajando, siempre podemos extender el campo $F$ lo suficiente como para que cualquier polinomio se divida sobre una extensión $G$ de $F$. En este campo extendido, cualquier matriz en $M_n(F)$ se puede diagonalizar.

Transformaciones y matrices nilpotentes

Para demostrar el teorema de Jordan, primero tendremos que enunciarlo y demostrarlo para una clase muy especial de matrices: las nilpotentes. Ya hemos hablado un poco de estas matrices en ejercicios particulares y algunos problemas de la tarea moral. Pero si se te pasó, una matriz $A$ en $M_n(F)$ es nilpotente cuando se puede encontrar un expontente $m$ tal que $A^m=O_n$. De manera similar, si $T$ es una transformación lineal, diremos que es nilpotente cuando $T^m=Z$ para algún exponente $m$, donde $Z$ es la transformación lineal trivial que manda todo elemento al $0$. Recuerda que aquí el exponente indica cuántas veces se compone $T$ consigo mismo. Como te imaginarás, $T$ será nilpotente si y sólo si alguna de sus formas matriciales lo es.

Las matrices nilpotentes servirán como nuestros cimientos para demostrar el teorema de la forma canónica de Jordán. Es sencillo ver que los bloques de Jordan de la forma $J_{0,k}$ son nilpotentes. También es sencillo ver que cualquier matriz de bloques de Jordan con puros eigenvalores iguales a cero es nilpotente. Nuestra primera versión del teorema de la forma canónica de Jordán nos dará algo así como un «regreso» de esta afirmación. El siguiente teorema es una versión «light» de lo que demostraremos.

Teorema. Sea $A\in M_n(F)$ una matriz nilpotente. Entonces, $A$ es similar a una matriz de bloques de Jordan, todos ellos con eigenvalor $0$.

La demostración será muy bonita, y hará uso de la teoría de dualidad de Álgebra Lineal I. Una vez que demostremos esta versión, la combinaremos con el teorema de Cayley-Hamilton de la Unidad 1 para obtener el teorema general.

Aplicaciones del teorema de Jordan

Si conocemos la forma canónica de Jordan de una matriz, podemos encontrar a partir de ella fácilmente muchas propiedades, como la traza, determinante, etc. Además de estas aplicaciones «de cálculo de propiedades», el teorema de la forma canónica de Jordán nos permitirá decir exactamente cuándo dos matrices son similares. En particular, veremos que cualquier matriz $A$ es similar a su transpuesta.

Tarea moral

En esta ocasión la tarea moral consistirá en un repaso de contenido anterior tanto de Álgebra Lineal I como Álgebra Lineal II, para que cuentes con todas las herramientas necesarias para aprovechar esta última unidad.

  1. Haz un repaso de la teoría de Matrices de bloques, para recordar a qué se refiere esta notación y cómo se pueden hacer operaciones cuando las matrices están escritas por bloques.
  2. Revisa la entrada de Matrices de cambio de base, para recordar por qué dos matrices similares en el fondo representan a la misma transformación lineal, pero en distintas bases.
  3. Repasa la teoría básica de dualidad en espacios vectoriales. Puedes comenzar con la entrada de Introducción a espacio dual. Concretamente, tendrás que recordar por lo menos hasta la teoría de Ortogonalidad y espacio ortogonal.
  4. Recuerda todo lo que podemos decir de las transformaciones triangularizables, revisando la entrada de Triangularizar y descomposición de Schur, y compara los resultados de ahí con lo que esperamos obtener sobre forma canónica de Jordan. ¿Cuál teorema dice algo más fuerte?
  5. Vuelve a leer todo el contenido relacionado con el teorema de Cayley-Hamilton para recordar no sólo qué dice, sino cómo está relacionado con los eigenespacios asociados a una transformación lineal. Puedes empezar con la entrada de Introducción al teorema de Cayley-Hamilton.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Aplicaciones de bases ortogonales en espacios euclideanos

Por Diego Ligani Rodríguez Trejo

Introducción

Cerraremos la tercera unidad con dos entradas relacionadas con tener bases ortogonales y cómo encontrar estas bases. En realidad estos temas ya se vieron en el primer curso de Álgebra Lineal, así que estas entradas más bien estarán escritas como recordatorios de esa teoría.

Las entradas correspondientes en el primer curso de Álgebra Lineal son las siguientes: Bases ortogonales, Bases ortogonales y descomposición de Fourier, Proceso de Gram-Schmidt y Problemas de bases ortogonales y proceso de Gram-Schmidt.

Familias ortogonales y ortonormales

En esta entrada $V$ es un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$ y norma asociada $\norm{\cdot}$.

Definición. Una familia de vectores $(v_i)_{i \in I} \subseteq V$ es ortogonal si
para cualesquiera $i,j$ en $I$ se tiene que $$\langle v_i,v_j \rangle =0.$$ Aquí $I$ es un conjunto de índices cualquiera.

Definición. Diremos que una $(v_i)_{i \in I}$ es ortonormal si es ortogonal y además cada vector tiene norma $1$.

Definición. Una base ortogonal (resp. base ortonormal) es una base del espacio vectorial que además sea ortogonal (resp. ortonormal).

A partir de una familia de vectores $(v_i)_{i\in I}$ cualquiera podemos obtener una familia en donde todos los vectores tienen norma $1$. Basta con reemplazar $v_i$ por $\frac{v_i}{\norm{v_i})$ para todo $i\in I$. Además, es fácil verificar que esto preserva el espacio generado por la familia.

Lo que no es tan sencillo, y recordaremos más adelante, es ver que a partir de cualquier familia de vectores podemos encontrar otra que sea ortogonal y que genere el mismo espacio. Esto está relacionado con el proceso de Gram-Schmidt, que repasaremos en la siguiente entrada. Por el momento, nos enfocaremos a recordar algunas de las ventajas de contar con familias o bases ortogonales/ortonormales.

Independencia lineal de familias ortogonales

La siguiente proposición está demostrada a detalle en la entrada de Bases ortogonales.

Proposición. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$. Cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ con respecto a $\langle \cdot, \cdot \rangle$ y sin vectores cero es linealmente independiente.

La idea de la demostración es sencilla. Si tenemos una combinación lineal $$\sum_{i\in I} \alpha_i v_i=0,$$ entonces hacemos producto interior por cada $v_i$. Tras esto, como la familia es ortogonal, el único elemento que queda es $\alpha_i\langle v_i, v_i\rangle$ y está igualado a cero. Por ser producto interior, $\langle v_i, v_i\rangle\neq 0$, así que $\alpha_i=0$.

Como consecuencia, obtenemos de manera inmediata lo siguiente.

Corolario. Sea $V$ un espacio euclideano de dimensión $n$ con producto interior $\langle \cdot, \cdot \rangle$. Cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ con respecto a $\langle \cdot, \cdot \rangle$ y sin vectores cero tiene a lo más $n$ elementos.

Esto es una consecuencia directa de que la dimensión de un espacio vectorial de dimensión finita limita la cantidad de elementos en un conjunto linealmente independiente, lo cual a su vez era consecuencia del lema de Steinitz.

Leer las coordenadas en una base ortonormal

Cuando tenemos una base ortogonal (u ortonormal), es muy sencillo saber quiénes son las coordenadas de un vector dada una base.

Proposición. Sea $V$ un espacio euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortogonal. Para todo $v$ en $V$ tenemos que

\begin{align*}
v&=\sum_{i=1}^n \frac{\langle v,u_i\rangle}{\langle u_i,u_i\rangle} u_i\\
&=\sum_{i=1}^n \frac{\langle v,u_i\rangle}{\norm{u_i}^2} u_i.
\end{align*}

En otras palabras, «la coordenada correspondiente a $u_i$ se obtiene haciendo producto interior con $u_i$ y dividiendo entre el cuadrado de la norma de $u_i$». La demostración completa la puedes encontrar en la entrada de Aplicaciones de bases ortogonales y descomposición de Fourier, pero puedes redescubrirla fácilmente. Basta escribir a $v$ como combinación lineal de los elementos de $\beta$ y aplicar producto punto por cada uno de ellos. De ahí casi todos los términos se eliminan y del que no se puede obtener la coordenada correspondiente.

Cuando la base es ortonormal, las normas de cada $u_i$ son $1$ y entonces obtenemos lo siguiente.

Corolario. Sea $V$ un espacio euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortonormal. Para todo $v$ en $V$ tenemos que

\begin{align*}
v&=\sum_{i=1}^n \langle v,u_i\rangle u_i.
\end{align*}

Tenemos ahora un poco más de vocabulario para decir esto mismo. La proposición anterior es equivalente a decir que:

  • La base dual de una base ortonormal $u_1,\ldots,u_n$ son las formas lineales $\langle \cdot, u_1\rangle, \ldots, \langle \cdot, u_n\rangle$.
  • Cada elemento de una base ortonormal es la representación de Riesz de su elemento respectivo en la base dual.

Esta forma de determinar las coordenadas es tan importante que a veces tiene sentido obtenerla aunque el espacio vectorial que tengamos sea de dimensión infinita.

Descomposición y series de Fourier

Dada una base $u_1,\ldots,u_n$ de un espacio euclideano, la expresión

\begin{align*}
v&=\sum_{i=1}^n \langle v,u_i\rangle u_i.
\end{align*}

es muy importante, y se le conoce como la descomposición de Fourier de $v$ con respecto a $\beta$. En los espacios euclideanos tenemos la igualdad entre ambos lados. Sin embargo, esta expresión también aparece en muchos otros contextos en donde no necesariamente tenemos dimensión finita, y en donde el vector $v$ al que le buscamos su «descomposición» no necesariamente está en el espacio que queremos.

En la entrada Aplicaciones de bases ortogonales y descomposición de Fourier vemos un ejemplo de esto, en donde discutimos cómo se pueden usar los polinomios trigonométricos para aproximar una función.

Descomposición de Fourier, norma y proyecciones

Como consecuencia de la expresión $v=\sum_{i=1}^n \langle v,u_i\rangle u_i$ se obtiene de manera inmediata la norma de un vector.

Proposición. Si $v=\sum_{i=1}^n \langle v,u_i\rangle u_i$ para una base ortonormal $u_1,\ldots,u_n$, entonces $\norm{x}^2=\sum_{i=1}^n \langle v,u_i\rangle^2$.

También, es muy sencillo encontrar la proyección ortogonal de un vector conociendo una base ortonormal del subespacio a donde proyectamos ortogonalmente.

Proposición. Sea $V$ un espacio euclideano y $W$ un subespacio. Sea $u_1,\ldots,u_r$ una base ortonormal de $W$. Entonces para todo vector $v\in V$ se tiene que $$p_W(v)=\sum_{i=1}^r \langle v, u_i \rangle u_i.$$

Desigualdad de Bessel

Las aplicaciones de las bases ortogonales pueden extenderse bastante. Como ejemplo final, enunciamos la desigualdad de Bessel.

Proposición (desigualdad de Bessel). Sea $V$ un espacio euclideano y $u_1,\ldots,u_r$ un conjunto ortonormal de vectores. Entonces $$\sum_{i=1}^r \langle v, v_i \rangle ^2\leq \norm{v}^2$$ para todo $v$ en $V$.

La demostración igualmente está en la entrada Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt. La idea clave es considerar a $W$ el espacio generado por $u_1,\ldots,u_r$ y calcular $d(v,W)$ usando la fórmula de proyección de la sección anterior, y el resultado de distancia de la entrada anterior.

Más adelante…

En esta entrada repasamos algunas de las aplicaciones que pueden tener las bases ortogonales y ortonormales de un espacio vectorial $V$ con producto interior. En la siguiente entrada recordaremos un resultado crucial: si $V$ es de dimensión finita entonce siempre tiene una base ortonormal.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Intenta reconstruir todas las demostraciones completas de cada uno de los resultados aquí vistos. En caso de tener dificultades, revisa las demostraciones en las entradas correspondientes.
  2. Las matrices en $M_n(\mathbb{R})$ tienen un producto interior dado por $\langle A,B\rangle=\text{traza}(\text{ }^tAB)$. Encuentra una base ortogonal para este producto interior. Da la descomposición de Fourier con respecto a esta base. Encuentra una base ortogonal para el subespacio de matrices simétricas. ¿Qué diría la desigualdad de Bessen en este caso?
  3. Encuentra en términos del producto punto de $\mathbb{R}^n$ cómo es la matriz de cambio de base de una base ortogonal $\beta$ de $\mathbb{R}^n$ a otra base ortogonal $\beta’$.
  4. Sea $V=\mathbb{R}_2[x]$ el espacio de polinomios reales de grado a lo más $2$. Definimos la función $\langle \cdot,\cdot \rangle: V\times V\to\mathbb{R}$ como sigue: $$\langle p,q\rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1).$$ Demuestra que $\langle \cdot, \cdot \rangle$ así definida es un producto interior. Encuentra una base ortonormal para este producto interior.
  5. En espacios hermitianos también tiene sentido definir conjuntos de vectores (o bases) ortogonales y ortonormales. Demuestra los análogos a todos los resultados de esta entrada para el caso complejo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Dualidad y representación de Riesz en espacios euclideanos

Por Diego Ligani Rodríguez Trejo

Introducción

En Álgebra Lineal I introdujimos el concepto de espacio dual, a grandes rasgos, era el espacio vectorial donde estaban todas las formas lineales de un espacio hacia su campo. Por otro lado, en entradas recientes hicimos un recordatorio de qué era un producto interior. Lo que haremos ahora es relacionar ambos conceptos. Esta relación no debería ser tan inesperada, pues un producto interior es una forma bilineal, y al fijar una entrada de este obtenemos una forma lineal.

Lo primero que haremos es ver cómo conectar la matriz que representa a una forma bilineal con una matriz que envía vectores a formas lineales. Después, veremos una versión particular de un resultado profundo: el teorema de representación de Riesz. Veremos que, en espacios euclideanos, toda forma lineal se puede pensar «como hacer producto interior con algún vector».

Nos enfocaremos únicamente a los resultados en el caso real. Los casos en el caso complejo son muy parecidos, y se exploran en los ejercicios.

La matriz de una transformación que «crea» formas lineales

Sea $V$ un espacio vectorial real con una forma bilineal $b$. A partir de $b$ podemos construir muchas formas lineales, a través de la función $\varphi_b:V\to V^\ast$ que asigna a cada vector $y$ de $V$ a la forma lineal $\varphi_b(y):=b(\cdot,y)$.

Podemos pensar a $\varphi_b$ como «una maquinita que genera formas lineales» que depende del vector $b$. Claramente $\varphi_b(y)$ es lineal, pues $b$ es lineal en su primera entrada. Y también claramente $\varphi_b$ es lineal, pues $b$ es lineal en su segunda entrada. En cierto sentido, la matriz correspondiente a la forma bilineal $b$ coincide con la matriz correspondiente a $\varphi_b$.

Proposición. Sea $\beta$ una base de un espacio vectorial $V$ de dimensión finita sobre los reales. Sea $\beta^\ast$ su base dual. Tomemos $b$ una forma bilineal en $V$. La matriz de $\varphi_b$ con respecto a las bases $\beta$ y $\beta’$ es igual a la matriz de $b$ con respecto a la base $\beta$.

Demostración. Llamemos a los elementos de la base $\beta$ como $u_1,\ldots,u_n$ y a los de la base $\beta^ \ast$ como $l_1,\ldots,l_n$. Para encontrar la $j$-ésima columna de la matriz de $\varphi_b$ con respecto a $\beta$ y $\beta^\ast$, debemos expresar a cada $\varphi_b(u_j)$ como combinación lineal de los elementos $l_1,\ldots,l_n$. Para hacer esto, es más sencillo ver cómo es $\varphi_b(u_j)(x)$ para cada $x\in V$ y usar que los $l_i$ «leen» las coordenadas en la base $\beta$.

Para ello, tomemos $x=\sum_{i=1}^nu_ix_i$. Tenemos lo siguiente:

\begin{align*}
\varphi_b(u_j)(x)&=b(\sum_{i=1}^nu_ix_i,u_j)\\
&= \sum_{i=1}^nx_ib(u_i,u_j)\\
&= \sum_{i=1}^n l_i(x) b(u_i,u_j).
\end{align*}

Como esto sucede para cada vector $x$, tenemos entonces que $$\varphi_b(u_j)=\sum_{i=1}^n b(u_i,u_j) l_i.$$

Pero esto es justo lo que queremos. Las entradas de la $j$-ésima columna de la matriz que representa a $\varphi_b$ son entonces los coeficientes $b(u_1,u_j),b(u_2,u_j),\ldots,b(u_n,u_j)$. Pero esas son justo las entradas de la $j$-ésima columna de la matriz que representa a $b$ en la base $\beta$.

$\square$

Teorema de representación de Riesz

La sección anterior explica cómo de una forma bilineal $b$ podemos obtener una «máquinita» que genera formas lineales $\varphi_b$. Si $b$ es mucho más especial (un producto interior), entonces esta maquinita es «más potente», en el sentido de que puede generar cualquier forma lineal del espacio. A este resultado se le conoce como el teorema de representación de Riesz. Aunque sus versiones más generales incluyen ciertos espacios de dimensión infinita, y el enunciado dice algo más general, en este curso nos limitaremos a enunciar y demostrar la versión en espacios vectoriales de dimensión finita.

Teorema (teorema de representación de Riesz). Sea $V$ un espacio euclidiano con producto interno $\langle \cdot, \cdot \rangle$. La función $\varphi_{\langle \cdot, \cdot \rangle}: V \rightarrow V^\ast$ es un isomorfismo.

Demostración. Debemos probar que $\varphi_{\langle \cdot, \cdot \rangle}$ es una transformación lineal biyectiva hacia $V^\ast$. Como mencionamos en la sección anterior, cada $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es una forma lineal pues el producto interior es lineal en su primera entrada. Además, $\varphi_{\langle \cdot, \cdot \rangle}$ es una transformación lineal pues el producto interior es lineal en su segunda entrada.

Por los resultados que se vieron en el curso de Álgebra Lineal I, se tiene que $\dim V = \dim V^\ast$. De esta manera, basta ver que $\varphi_{\langle\cdot,\cdot \rangle}$ es inyectiva. Y para ello, basta ver que el único vector $y$ tal que $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es la forma lineal cero es $y=0$.

Supongamos entonces que $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es la forma lineal cero. Si este es el caso, entonces para cualquier $x$ en $V$ tendríamos que $\langle x, y \rangle = 0$. En particular, esto sería cierto para $x=y$, de modo que $\langle y, y \rangle =0$. Pero como el producto interior es positivo definido, esto implica que $y=0$.

Esto muestra que $\varphi_{\langle \cdot, \cdot \rangle}$ es inyectiva. Como es transformación lineal entre espacios de la misma dimensión, entonces es biyectiva.

$\square$

Ejemplo de representación de Riesz

Las operaciones que se hacen para calcular una forma lineal no siempre son sencillas. Lo que nos dice el teorema de representación de Riesz es que podemos tomar un «vector representante» de una forma lineal para que evaluarla corresponda «simplemente» a hacer un producto interior. Si es fácil hacer ese producto interior, entonces podemos simplificar la evaluación de la forma lineal.

Ejemplo. Tomemos $V$ el espacio vectorial de polinomios con coeficientes reales y grado a lo más $2$. Hemos visto con anterioridad que $\langle \cdot, \cdot \rangle: V\times V \to \mathbb{R}$ dado por: $$\langle p, q \rangle = p(0)q(0)+p(1)q(1)+p(2)q(2) $$ es un producto interior.

Hemos visto también que $I:V\to \mathbb{R}$ dada por $I(p)=\int_0^1 p(x)\, dx$ es una forma lineal. El teorema de representación de Riesz nos garantiza que $I$, que es una integral definida, debería poder «representarse» como el producto interior con un polinomio especial $q$. Esto parecen ser buenas noticias: para $I(p)$ necesitamos hacer una integral. Para hacer el producto interior, sólo son unas multiplicaciones y sumas.

El polinomio «mágico» que funciona en este caso es el polinomio $q(x)=-\frac{x^2}{2}+\frac{3}{4}x+\frac{5}{12}$. Puedes verificar que:

\begin{align*}
q(0)&=\frac{5}{12}\\
q(1)&=\frac{2}{3}\\
q(2)&=-\frac{1}{12}.
\end{align*}

De esta manera, si hacemos el producto interior con cualquier otro polinomio $p(x)=ax^2+bx+c$ obtenemos:

\begin{align*}
\langle p, q \rangle &= p(0)q(0) + p(1)q(1)+p(2)q(2)\\
&= c\cdot \frac{5}{12} + (a+b+c)\cdot \frac{2}{3} + (4a+2b+c) \cdot \left(-\frac{1}{12}\right)\\
&=\frac{a}{3}+\frac{b}{2}+c.
\end{align*}

Si por otro lado hacemos la integral, obtenemos:

\begin{align*}
\int_0^1 ax^2 + bx + c \, dx &= \left. \left(\frac{ax^3}{3}+\frac{bx^2}{2}+cx \right)\right|_0^1\\
&=\frac{a}{3}+\frac{b}{2}+c.
\end{align*}

En ambos casos se obtiene lo mismo.

$\triangle$

Se podría tener una discusión más profunda para explicar cómo se obtuvo el polinomio $q$ del ejemplo anterior. Sin embargo, dejaremos la experimentación de esto para los ejercicios. Por ahora, la mayor ventaja que le encontraremos al teorema de representación de Riesz es la garantía teórica de que dicho vector que representa a una forma lineal dado un producto interior siempre existe en los espacios euclideanos.

Más adelante…

Hemos enunciado y demostrado una versión del teorema de Riesz para espacios euclieanos. Este teorema tiene versiones más generales en el contexto de espacios de Hilbert. Así mismo, una versión más extensa del teorema de Riesz nos dice cómo es la norma del vector que representa a un producto interior. Estos resultados son muy interesantes, pero quedan fuera del alcance de este curso. Es posible que los estudies si llevas un curso de análisis funcional.

Un poco más adelante, en la Unidad 3, usaremos el teorema de representación de Riesz para definir a las transformaciones adjuntas, a las simétricas y a las ortogonales. Por ahora, nos enfocaremos en estudiar más definiciones y propiedades en espacios euclideanos. La siguiente definición que repasaremos es la de ortogonalidad para vectores y para espacios vectoriales. Es un concepto que se estudia por encima en Álgebra Lineal I, pero ahora tenemos herramientas para poder decir más.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Podemos definir a $\varphi_b: V \rightarrow V^*$ en la otra entrada? Es decir, como la función tal que $\varphi_b(x)=b(x,\cdot)$? Si hacemos esto, ¿cambian en algo los resultados que vimos?
  2. Considera el espacio vectorial de matrices en $M_n(\mathbb{R})$. Anteriormente vimos que $b(A,B)=\text{tr}(\text{ }^t A B)$ es un producto interior y que sacar traza es una forma lineal. De acuerdo al teorema de representación de Riesz, debe haber una matriz $T$ que representa a la traza, es decir, tal que $\text{tr}(A)=b(A,T)$. ¿Quién es esta matriz $T$? Ahora, si tomamos la transformación que manda una matriz $A$ a la suma de las entradas en su antidiagonal, esto también es una forma lineal. ¿Quién es la matriz que representa a esta forma lineal con el producto interior dado?
  3. Enuncia y demuestra un teorema de igualdad de formas matriciales para el caso de formas sesquilineales. ¿Necesitas alguna hipótesis adicional?
  4. Enuncia y demuestra un teorema de representación de Riesz para espacios hermitianos. Deberás tener cuidado, pues el vector que representa a una forma lineal tendrá que estar en la coordenada que conjuga escalares. ¿Por qué?
  5. ¿Será cierto el teorema de representación de Riesz si la forma bilineal no es un producto interior? Identifica dónde falla la prueba que dimos. Luego, construye un contraejemplo para ver que la hipótesis de que $b$ sea positiva definida es fundamental. Es decir, encuentra un espacio vectorial $V$ real con una forma bilineal simétrica y positiva $b$, en donde exista una forma lineal $l$ tal que sea imposible encontrar un vector $y$ tal que para todo $x$ en $V$ se tenga que $l(x)=b(x,y)$. Sugerencia. Parace que hay muchos cuantificadores. Intenta dar un contraejemplo lo más sencillo posible, por ejemplo, en $\mathbb{R}^2$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Matrices de formas sesquilineales

Por Diego Ligani Rodríguez Trejo

Introducción

En la entrada anterior dimos una relación entre matrices y formas bilineales. Como hemos hecho anteriormente, extenderemos este conocimiento para el caso de espacios vectoriales complejos. En esta entrada daremos una relación entre formas sesquilineales, formas cuadráticas hermitianas y matrices. Daremos la definición y veremos sus propiedades.

Gran parte de la relación que había para el caso real se mantiene al pasar a los complejos. Las demostraciones en la mayoría de los casos son análogas, así que la mayoría de ellas quedarán como tarea moral. Sin embargo, haremos énfasis en las partes que hacen que el caso real y el complejo sean distintos. Te recomendamos tener a la mano las entradas sobre formas bilineales y matrices y formas sesquilineales.

Matriz asociada a una forma sesquilineal y una forma cuadrática hermitiana

A partir de aquí, en esta entrada, asumiremos que $V$ es un espacio vectorial sobre $\mathbb{C}$ de dimensión finita. Recordemos que $S(V)$ se definió como el espacio de formas sesquilineales de $V$.

Definición. Sea $u_1, \ldots, u_n$ una base de $V$ y $\varphi: V \times V \rightarrow \mathbb{C}$ una forma sesquilineal de $V$. La matriz de $\varphi$ con respecto a la base $u_1, \ldots, u_n$ es la matriz
\begin{align*} A=[a_{ij}] \qquad \text{con} \qquad a_{ij}=\varphi(u_i,u_j),\end{align*}
para todo $i,j$ tal que $1 \leq i,j \leq n$.

Veamos primero como escribir $\varphi(x,y)$ en su forma matricial. Así como en el caso real, también podemos definir la matriz de una forma cuadrática usando su forma polar.

Definición. Sea $u_1, \cdots , u_n$ una base de $V$ y $q$ una forma cuadrática hermitiana de $V$, la matriz de $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz de su forma polar en esa misma base.

Hasta ahora todo es muy parecido al caso real.

Evaluar la forma sesquilineal con su matriz

Como en el caso real, podemos la matriz de una forma sesquilineal para evaluarla. Sin embargo, hay que ser cuidadosos pues por la sesquilinealidad debemos conjugar el vector de coordenadas de la primer entrada de la forma sesquilineal.

Proposición. Sea $\varphi$ una forma sesquilineal de $V$ y $\mathcal{B}$ una base de $V$. Sea $A$ la matriz de $\varphi$ en la base $\mathcal{B}$. Sean $X$ y $Y$ los vectores de coordenadas de vectores $x$ y $y$ de $V$ en la base $\mathcal{B}$, respectivamente. Entonces: $$\varphi(x,y)=X^\ast AY.$$

Aquí $X^\ast$ es la matriz transpuesta conjugada, es decir, la que se obtiene al conjugar todas las entradas de $^tX$. La demostración es análoga al caso real, cuidando en que en la primer entrada de una forma sesquilineal los escalares salen conjugados. Por ello, queda como ejercicio.

Tenemos dos consecuencias importantes de la proposición anterior:

  • La matriz $A$ que hace $$\varphi(x,y)=X^\ast AY$$ para cualesquiera $x,y$, es única.
  • Se tiene que $\varphi$ es hermitiana si y sólo si su matriz $A$ cumple $A=A^\ast$.

En el caso real no vimos las demostraciones de las afirmaciones análogas, así que ahora sí veremos las demostraciones de estas.

Proposición. Con la notación de arriba, $A$ es la unica matriz que cumple
\begin{align*} \varphi(x,y)=X^ \ast AY.\end{align*}

Demostración. Supongamos que tenemos otra matriz $A’=[a’_{ij}]$ tal que \begin{align*} \varphi(x,y)=X^*A’Y.\end{align*} Tomando elementos $u_i$ y $u_j$ de la base $\mathcal{B}$, obtenemos que el vector de coordenadas $U_i$ (resp. $U_j$) de $u_i$ (resp. $u_j$) es el vector con $1$ en la entrada $i$ (resp. $j$) y cero en las demás. De este modo:

\begin{align*}
a’_{ij}&=U_i^*A’U_j\\
&=b(u_i,u_j)\\
&=a_{ij}.
\end{align*}

Esto muestra que las matrices $A$ y $A’$ son iguales entrada a entrada, de modo que $A$ es única.

$\square$

Proposición. Con la notación de arriba, $\varphi$ es hermitiana si y sólo si $A=A^*$.

Demostración. Supongamos primero que $\varphi$ es hermitiana. En particular, para $u_i$ y $u_j$ elementos de la base obtenemos que $\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)}.$ En términos de las entradas de la matriz $A$ obtenemos entonces que:

\begin{align*}
a_{ij}&=\varphi(u_i,u_j)\\
&= \overline{\varphi(u_j,u_i)}\\
&=\overline{a_{ji}}.
\end{align*}

Esto nos dice que $A=A^\ast$.

Ahora, suponiendo que $A=A^ \ast $ se tiene directamente que $\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)}$ para cualquier par de elementos $u_i$ y $u_j$ de la base. De este modo, la forma sesquilineal es hermitiana en parejas de elementos de la base. Si tenemos ahora cualesquiera dos vectores $x$ y $y$ en $V$, basta con escribirlos en términos de la base $x=\sum_{i=1}^n x_iu_i$, $y=\sum_{j=1}^n y_ju_j$ y usar la proposición de la entrada de formas sesquilineales para obtener

\begin{align*}
\varphi(x,y)&=\sum_{i=1}^n \sum_{j=1}^n \overline{x_i}y_j \varphi(u_i,u_j)\\
&= \sum_{i=1}^n \sum_{j=1}^n \overline{x_i \overline{y_j}\varphi(u_j,u_i)}\\
&=\overline{\varphi(y,x)},
\end{align*}

tal y como queríamos.

$\square$

Esta última equivalencia da pie a definir una matriz hermitiana.

Definición. Sea $A\in M_n(\mathbb{C})$. Diremos que $A$ es conjugada simétrica o hermitiana si $A=A^*.$

Cambios de base

En el caso real, dos matrices que representan a una misma matriz difieren en un producto dado por una matriz de cambio de base y su transpuesta. En el caso complejo sucede algo parecido, pero debemos usar una matriz de cambio de base y su transpuesta conjugada.

Proposición. Supongamos que una forma sesquilineal $\varphi$ tiene asociada una matriz $A$ con respecto a una base $\mathcal{B}$ y una matriz $A’$ con respecto a otra base $\mathcal{B}’$ . Sea $P$ la matriz de cambio de base de $\mathcal{B}$ a $\mathcal{B}’$ . Entonces

\begin{align*} A’=P^\ast AP.\end{align*}

La demostración es análoga al caso real, cuidando la conjugación de los escalares que salen de la primera entrada de una forma sesquilineal.

Más adelante…

Hasta ahora ya hemos hablado de formas bilineales, sesquilineales y sus formas matriciales. También platicamos de algunos conceptos que surgen de estas ideas, como las formas cuadráticas y las cuadráticas hermitianas. La importancia de estos conceptos es que nos permiten hacer geometría en espacios vectoriales reales o complejos.

En la siguiente entrada explicaremos esto más a detalle. Un poco más adelante veremos cómo en espacios «con geometría» podemos definir conceptos de dualidad y ortogonalidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Considera la matriz $\begin{pmatrix}1+i & 0 \\ 5 & 1+2i \end{pmatrix}$. ¿Con cuál forma sesquilineal de $\mathbb{C}^2$ está asociada bajo la base canónica? y ¿Con qué forma sesquilineal de $\mathbb{C}^2$ está asociada bajo la base $(1+i,1)$, $(1,2+i)$?
  2. Prueba la proposición que dice cómo evaluar una forma sesquilineal usando su forma matricial y los vectores coordenada de vectores en cierta base dada.
  3. Prueba la proposición de cambios de base para la forma matricial de una forma sesquilineal.
  4. Demuestra que para cualesquiera dos matrices $A,B \in M_n(\mathbb{C})$ se tiene que
    \begin{align*} (AB)^*=B^*A^*.\end{align*}
  5. Demuestra que para cualquier matriz $B \in M_n(\mathbb{C})$ se tiene que las matrices $B^*B$ y $BB^*$ son hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»