Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Álgebra Lineal II: Matrices de formas sesquilineales

Por Diego Ligani Rodríguez Trejo

Introducción

En la entrada anterior dimos una relación entre matrices y formas bilineales. Como hemos hecho anteriormente, extenderemos este conocimiento para el caso de espacios vectoriales complejos. En esta entrada daremos una relación entre formas sesquilineales, formas cuadráticas hermitianas y matrices. Daremos la definición y veremos sus propiedades.

Gran parte de la relación que había para el caso real se mantiene al pasar a los complejos. Las demostraciones en la mayoría de los casos son análogas, así que la mayoría de ellas quedarán como tarea moral. Sin embargo, haremos énfasis en las partes que hacen que el caso real y el complejo sean distintos. Te recomendamos tener a la mano las entradas sobre formas bilineales y matrices y formas sesquilineales.

Matriz asociada a una forma sesquilineal y una forma cuadrática hermitiana

A partir de aquí, en esta entrada, asumiremos que $V$ es un espacio vectorial sobre $\mathbb{C}$ de dimensión finita. Recordemos que $S(V)$ se definió como el espacio de formas sesquilineales de $V$.

Definición. Sea $u_1, \ldots, u_n$ una base de $V$ y $\varphi: V \times V \rightarrow \mathbb{C}$ una forma sesquilineal de $V$. La matriz de $\varphi$ con respecto a la base $u_1, \ldots, u_n$ es la matriz
\begin{align*} A=[a_{ij}] \qquad \text{con} \qquad a_{ij}=\varphi(u_i,u_j),\end{align*}
para todo $i,j$ tal que $1 \leq i,j \leq n$.

Veamos primero como escribir $\varphi(x,y)$ en su forma matricial. Así como en el caso real, también podemos definir la matriz de una forma cuadrática usando su forma polar.

Definición. Sea $u_1, \cdots , u_n$ una base de $V$ y $q$ una forma cuadrática hermitiana de $V$, la matriz de $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz de su forma polar en esa misma base.

Hasta ahora todo es muy parecido al caso real.

Evaluar la forma sesquilineal con su matriz

Como en el caso real, podemos la matriz de una forma sesquilineal para evaluarla. Sin embargo, hay que ser cuidadosos pues por la sesquilinealidad debemos conjugar el vector de coordenadas de la primer entrada de la forma sesquilineal.

Proposición. Sea $\varphi$ una forma sesquilineal de $V$ y $\mathcal{B}$ una base de $V$. Sea $A$ la matriz de $\varphi$ en la base $\mathcal{B}$. Sean $X$ y $Y$ los vectores de coordenadas de vectores $x$ y $y$ de $V$ en la base $\mathcal{B}$, respectivamente. Entonces: $$\varphi(x,y)=X^\ast AY.$$

Aquí $X^\ast$ es la matriz transpuesta conjugada, es decir, la que se obtiene al conjugar todas las entradas de $^tX$. La demostración es análoga al caso real, cuidando en que en la primer entrada de una forma sesquilineal los escalares salen conjugados. Por ello, queda como ejercicio.

Tenemos dos consecuencias importantes de la proposición anterior:

  • La matriz $A$ que hace $$\varphi(x,y)=X^\ast AY$$ para cualesquiera $x,y$, es única.
  • Se tiene que $\varphi$ es hermitiana si y sólo si su matriz $A$ cumple $A=A^\ast$.

En el caso real no vimos las demostraciones de las afirmaciones análogas, así que ahora sí veremos las demostraciones de estas.

Proposición. Con la notación de arriba, $A$ es la unica matriz que cumple
\begin{align*} \varphi(x,y)=X^ \ast AY.\end{align*}

Demostración. Supongamos que tenemos otra matriz $A’=[a’_{ij}]$ tal que \begin{align*} \varphi(x,y)=X^*A’Y.\end{align*} Tomando elementos $u_i$ y $u_j$ de la base $\mathcal{B}$, obtenemos que el vector de coordenadas $U_i$ (resp. $U_j$) de $u_i$ (resp. $u_j$) es el vector con $1$ en la entrada $i$ (resp. $j$) y cero en las demás. De este modo:

\begin{align*}
a’_{ij}&=U_i^*A’U_j\\
&=b(u_i,u_j)\\
&=a_{ij}.
\end{align*}

Esto muestra que las matrices $A$ y $A’$ son iguales entrada a entrada, de modo que $A$ es única.

$\square$

Proposición. Con la notación de arriba, $\varphi$ es hermitiana si y sólo si $A=A^*$.

Demostración. Supongamos primero que $\varphi$ es hermitiana. En particular, para $u_i$ y $u_j$ elementos de la base obtenemos que $\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)}.$ En términos de las entradas de la matriz $A$ obtenemos entonces que:

\begin{align*}
a_{ij}&=\varphi(u_i,u_j)\\
&= \overline{\varphi(u_j,u_i)}\\
&=\overline{a_{ji}}.
\end{align*}

Esto nos dice que $A=A^\ast$.

Ahora, suponiendo que $A=A^ \ast $ se tiene directamente que $\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)}$ para cualquier par de elementos $u_i$ y $u_j$ de la base. De este modo, la forma sesquilineal es hermitiana en parejas de elementos de la base. Si tenemos ahora cualesquiera dos vectores $x$ y $y$ en $V$, basta con escribirlos en términos de la base $x=\sum_{i=1}^n x_iu_i$, $y=\sum_{j=1}^n y_ju_j$ y usar la proposición de la entrada de formas sesquilineales para obtener

\begin{align*}
\varphi(x,y)&=\sum_{i=1}^n \sum_{j=1}^n \overline{x_i}y_j \varphi(u_i,u_j)\\
&= \sum_{i=1}^n \sum_{j=1}^n \overline{x_i \overline{y_j}\varphi(u_j,u_i)}\\
&=\overline{\varphi(y,x)},
\end{align*}

tal y como queríamos.

$\square$

Esta última equivalencia da pie a definir una matriz hermitiana.

Definición. Sea $A\in M_n(\mathbb{C})$. Diremos que $A$ es conjugada simétrica o hermitiana si $A=A^*.$

Cambios de base

En el caso real, dos matrices que representan a una misma matriz difieren en un producto dado por una matriz de cambio de base y su transpuesta. En el caso complejo sucede algo parecido, pero debemos usar una matriz de cambio de base y su transpuesta conjugada.

Proposición. Supongamos que una forma sesquilineal $\varphi$ tiene asociada una matriz $A$ con respecto a una base $\mathcal{B}$ y una matriz $A’$ con respecto a otra base $\mathcal{B}’$ . Sea $P$ la matriz de cambio de base de $\mathcal{B}$ a $\mathcal{B}’$ . Entonces

\begin{align*} A’=P^\ast AP.\end{align*}

La demostración es análoga al caso real, cuidando la conjugación de los escalares que salen de la primera entrada de una forma sesquilineal.

Más adelante…

Hasta ahora ya hemos hablado de formas bilineales, sesquilineales y sus formas matriciales. También platicamos de algunos conceptos que surgen de estas ideas, como las formas cuadráticas y las cuadráticas hermitianas. La importancia de estos conceptos es que nos permiten hacer geometría en espacios vectoriales reales o complejos.

En la siguiente entrada explicaremos esto más a detalle. Un poco más adelante veremos cómo en espacios «con geometría» podemos definir conceptos de dualidad y ortogonalidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Considera la matriz $\begin{pmatrix}1+i & 0 \\ 5 & 1+2i \end{pmatrix}$. ¿Con cuál forma sesquilineal de $\mathbb{C}^2$ está asociada bajo la base canónica? y ¿Con qué forma sesquilineal de $\mathbb{C}^2$ está asociada bajo la base $(1+i,1)$, $(1,2+i)$?
  2. Prueba la proposición que dice cómo evaluar una forma sesquilineal usando su forma matricial y los vectores coordenada de vectores en cierta base dada.
  3. Prueba la proposición de cambios de base para la forma matricial de una forma sesquilineal.
  4. Demuestra que para cualesquiera dos matrices $A,B \in M_n(\mathbb{C})$ se tiene que
    \begin{align*} (AB)^*=B^*A^*.\end{align*}
  5. Demuestra que para cualquier matriz $B \in M_n(\mathbb{C})$ se tiene que las matrices $B^*B$ y $BB^*$ son hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Cálculo Diferencial e Integral I: Funciones acotadas y teorema del máximo-mínimo

Por Juan Manuel Naranjo Jurado

Introducción

En esta entrada revisaremos el teorema del máximo-mínimo que nos indica que para una función continua en un intervalo $[a, b]$, existe un punto $x_0$ tal que $f(x_0) \geq f(x)$ para todo valor de $x$ en el intervalo. Para llegar a la prueba de tal teorema, revisaremos antes la definición de función acotada y probaremos que toda función continua en un intervalo está acotada en tal intervalo.

Funciones acotadas

Comenzaremos dando la definición de función acotada.

Definición. Decimos que $f$ está acotada superiormente en $A$ si existe $M \in \mathbb{R}$ tal que para todo $x \in A$ se cumple que $f(x) \leq M$. De manera similar, decimos que $f$ está acotada inferiormente en $A$ si existe $m \in \mathbb{R}$ tal que para todo $x \in A$ se tiene que $m \leq f(x)$. Finalmente, diremos que $f$ está acotada si existen $m$, $M \in \mathbb{R}$ tales que para todo $x \in A$ se tiene que $m \leq f(x) \leq M$.

Revisaremos el siguiente ejemplo para aplicar esta nueva definición.

Ejemplo 1. Sea $f: \mathbb{R} \setminus \{0\} \to \mathbb{R}$ definida como $f(x) = \frac{1}{x}.$

Afirmación. $f$ está acotada en el intervalo $A = [1, \infty)$.

Demostración.

Sea $x \in [1, \infty)$. Como $1 \leq x$, entonces $\frac{1}{x} \leq 1$. Se sigue que
\begin{gather*}
& 0 < \frac{1}{x} \leq 1 \quad \forall x \in [1, \infty). \\ \\
& \therefore 0 \leq f(x) \leq 1 \quad \forall x \in [1, \infty).
\end{gather*}

Por tanto, $f$ está acotada en el intervalo $A = [1, \infty)$.

$\square$

Afirmación. $f$ no está acotada superiormente en $B = (0, 1].$

Demostración.

Supongamos que la función $f$ sí está acotada superiormente en $B$, entonces existe $M \in \mathbb{R}$ tal que para todo $x \in B$ se tiene que $f(x) = \frac{1}{x} \leq M$.

Para todo $n \in \mathbb{N}$, se tiene que $n \geq 1$, entonces $0 < \frac{1}{n} \leq 1$ y, por tanto, $\frac{1}{n} \in B$.

\begin{gather*}
& f \left( \frac{1}{n} \right) = \frac{1}{\frac{1}{n}} \leq M. \\ \\
\therefore & n \leq M \quad \forall n \in \mathbb{N}.
\end{gather*}

Lo cual es una contradicción pues el conjunto de los números naturales no está acotado superiormente, por lo tanto $f$ no está acotada superiormente.

De forma análoga, se puede probar que $f$ está acotada en el intervalo $(-\infty, 1]$ y que no está acotada inferiormente en $[-1,0)$.

$\square$

Ahora veremos dos proposiciones respecto a las funciones acotadas. La primera nos indica que si $f$ es una función acotada en $A$ y se tiene un subconjunto $B$ de $A$, entonces $f$ también está acotada en $B$; mientras que la segunda nos indica que si $B$ y $C$ son subconjuntos de $A$, entonces $f$ también estará acotada en la unión de $B$ y $C.$

Proposición. Si $f$ está acotada en $A$ y $B \subset A$, entonces también está acotada en $B.$

Demostración.

Dado que $f$ está acotada en $A$, existen $m$, $M \in \mathbb{R}$ tal que para todo $x \in A$ se tiene que $m \leq f(x) \leq M$. Como $B \subset A$, entonces para todo $x \in B$ se tiene que $x \in A$, así $f$ también está acotada en $B.$

$\square$

Proposición. Si $B \subset A$, $C \subset A$. Si $f$ está acotada en $B$ y en $C$, entonces $f$ está acotada en $B \cup C.$

El razonamiento detrás de la prueba de esta proposición es similar al anterior, por lo que se dejará como tarea moral.

Continuaremos revisando una equivalencia de la definición de función acotada donde, en lugar de tener dos reales $m$, $M$ que acoten inferior y superiormente, solo se considerará un real $T$ que cumpla que $|f(x)| \leq T.$

Proposición. Existen $m$, $M \in \mathbb{R}$ tales que para todo $x \in A$, $m \leq f(x) \leq M$ si y solo si existe $T \in \mathbb{R}$ tal que para todo $x \in A$, $|f(x)| \leq T.$

Demostración.

$\Rightarrow]$ Sabemos que existen $m$, $M$ en $\mathbb{R}$ tales que para todo $x \in A$, $m \leq f(x) \leq M.$

Consideremos $T = max\{ |m|, |M| \}.$

Sea $x \in A$, entonces

\begin{gather*}
& f(x) \leq M \leq |M| \leq T. \\
\Rightarrow & f(x) \leq T. \tag{1}
\end{gather*}

Por otro lado

\begin{gather*}
& m \leq f(x). \\
\Leftrightarrow & – m \geq -f(x).
\end{gather*}

De esta forma, se sigue que
\begin{gather*}
-f(x) \leq -m \leq |m| \leq T.
\end{gather*}

Es decir,
\begin{gather*}
& -f(x) \leq T. \\
\therefore & -T \leq f(x). \tag{2}
\end{gather*}

De $(1)$ y $(2)$ podemos concluir que $|f(x)| \leq T.$

$\Leftarrow]$ Supongamos que existe $T$ tal que para todo $x \in A$, $|f(x)| \leq T.$

Consideremos $m = -T$ y $M = T$, entonces $ m \leq f(x) \leq M.$

$\square$

Teorema de acotabilidad

La siguiente propiedad nos indica que si $f$ es continua en un punto, entonces existe un intervalo alrededor de dicho punto donde la función está acotada. Esta propiedad será ampliamente usada para probar el teorema del máximo-mínimo.

Proposición. Sea $a \in A$, si $f$ es continua en $a$, entonces existe $\delta > 0$ tal que $f$ está acotada en el intervalo $(a-\delta, a+\delta) \cap A.$

Demostración.

Como $f$ es continua en $a$, considerando particularmente $\varepsilon = 1$, existe $\delta > 0$ tal que si $|x-a| < \delta$, $x \in A$, entonces

$$|f(x)-f(a)|<1.$$

Es decir, si $x \in (a – \delta, a + \delta) \cap A$, entonces

\begin{gather*}
& |f(x)|- |f(a)| < |f(x)- f(a)| < 1. \\
\Rightarrow & |f(x)| < 1 + |f(a)|.
\end{gather*}

Por tanto, $f$ está acotada en el intervalo $(a – \delta, a + \delta) \cap A.$

$\square$

El último teorema que veremos antes del máximo-mínimo nos indica que toda función continua en un intervalo cerrado está acotada en tal intervalo. De forma ilustrativa, podemos observarlo en la siguiente gráfica.

Teorema de acotabilidad. Sea $f: [a,b] \to \mathbb{R}$ tal que $f$ es continua en $[a,b]$. Entonces $f$ está acotada en $[a,b].$

Demostración.

Sea $A = \{ t \in [a, b] \quad | \quad f \text{ sí está acotada en } [a, t] \}$.

Veamos que $A \neq \varnothing$.
Consideremos $a \in [a,b]$. Como $f$ es continua en $[a,b]$ y por la proposición anterior, existe $\delta_1 > 0$ tal que para todo $x \in (a-\delta_1, a+\delta_1) \cap [a, b]$ se tiene que $f$ está acotada.
Por lo tanto, para todo $x \in [a, a+\delta_1)$, $f$ sí está acotada.

Notemos que tenemos dos casos derivados de si $a+ \delta_1$ está o no en el intervalo $[a,b].$

  • Si $b > a + \delta_1$, entonces $a+\delta_1 \in A$.
  • Si $b \leq a + \delta_1$, entonces $b \in A$.

$$\therefore A \neq \varnothing.$$

Además, $A$ está acotado superiormente pues si $t \in A$, por definición del conjunto, $t \leq b$.

Como $A$ es no vacío y está acotado superiormente, entonces tiene supremo. Sea $\alpha = supA$, notemos que $\alpha \leq b$, pues $\alpha$ es el supremo y $b$ es una cota superior.

Probaremos que $\alpha = b$, es decir, veremos que el supremo del conjunto $A$ es justamente $b$ y, en consecuencia, $f$ está acotada en $[a,b].$

Supongamos que $\alpha \neq b$. Entonces $a < \alpha < b$. Como $f$ es continua en $[a,b]$, entonces $f$ es continua en $\alpha$. Por la proposición anterior, existe $\delta_2$ tal que $f$ está acotada en $(\alpha-\delta_2, \alpha + \delta_2) \cap [a, b].$

Como $\alpha – \delta_2 < \alpha$, existe $t \in A$ tal que $\alpha – \delta_2 \leq t \leq \alpha$. Tomemos $s$ tal que $\alpha < s < \alpha + \delta_2$ y $s < b$. De esta forma se tiene que $[t,s] \subset (a- \delta_2, a + \delta_2) \cap [a, b]$ y $f$ está acotada en $[a, t]$ pues $t \in A$. Por lo tanto $f$ está acotada en $[a,s] = [a,t] \cup [t,s].$

Así $s \in A$ y $\alpha < s$, lo cual es una contradicción al hecho de que $\alpha$ es el supremo del conjunto $A.$

Por tanto, concluimos que $\alpha = b$. Ahora solo falta probar que $b \in A$ y, en consecuencia, $f$ está acotada en $[a,b].$

Dado que $b \in [a, b]$, f es continua en b, entonces existe $\delta_3 > 0$ tal que $f$ está acotada en $(b- \delta_3, b + \delta_3) \cap [a,b] = (b- \delta_3, b]$. Como $b = supA$ y $b-\delta_3 < b$, entonces existe $t \in A$ tal que $b-\delta_3 < t \leq b$, entonces $f$ está acotada en $[a,t]$. Como $[t, b] \subset (b – \delta_3, b]$ entonces $f$ está acotada en $[a,b] = [a,t] \cup [t, b].$

$\square$

Teorema del máximo-mínimo

Estamos listos para demostrar que para toda función continua en un intervalo $[a,b]$ existen $x_0, x_1 \in [a,b]$ donde la función alcanza su máximo y su mínimo respectivamente.

Teorema. Sea $f: [a,b] \to \mathbb{R}$ y continua en $[a,b]$, entonces existe $x_0 \in [a,b]$ tal que para todo $x \in [a,b]$ se tiene que $f(x) \leq f(x_0).$

Demostración.

Sea $B = \{ y = f(x) | x \in [a,b] \}.$

Por el teorema anterior, sabemos que existe $M \in \mathbb{R}$ tal que para todo $x \in [a,b]$ se tiene que $y = f(x) \leq M$. Por lo tanto $B$ está acotado.

Además $a \in [a,b]$, entonces $f(a) \in B$, así $B \neq \varnothing$. Por tanto, sabemos que existe $\alpha \in \mathbb{R}$ tal que $\alpha = supB$. Notemos que para todo $y \in B$, $y \leq \alpha$. Es decir, para todo $x \in [a,b]$, se tiene que $f(x) \leq \alpha.$

Ahora probaremos que existe $x_0 \in [a,b]$ tal que $f(x_0) = \alpha$ y, por tanto, para todo $x \in [a,b]$, $f(x) \leq f(x_0).$

Supongamos que para todo $x \in [a, b]$, $f(x) \neq \alpha.$
Entonces para todo $x \in [a,b]$, se tiene que $f(x) < \alpha.$ Es decir,

$$0 < \alpha – f(x).$$

Consideremos la siguiente función auxiliar $g(x) = \frac{1}{\alpha – f(x)}$. Se tiene que

$$g(x) = \frac{1}{\alpha – f(x)} > 0 \quad \forall x \in [a,b]. \tag{1}$$

Además, $g$ es la división de dos funciones continuas y el denominador no se hace cero en $[a,b]$, entonces $g$ es continua en $[a,b]$, por lo tanto $g$ está acotada en $[a,b]$. Es decir, existe $T \in \mathbb{R}$ tal que para todo $x \in [a,b]$ se tiene

\begin{gather*}
&|g(x)|\leq T. \\
\Rightarrow & 0 < \frac{1}{\alpha – f(x)} \leq T \text{, por }(1).
\end{gather*}

Se sigue que
\begin{gather*}
& \alpha – f(x) \geq \frac{1}{T} \quad \forall x \in [a,b]. \\
\therefore & \alpha – \frac{1}{T} \geq f(x) \quad \forall x \in [a,b]. \\
\end{gather*}

Entonces se tiene que $\alpha – \frac{1}{T}$ es cota superior de $B$, pero como $\frac{1}{T} > 0$, entonces $\alpha – \frac{1}{T} < \alpha$ y esto es una contradicción al hecho de que $\alpha$ es el supremo.

Por lo tanto, podemos concluir que sí existe $x_0 \in [a,b]$ tal que $f(x_0) = \alpha.$
$$\therefore f(x) \leq f(x_0) \quad \forall x \in [a,b].$$

$\square$

Corolario. Sea $f: [a,b] \to \mathbb{R}$ continua en $[a,b]$. Entonces existe $x_1 \in [a,b]$ tal que para todo $x \in [a,b]$ se tiene que $f(x_1) \leq f(x)$.

Demostración.

Consideremos la función $g: [a,b] \to \mathbb{R}$, $g(x) = -f(x)$ continua en $[a,b]$.

Por el teorema anterior existe $x_1 \in [a,b]$ tal que

\begin{gather*}
& g(x) \leq g(x_1) \quad \forall x \in [a,b]. \\
\Rightarrow & -f(x) \leq -f(x_1) \quad \forall x \in [a,b]. \\
\end{gather*}

$$\therefore f(x_1) \leq f(x) \quad \forall x \in [a,b].$$

$\square$

Más adelante…

En la siguiente entrada estudiaremos resultados derivados del teorema del valor intermedio y del teorema del máximo-mínimo, razón por la cual será fundamental tenerlos presentes.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sean $f$, $g: \mathbb{R} \to \mathbb{R}$. Prueba que si $f$ y $g$ están acotadas en $\mathbb{R}$, entonces la suma $f+g$ también está acotada en $\mathbb{R}$.
  • Si $B \subset A$, $C \subset A$. Si $f$ está acotada en $B$ y en $C$, entonces $f$ está acotada en $B \cup C$.
  • Prueba que si $f : \mathbb{R} \to \mathbb{R}$ está acotada en $\mathbb{R}$ y definimos $g: \mathbb{R} \to \mathbb{R}$ tal que $g(x)=xf(x)$, entonces $g$ es continua en $x_0=0.$
  • Si $f$ es una función continua en $[0,1]$, sea $||f||$ el valor máximo de $|f|$ en $[0,1]$. Prueba que $||c \cdot f|| = |c|\cdot||f||$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral I: Teorema del valor intermedio

Por Juan Manuel Naranjo Jurado

Introducción

En la entrada anterior se revisó el concepto de continuidad en un punto, así como algunas de sus propiedades. Además, se definió la continuidad en un intervalo, concepto que se empleará en esta entrada para probar uno de los resultados más relevantes para las funciones continuas: el teorema del valor intermedio.

Idea intuitiva

Este teorema nos dice que para una función continua en determinado intervalo $[a,b]$, si el valor de $f$ al evaluarla en $a$ cambia de signo con respecto al valor que se obtiene al evaluarla en $b$, entonces existe algún punto $x$ tal que al evaluar la función en dicho punto, toma el valor de cero.

Recordemos la idea intuitiva de continuidad, una función es continua si puedes dibujarla sin soltar el lápiz; pensemos en el caso particular que $f(a)  < 0$ y $f(b) > 0$. En la siguiente imagen se muestra una función continua que pasa por ambos.

¿Podrías dibujar una función continua que pase por ambos puntos sin pasar por $0$ en el eje horizontal? Probaremos que esto no es posible en el siguiente teorema; pero antes desarrollemos la intuición de lo que debe suceder. Para ello, recordemos el último teorema revisado en la entrada anterior.

Teorema. Supongamos que $f$ es continua en $x_0$ y $f(x_0)>0$. Entonces $f(x) >0$ para todo $x$ en un intervalo que contiene a $x_0$, es decir, existe $\delta > 0$ tal que $f(x) >0$ para todo $x$ tal que $|x-x_0|< \delta$.

De forma análoga, si $f(x_0) <0$, entonces existe $\delta > 0$ tal que $f(x) < 0$ para todo $x$ tal que $|x-x_0|< \delta$.

Es decir, si una función continua toma un valor positivo en un punto $x_0$, entonces debe suceder que es positiva en todo un intervalo: $(x_0-\delta, x_0+\delta)$. Análogamente, si la función es negativa en determinado punto, entonces debe suceder que es negativa en todo un intervalo. Así, podemos pensar en el intervalo más grande que captura el comportamiento negativo (o positivo), ¿en qué punto se termina? Para responder esta pregunta, haremos uso de un concepto revisado anteriormente, el supremo.

Teorema del valor intermedio

Teorema del valor intermedio. Sea $f:[a,b] \to \mathbb{R}$ continua en todo el intervalo $[a,b]$. Si $f(a) < 0$ y $f(b) > 0,$ entonces existe $c$, $a<c<b,$ tal que $f(c) = 0$.

Demostración.

Como $f(a) < 0$, sabemos que existe $\delta_1$ tal que para todo $x \in (a – \delta_1, a + \delta_1) \cap [a,b]$ se tiene que $f(x) < 0$. Es decir,

$$\forall x \in [a, a+\delta_1), \quad f(x) <0. \tag{1}$$

Como $f(b) > 0$, sabemos que existe $\delta_2$ tal que para todo $x \in (b – \delta_2, b + \delta_2) \cap [a,b]$ se tiene que $f(x) > 0$. Es decir,

$$\forall x \in (b-\delta_2,b], \quad f(x) > 0. \tag{2}$$

Definamos ahora el siguiente conjunto:

$$A = \{ t \in [a,b] \quad | \quad \forall x \in [a, t], f(x) < 0 \}.$$


Es decir, el conjunto $A$ está formado por todos los números reales que forman un intervalo $[a, t]$ donde $f$ toma valores negativos. Utilizando la ilustración del inicio, se puede ejemplificar cómo se ve $t$, que estará en el eje $x$ entre $a$ y el punto rojo marcado.

Primero veamos que $A \neq \varnothing$.

Consideremos $t_0 = a + \frac{\delta_1}{2}$. Es inmediato que $a< a + \frac{\delta_1}{2} < a +\delta_1 $ y como $[a, a + \frac{\delta_1}{2}] \subset [a, a+\delta_1)$, por $(1)$ se tiene que, para todo $x \in [a, a + \frac{\delta_1}{2}]$, $f(x) < 0$.

$$\therefore t_0 \in A \Rightarrow A \neq \emptyset.$$

Notemos que el conjunto $A$ está acotado. Por definición si $t \in A$, entonces $t \in [a,b]$, es decir, $t \leq b$. Ahora, como nuestro conjunto $A$ es no vacío y está acotado, sí tiene supremo. Sea $\alpha = supA$.

Adicionalmente, notemos que

  1. $t_0 = a+\frac{\delta_1}{2} \in A$ y $a+\frac{\delta_1}{2} \leq \alpha \leq b$.
  2. Por $(2)$, para todo $x \in (b-\delta_2, b]$ se tiene que $f(x) >0$, entonces $\alpha \leq b-\delta_2$.

Por lo anterior, se tiene
\begin{gather*}
& a< a+\frac{\delta_1}{2} \leq \alpha \leq b-\delta_2 < b.
\end{gather*}
Se sigue que $a<\alpha<b.$

Para finalizar con la prueba, demostraremos que $f(\alpha) = 0$.

Para demostrarlo procederemos por contracción, es decir, supongamos que $f(\alpha) \neq 0$, entonces existen dos casos, $f(\alpha) > 0$ ó $f(\alpha) < 0$.

  • Caso 1: $f(\alpha) < 0$.

    Se tiene que $f(\alpha) < 0$, entonces existe $\delta_3$ tal que para todo $x \in (\alpha – \delta_3, \alpha + \delta_3) \cap [a,b]$ se cumple que $f(x) < 0$.

    Dado que $\alpha = supA \quad$ y $\quad \alpha – \delta_3 < \alpha$, entonces existe $t \in A$ tal que $\alpha-\delta_3 < t \leq \alpha$. Adicionalmente, consideremos $s$ tal que $\alpha < s < \alpha + \delta_3$ y $s <b$.

    Como $[t, s] \subset (\alpha – \delta_3, \alpha + \delta_3)$, entonces

    $$\forall x \in [a,s], \quad f(x) < 0.$$

    Además, por definición del conjunto A, para todo $x \in [a,t]$ se tiene $f(x) < 0$. Entonces

    $$\forall x \in [a,s] = [a,t] \cup [t,s], \quad f(x) < 0.$$

    Entonces $s \in A$ y $\alpha < s$, lo cual es una contradicción pues $\alpha$ es el supremo de $A$.

    $$\therefore f(\alpha) \geq 0.$$
  • Caso 2: $f(\alpha) > 0$.

    Dado que $f$ es continua en $\alpha$, entonces existe $\delta_4 > 0$ tal que para todo $x \in (\alpha – \delta_4, \alpha + \delta_4)$, $f(x) > 0$.

    Como $\alpha – \delta_4 < \alpha$, entonces existe $t \in A$ tal que $\alpha – \delta_4 < t \leq \alpha$. Como $t \in A$, entonces $f(t) < 0$ y como $\alpha – \delta_4<t \leq \alpha < \alpha + \delta$, $f(t) >0$, lo cual es una contradicción.

    Por tanto, $f(\alpha) = 0$.

Así, consideremos $c = \alpha$, $a<c<b$ y $f(c) = 0.$

$\square$

Podemos notar que el teorema no solo vale cuando la función va de negativo ($f(a) < 0$) a positivo ($f(b) > 0$), sino también en el caso inverso ($f(a) > 0$ y $f(b) < 0$) y lo probaremos en el siguiente corolario.

Corolario. Sea $f: [a, b] \to \mathbb{R}$, continua en $[a, b]$. Si $f(a) > 0$ y $f(b) < 0$, entonces existe $c$, $a<c<b$, tal que $f(x) = c$.

Demostración.

Consideremos la función $h: [a, b] \to \mathbb{R}$, $h(x) = -f(x).$

Notemos que $h$ es continua pues $f$ lo es. Además $h(a) = -f(a) <0$ y $h(b) = -f(b) >0$. Aplicando el teorema del valor intermedio, existe $c$ que cumple $a<c<b$ tal que

\begin{gather*}
h(c) = 0.
\end{gather*}

Se sigue que
\begin{gather*}
& -f(c) = 0. \\
\therefore & f(c) = 0.
\end{gather*}

$\square$

Más aún, si en un intervalo $[a, b]$ se cumple que $f(a) < M$ y $f(b) > M$, entonces también existe un punto $c$ tal que $f(c) = M$.

Corolario. Sea $M \in \mathbb{R}$, si $f(a) < M$ y $f(b) > M$. Entonces existe $c$, $a<c<b$, tal que $f(c) = M$.

Demostración.

Consideremos la función $h:[a,b] \to \mathbb{R}$, con $h(x) = f(x)-M$.

Notemos que $h$ es continua. Además $h(a) = f(a)-M < 0$ y $h(b) = f(b)-M > 0$. Por el teorema del valor intermedio, existe $c$, $a<c<b$, tal que $h(c) = 0$. Entonces $f(c)-M = 0$.

$$\therefore f(c) = M.$$

$\square$

Análogamente, tenemos el siguiente resultado.

Corolario. Sea $M \in \mathbb{R}$, si $f(a) >M$ y $f(b) < M$. Entonces existe $c$, $a<c<b$, tal que $f(c) = M$.

Más adelante…

En la siguiente entrada demostraremos otra propiedad fuerte respecto a las funciones continuas: si una función es continua en un intervalo, entonces está acotada. Más aún, existe un valor $x_0$ en el intervalo tal que la función alcanza su máximo en dicho punto. De forma análoga, existe un punto en el que la función alcanza su mínimo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $f$ continua en el intervalo $[0,1]$ y tal que $f(0) = f(1)$. Demostrar que existe un punto $c \in [0, \frac{1}{2}]$ tal que $f(c) = f(c + \frac{1}{2}).$
  • Sea $M \in \mathbb{R}$, si $f(a) >M$ y $f(b) < M$. Prueba que existe $c$, $a<c<b$ tal que $f(c) = M.$
  • Dado $f(x) = x^2 + 2x – 7$, demuestra que existe $c$ tal que $f(c) = 50.$
  • Para la ecuación $2x^7= x-1$, encuentra una solución en $[0,1].$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal II: Matrices positivas y congruencia de matrices

Por Diego Ligani Rodríguez Trejo

Introducción

Ya hablamos de las matrices asociadas a formas bilineales (y sesquilineales), y de formas cuadráticas (y cuadráticas hermitianas). Así mismo, tomamos un pequeño paréntesis para recordar qué es un producto interior y un espacio euclideano. Además, vimos las nociones análogas para el caso complejo.

Lo que haremos ahora es conectar ambas ideas. Extenderemos nuestras nociones de positivo y positivo definido al mundo de las matrices. Además, veremos que estas nociones son invariantes bajo una relación de equivalencia que surge muy naturalmente de los cambios de matriz para formas bilineales (y sesquilineales).

Congruencia de matrices

En las entradas de matrices de formas bilineales y matrices de formas sesquilineales vimos cómo obtener matrices asociadas a una misma forma bilineal (o sesquilineal) usando distintas bases. Dos matrices $A$ y $A’$ representaban a la misma forma bilineal en distintas bases si y sólo si existía una matriz de cambio de base $P$ tal que $$A’= \text{ }^tP A P,$$ en el caso real, o bien tal que $$A’=P^\ast A P,$$ en el caso complejo.

Definición. Sean $A$ y $B$ matrices simétricas en $M_n(\mathbb{R})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{R})$ tal que $$A=\text{ } ^tP B P.$$

Definición. Sean $A$ y $B$ matrices hermitianas en $M_n(\mathbb{C})$. Diremos que $A$ es congruente a $B$ si existe una matriz invertible $P$ en $M_n(\mathbb{C})$ tal que $$A=P^\ast B P.$$

Las definiciones anteriores están restringidas a las matrices simétricas (o hermitianas, respectivamente). Se podrían dar definiciones un poco más generales. Sin embargo, a partir de ahora nos enfocaremos únicamente a resultados que podamos enunciar para matrices simétricas (o hermitianas, respectivamente).

Proposición. La relación «ser congruentes» es una relación de equivalencia, tanto en el caso real, como en el caso complejo.

Demostración. Daremos la demostración en el caso real. El caso complejo queda como ejercicio. Empecemos con la reflexividad. Esto es claro ya que la matriz identidad $I_n$ es invertible y se tiene la igualdad

\begin{align*} A=\text{ } ^tI_nAI_n.\end{align*}

Para la simetría, supongamos que tenemos matrices $A$ y $B$ en $M_n(\mathbb{R})$ tales que $A$ es congruente a $B$ con la matriz invertible $P$ de $M_n(\mathbb{R})$, es decir, tales que

\begin{align*} A=\text{ } ^tPBP.\end{align*}

Como $P$ es invertible, su transpuesta también. De hecho, $(^tP)^{-1}=\text{ } ^t(P^{-1})$. Así, podemos multiplicar por la inversa de $^tP$ a la izquierda y la por la inversa de $P$ a la derecha para obtener

\begin{align*} ^t(P^{-1})AP^{-1}=B.\end{align*}

Esto muestra que $B$ es congruente a $A$.

Finalmente, veamos la transitividad. Supongamos que $A$ es congruente a $B$ mediante la matriz invertible $P$ y que $B$ es congruente a $C$ mediante la matriz invertible $Q$. Tendríamos entonces las igualdades

\begin{align*}
A&= \text{ }^t PBP,\\
B&= \text{ }^t QCQ,
\end{align*}

de donde $$A= \text{ }^tP \text{ }^tQCQP= \text{ }^t (QP) C (QP).$$ Esto muestra que $A$ es congruente a $C$ mediante la matriz $QP$, que como es producto de invertibles también es invertible.

$\square$

Clasificación de matrices simétricas por congruencia

¿Será posible para cualquier matriz simétrica encontrar una matriz congruente muy sencilla? La respuesta es que sí. El siguiente teorema puede pensarse como una versión matricial del teorema de Gauss.

Teorema. Cualquier matriz simétrica en $M_n(\mathbb{R})$ es congruente a una matriz diagonal.

Demostración. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y sea $q$ la forma cuadrática en $\mathbb{R}^n$ asociada a $A$ en la base canónica, es decir, aquella tal que $$q(X)=\text{ }^tXAX,$$ para cualquier vector $X\in \mathbb{R}^n$.

Lo que tenemos que hacer es encontrar una base de $\mathbb{R}^n$ en la cual la matriz asociada a $q$ sea diagonal. Haremos esto mediante el teorema de Gauss. Por ese resultado, existen reales $\alpha_1,\ldots,\alpha_r$ y formas lineales linealmente independientes $l_1,\ldots,l_r$ tales que $$q(x)=\sum_{i=1}^r \alpha_i l_i(x)^2.$$

Completemos $l_1,\ldots,l_r$ a una base $l_1,\ldots,l_n$ de $(\mathbb{R}^n)^\ast$. Tomemos la base $u_1,\ldots, u_n$ de $\mathbb{R}^n$ dual a $l_1,\ldots,l_n$. Esta es la base que nos ayudará. Recordemos que la definición de base dual hace que tengamos

\begin{align*} l_i(u_j)=
\begin{cases}
1\quad \text{ si $i=j$,}\\
0\quad \text{ si $i\neq j$,}
\end{cases}
\end{align*}

y que por lo tanto las funciones $l_i$ «lean» las coordenadas de un vector en la base de las $u_i$. Tomemos un vector cualquiera $x\in \mathbb{R}^n$ y escribámoslo en la base de las $u_i$ como $x=\sum_{i=1}^n x_iu_i$. Definiendo $\alpha_{r+1}=\ldots=\alpha_n=0$, tenemos que:

\begin{align*}
q(x)&= \sum_{i=1}^n \alpha _i l_i(x)^2\\
&= \sum_{i=1}^n \alpha_i x_i^2.
\end{align*}

Esto nos dice que la matriz asociada a $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz diagonal $D$ que tiene en la diagonal a los coeficientes $\alpha_i$. Esto muestra lo que queríamos.

$\square$

El teorema también tiene una versión compleja.

Teorema. Cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.

La demostración es similar. Usa el teorema de Gauss complejo. Por esta razón, queda como ejercicio.

Estos resultados parecen una curiosidad algebraica. Sin embargo, pronto veremos que tienen consecuencias importantes como la clasificación de todos los productos interiores (y los productos interiores hermitianos).

Matrices positivas y positivas definidas

En entradas anteriores definimos qué quiere decir que una forma bilineal (o sesquilineal) sea positiva o positiva definida. Podemos dar una definición análoga para matrices. Nos enfocaremos sólo en matrices simétricas (en el caso real) y en matrices hermitianas (en el caso complejo).

Definición. Una matriz simétrica $A$ en $M_n(\mathbb{R})$ es positiva si para cualquier $X\in \mathbb{R}^n$ se tiene que $^tXAX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Definición. Una matriz hermitiana $A$ en $M_n(\mathbb{C})$ es positiva si para cualquier $X\in \mathbb{C}^n$ se tiene que $X^\ast AX\geq 0$. Es positiva definida si se da esta desigualdad y además la igualdad sucede sólo con $X=0$.

Es sencillo ver que entonces una matriz $A$ real (o compleja) que sea positiva definida da un producto interior (o bien un producto interior hermitiano) en $\mathbb{R}^n$ (o bien en $\mathbb{C}^n$) dado por $\langle X,Y\rangle = \text{ } ^tX A Y$, (o bien por $\langle X,Y\rangle = X^\ast A Y$). Y viceversa, un producto interior (o producto interior hermitiano) tiene representaciones matriciales que son positivas definidas. Esto no depende de la base elegida.

Proposición. Si $A,B \in M_n(\mathbb{R})$ son matrices congruentes y $A$ es una matriz positiva, entonces $B$ también lo es.

Demostración. Supongamos que la congruencia se da mediante la matriz invertible $P$ de la siguiente manera: $$B=\text{ }^t P A P.$$

Tomemos un vector $X\in \mathbb{R}^n$. Tenemos que:

\begin{align*}
^t X B X &= \text{ }^t X \text{ } ^t P A P X\\
&=\text{ } ^t(PX) A (PX)\\
&\geq 0.
\end{align*}

En la última igualdad estamos usando que $A$ es positiva. Esto muestra lo que queremos.

$\square$

Dicho en otras palabras, en el mundo real las congruencias preservan las positividades de matrices. También puede demostrarse que las congruencias preservan las positividades definitivas. Y así mismo, se tienen resultados análogos para el caso complejo. En la sección de ejercicios viene uno de estos resultados.

Clasificación de matrices positivas

Es sencillo ver si una matriz real diagonal $D$ es positiva. Todas las entradas en su diagonal deben de ser mayores o iguales a cero. En efecto, si su $i$-ésima entrada en la diagonal fuera un número $d_{ii}<0$, entonces para el $i$-ésimo vector canónico $e_i$ de $\mathbb{R}^n$ tendríamos $^te_i D e_i=d_{ii}<0$, lo cual sería una contradicción.

Combinando esto con todo lo hecho en esta entrada, obtenemos un teorema de clasificación de matrices positivas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. $A$ es congruente a una matriz diagonal con puras entradas mayores o iguales a cero.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$.

Demostración. 1) implica 2). Sabemos que $A$ es congruente a una matriz diagonal. Como $A$ es positiva, dicha matriz diagonal también lo es. Por el comentario antes del enunciado del teorema, dicha matriz diagonal debe tener únicamente entradas mayores o iguales que 0.

2) implica 3). Supongamos que $A=\text{ }^t P D P$, en donde $P$ es invertible y $D$ tiene únicamente entradas no negativas $d_1,\ldots,d_n$ en la diagonal. Definamos a $S$ como la matriz diagonal de entradas $\sqrt{d_1}, \ldots, \sqrt{d_n}$. Tenemos que $$D=S^2=SS=\text{ }^tSS.$$ De este modo, definiendo $B=SP$ obtenemos \begin{align*}A&= \text{ }^t P D P\\ &= ( \text{ }^t P \text{ }^t S) (SP) \\&= \text{ }^t (SP) SP \\&= \text{ }^t B B,\end{align*} como queríamos.

3) implica 1). Supongamos que $A= \text{ }^t B B$ para alguna matriz $B$. Para cualquier $X\in \mathbb{R}^n$ tendríamos que $$ \text{ }^t X A X = \text{ }^t (BX) BX = \norm{BX}\geq 0.$$ Aquí la norma es con respecto al producto interior canónico de $\mathbb{R}^n$. Esto es lo que queríamos.

$\square$

También existe un teorema análogo que clasifica las matrices positivas definidas.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva definida.
  2. $A$ es congruente a una matriz diagonal con puras entradas diagonales positivas.
  3. $A$ puede ser escrita de la forma $^tBB$ para alguna matriz $B\in M_n(\mathbb{R})$ invertible.

Y, así mismo, existen análogos para matrices hermitianas con entradas en los complejos.

Más adelante…

En esta entrada definimos la relación de congruencia de matrices. Vimos qué son las matrices positivas y las positivas definidas. Además, vimos que la congruencia preserva estas nociones.

Podemos ser mucho más finos con nuestro análisis. Si tenemos una matriz simétrica, por los resultados de esta entrada es congruente a una matriz diagonal. Podemos fijarnos en cuántas entradas positivas, cuántas negativas y cuántas cero hay en esta diagonal. En la siguiente entrada veremos que las congruencias también preservan estas cantidades.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Demuestra que cualquier matriz hermitiana en $M_n(\mathbb{C})$ es congruente a una matriz diagonal.
  2. Demuestra que si $A$ es una matriz en $M_n(\mathbb{C})$ hermitiana y positiva definida, y $B$ es una matriz en $M_n(\mathbb{C})$ hermitiana y congruente a $A$, entonces $B$ también es positiva definida.
  3. Sea $n \geq 1$ y $A=[a_{ij}] \in M_n(\mathbb{R})$ definida por $a_{ij}=min(i,j)$, prueba que $A$ es simétrica y definida positiva.
  4. Sea $A=[a_{ij}] \in M_n(\mathbb{R})$ tal que $a_{ij}=1$ si $i \neq j$ y $a_{ii} > 1$ si $1 \leq i \leq n$. Prueba que $A$ es simétrica y definida positiva.
  5. Demuestra que una matriz hermitiana $A\in M_n(\mathbb{C})$ es positiva si y sólo si puede ser escrita de la forma $A=BB^\ast$ para alguna matriz $B\in M_n(\mathbb{C})$, y que es positiva definida si y sólo si tiene una expresión así con $B$ invertible.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Adjunciones complejas y transformaciones unitarias

Por Ayax Calderón

Introducción

Lo que hemos trabajado en esta unidad tiene su análogo para espacios hermitianos. En esta entrada haremos una recapitulación de los resultados que demostramos en el caso real, pero ahora los enunciaremos para el caso complejo. Las demostraciones son similares al caso real, pero haremos el énfasis correspondiente cuando haya distinciones para el caso complejo.

Adjunciones en espacios hermitianos

Uno de los ejercicios de la entrada Dualidad y representación de Riesz en espacios euclideanos consiste en enunciar y demostrar el teorema de representación de Riesz para espacios hermitianos. Si recuerdas, eso es justo lo que se necesita para hablar de la adjunción, de modo que en espacios hermitianos también podemos definir la adjunción como sigue.

Definición. Sea $V$ un espacio hermitiano con producto interior hermitiano $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Definimos a la adjunta de $T$, como la única transformación lineal $T^\ast:V\to V$ que cumple la siguiente condición para todos $x,y$ en $V$:

$$\langle T(x),y\rangle =\langle x, T^*(y)\rangle$$

En el caso real la matriz de la transformación adjunta en una base ortonormal era la transpuesta. En el caso complejo debemos tomar la transpuesta conjugada.

Proposición. Sea $V$ un espacio hermitiano con producto interior hermitiano $\langle \cdot, \cdot \rangle$. Sea $T:V\to V$ una transformación lineal. Sea $\mathcal{B}$ una base ortonormal de $V$. Se tiene que $$\text{Mat}_{\mathcal{B}}(T^\ast)=\text{Mat}_{\mathcal{B}}(T)^\ast.$$

La demostración queda como ejercicio.

Transformaciones unitarias e isometrías

En espacios hermitianos también podemos hablar de las transformaciones lineales que preservan la distancia: las isometrías. En el caso real, las isometrías de un espacio a sí mismo las llamábamos ortogonales, pero en el caso complejo usaremos otro nombre.

Definición. Sean $V_1, V_2$ espacios hermitianos sobre $\mathbb{C}$ con productos interiores hermitianos $\langle \cdot,\cdot \rangle_1,\langle \cdot,\cdot \rangle_2$. Diremos que una transformación lineal $T:V_1\to V_2$ es una isometría si es un isomorfismo de espacios vectoriales y para cualesquiera $x,y\in V_1$ se cumple que $$\langle T(x), T(y) \rangle_2 = \langle x,y\rangle_1.$$ Si $V_1$ $V_2$ son un mismo espacio hermitiano $V$, diremos que $T$ es una transformación unitaria.

Diremos que una matriz $A\in M_n(\mathbb{C})$ se dice unitaria si $AA^\ast=I_n$. Puede demostrarse que si una matriz $A$ es unitaria, entonces la transformación $X\mapsto AX$ también lo es. Así mismo, se puede ver que si $T$ es una transformación unitaria, entonces cualquier representación matricial en una base ortonormal es unitaria.

Equivalencias de matrices y transformaciones unitarias

Así como en el caso real, hay muchas maneras de pensar a las transformaciones y a las matrices unitarias. Puedes pensar en los siguientes resultados como los análogos a las descripciones alternativas en el caso real.

Teorema. Sea $T:V\to V$ una transformación lineal. Las siguientes afirmaciones son equivalentes:

  1. $T$ es unitaria es decir, $\langle T(x),T(y) \rangle = \langle x,y \rangle$ para cualesquiera $x,y\in V$.
  2. $||T(x)||=||x||$ para cualquier $x\in V$.
  3. $T^*\circ T = Id$.

Teorema. Sea $A\in M_n(\mathbb{C})$. Las siguientes afirmaciones son equivalentes:

  1. $A$ es unitaria.
  2. Las filas de $A$ forman una base ortonormal de $\mathbb{C}^n$.
  3. Las columnas de $A$ forman una base ortonormal de $\mathbb{C}^n$.
  4. Para cualquier $x\in \mathbb{C}^n$, se tiene que $$||Ax||=||x||$.

Propiedades de grupo y caracterización de unitarias

Así como en el caso real las transformaciones ortogonales forman un grupo bajo la composición, en el caso complejo las transformaciones unitarias también forman un grupo bajo la composición. Si hablamos de matrices unitarias, entonces forman un grupo bajo el producto de matrices. Es posible clasificar a las matrices unitarias así como se clasificó a las matrices ortogonales, sin embargo los resultados son notablemente más difíciles de expresar.

Más adelante…

En la siguiente entrada hablaremos de quiénes son las transformaciones complejas para las que se puede enunciar el teorema espectral en el caso complejo. Veremos el resultado correspondiente y haremos énfasis en las diferencias que debemos tomar en cuenta.

Tarea moral

  1. Demuestra que si $A$ es una matriz unitaria, entonces $|\det A|=1$.
  2. Prueba que para que una transformación lineal $T$ de un espacio hermitiano sea unitaria, basta que a los vectores de norma $1$ los mande a vectores de norma $1$.
  3. Describe las matrices $A\in M_n(\mathbb{C})$ que son simultaneamente diagonales y unitarias.
  4. Demuestra que el producto de dos matrices unitarias es una matriz unitaria y que la inversa de una matriz unitaria es unitaria.
  5. Revisa nuevamente la entrada y realiza todas las demostraciones faltantes.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»