Archivo de la etiqueta: números complejos

Álgebra Lineal II: Espacios hermitianos y bases ortogonales complejas

Por Diego Ligani Rodríguez Trejo

En la entrada anterior nos dedicamos a revisar una serie de resultados relacionados con bases ortogonales, ortonormales y el proceso de Gram-Schmidt, como ya habrás notado la forma de operar de este curso indica que terminemos revisando estos conceptos aplicados a espacios vectoriales complejos, veremos rápidamente las demostraciones que sean idénticas al caso real para enfocarnos un poco más a las que tengan cambios importantes.

Como es de esperarse de la entrada final, juntaremos la gran parte de los conceptos vistos en esta unidad y los resultados vistos en las últimas dos entradas, pero ahora enfocándonos en espacios hermitianos, de los que daremos también su definición.

Bases ortonormales complejas

Definición

Sea $V$ un espacio vectorial complejo, diremos que $V$ es un espacio hermitiano si $V$ es de dimensión finita y con un producto interno hermitiano $\langle , \rangle$, es decir, una forma sesquilineal hermitiana $\langle , \rangle : V \times V \rightarrow \mathbb{C}$ tal que $\langle x, x \rangle > 0$ para cualquier vector $x$ no cero.

Con esto diremos que dos vectores son ortogonales en $V$ si $\langle x, y \rangle =0$-

Las definiciones de familia y base ortogonal/ortonormal son análogas al caso real.

En adelante consideremos a $V$ un espacio hermitiano.

Ejemplo

Si $V= \mathbb{C}^n$ su base canónica $\{ e_1, \cdots , e_n \}$ es una base ortonormal y $\{ 2e_1, \cdots , 2e_n \}$ es una base ortogonal. Además, con el producto interno canónico
\begin{align*} \langle x, y \rangle= \sum_{i=1}^n\overline{x_i}y_i\end{align*}
V es un espacio hermitiano.

Como en la entrada anterior, nuestra primera proposición será:

Proposición

Sea $V$, cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ de vectores no cero es linealmente independiente.

Demostración

Sean $\{v_1, \cdots , v_n\}$ y $\{\alpha_1, \cdots , \alpha_n\}$ tal que
\begin{align*} 0=v=\sum_{i=1}^n \alpha_nv_n\end{align*}
Tomando $j$ tal que $1 \leq j \leq n$, calculando $\langle v, v_j \rangle$ tenemos que esto es $0$ ya que $v=0$ además utilizando la linealidad conjugada en la primera entrada
tenemos que
\begin{align*}0=\langle v, v_j \rangle=\sum_{i=1}^n \overline{\alpha_i}\langle v_i, v_j \rangle \end{align*}
Notemos que por la ortogonalidad $\langle v_i, v_j \rangle=0$ excepto cuando $i=j$, utilizando esto
\begin{align*}0=\langle v, v_j \rangle= \overline{\alpha_j}\langle v_j, v_j \rangle \end{align*}
Además, sabemos que $\langle v_j, v_j \rangle > 0$ por como definimos el producto interno, en particular esto implica que $\langle v_j, v_j \rangle \neq 0$ por lo que
\begin{align*} \overline{\alpha_j} = 0 \end{align*}
Lo que implica a su vez que $\alpha_j=0$, repitiendo este proceso para cada $\alpha_i$ obtendremos la independencia lineal.

$\square$

Más aún, si $n=dim(V)$ y tenemos $\beta$ una familia ortonormal de $n$ vectores no nulos contenida en $V$ esta es linealmente independiente, lo que a su vez implica que es una base de $V$, incluso más, como $\beta$ ya era ortonormal tenemos que $\beta$ es una base ortonormal.

Un par de detalles que es importante notar, este resultado no nos asegura la existencia de una base ortonormal en algún espacio, simplemente nos brinda un camino para encontrarla (encontrar un conjunto de vectores ortonormales con $dim(V)$ elementos).

Proposición

Sea $V$, $\beta = \{u_1, \cdots , u_n\} $ una base ortonormal y $x=\sum_{i=1}^nu_ix_i$, $y=\sum_{i=1}^nu_iy_i$ dos vectores en $V$, prueba que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n\overline{x_i}y_i. \end{align*}
Demostración
Calculemos directamente $\langle x,y \rangle$,
\begin{align*} \langle x,y \rangle =\langle \sum_{i=1}^n x_iu_i, y \rangle \end{align*}
Utilizando que $\langle , \rangle$ es lineal conjugada en la primera entrada
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i} \langle u_i, y \rangle \end{align*}
Haciendo un proceso análogo en la segunda entrada
\begin{align*} \langle x,y \rangle =\sum_{i,j=1}^n \overline{x_i}y_j \langle u_i, u_j \rangle \end{align*}
Ahora, utilizando la ortogonalidad, el producto $\langle u_i, u_j \rangle$ será cero excepto cuando $i=j$ por lo que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i \langle u_i, u_i \rangle \end{align*}
Finalmente, utilizando la normalidad, tenemos que $\langle u_i, u_i \rangle=||u_i||^2=1 $ por lo tanto
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i. \end{align*}

$\square$

Este último resultado es una motivación más para encontrar bases ortonormales, así enfoquémonos en esa búsqueda, siguiendo el camino del caso real, demos un análogo al teorema de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sean $v_1,v_2,\cdots,v_d$ vectores linealmente independientes en $V$ un espacio vectorial complejo (no necesariamente de dimensión finita), con producto interior $\langle \cdot , \cdot \rangle$. Existe una única familia de vectores ortonormales $e_1,e_2,\ldots,e_d$ en $V$ tales que para todo $k=1,2, \ldots, d$
\begin{align*} span(e_1,e_2,\cdots,e_k)&=span(v_1,v_2,\cdots,v_k). \end{align*}
La demostración detallada la puedes encontrar aquí (Proceso de Gram-Schmidt) por lo que no la revisaremos, algo que si vale la pena observar es que el teorema tiene dos diferencias con la versión anterior.

Primero, nuestra versión está escrita para un espacio vectorial complejo, pero para nuestra suerte la demostración anterior no requiere ninguna propiedad de los números reales que no posean los complejos, también una gran diferencia es que nuestra versión puede parecer un tanto más débil al remover que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$, esto sucede debido a que no podemos traspasar el mismo orden que teníamos en los reales al conjunto de los complejos que recordemos es el contradominio de $\langle , \rangle$.

Mencionando esto vale la pena preguntar, ¿Por qué cuando se definió espacio hermitiano hablamos de orden entonces? ¿Podrías dar una versión de este teorema únicamente para espacios hermitianos donde aún tengamos que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$?

Concluyamos esta sección con uno de los resultados más importantes y que curiosamente será nada más que un corolario.

Proposición

Todo espacio hermitiano tiene una base ortonormal.

Bases ortonormales y ortogonalidad

Empecemos revisando que si tomamos un conjunto ortonormal podemos obtener una base ortonormal a partir de este.

Proposición

Sea $\beta$ una familia ortonormal del $V$ esta puede ser completada a una base ortonormal de $V$.

Demostración

Ya que $\beta$ es una familia ortonormal, en particular es ortogonal, esto nos asegura por la primer proposición de esta entrada que es linealmente independiente, sabemos que $span(\beta) \subset V$ (si fueran iguales entonces $\beta$ ya sería una base ortonormal por lo que no sería necesario completarla) de esta manera sabemos que existe $x \in V$ tal que $x \in V \setminus span(\beta)$ a su vez esto sucede si y solo si $\beta_1= \{x\} \cup \beta$ es linealmente independiente.

Nuevamente, si $V \setminus \beta_1 = \emptyset$ tenemos entonces que $\beta_1$ ya es una base, finalmente el proceso de Gram-Schmidt nos arroja una base ortonormal $\beta_1’$y eligiendo a $x$ como el último vector a ortonormalizar nos asegura que el proceso no afectará a los vectores de $\beta$ ya que estos ya eran ortonormales desde el principio, con esto $\beta_1’$ es la completación que buscábamos.

Si en cambio tenemos que existe $y \in V \setminus \beta_1$ ortonormalicemos como arriba y repitamos el proceso, nombrando $\beta_2=\{y\} \cup \beta_1$.

Notemos que este proceso es finito, ya que lo tendremos que repetir a lo más $dim(V)-|\beta|$ veces, ya que al hacerlo terminaríamos encontrando un conjunto ortonormal con $dim(V)$ vectores, lo que sabemos que es una base de $V$.

De esta manera, repitiendo este proceso la cantidad necesaria de veces, tenemos que $\beta_k’$ es la completación buscada (con $k=dim(V)-|\beta|$).

$\square$

Cabe observar que, con un par de argumentos extra (como garantizar la existencia de algún conjunto ortonormal), esta proposición sirve para probar el corolario previo.

Finalicemos con un resultado acerca de ortogonalidad.

Proposición

Sea $W$ un subespacio de $V$ y $\{w_1, \cdots, w_k \}$ una base ortonormal de este entonces
\begin{align*} W \oplus W^{\perp} =V. \end{align*}
Demostración

Comencemos tomando a $\{w_1, \cdots, w_k \}$ que sabemos es un conjunto ortonormal, por la proposición anterior tenemos que este puede ser completado a una base ortonormal de $V$ sea esta $\{w_1, \cdots, w_k, \cdots w_n \}$ y dada esta tenemos que para cualquier $v \in V$
\begin{align*} v= \sum_{i=1}^nv_iw_i.\end{align*}
Por otro lado, definamos la siguiente función $P: V \rightarrow V$ como sigue
\begin{align*} P(v)= \sum_{j=1}^k\langle v, w_j \rangle w_j \end{align*}
Primero probemos que $P(v) \in W$ para todo $v \in V$, para esto fijemos a $j$ y veamos que pasa con $\langle v, w_j \rangle w_j$. Por lo discutido en el párrafo anterior sabemos que $v= \sum_{i=1}^nv_iw_i$ así
\begin{align*}\langle v, w_j \rangle w_j = \langle \sum_{i=1}^nv_iw_i , w_j \rangle w_j \end{align*}
Utilizando la linealidad en la primer entrada tenemos que
\begin{align*}\langle v, w_j \rangle w_j = \sum_{i=1}^n \overline{v_i} \langle w_i , w_j \rangle w_j \end{align*}
Más aún recordar que $\{w_1, \cdots, w_k, \cdots w_n \}$ es ortonormal nos arroja que $\langle w_i, w_j \rangle =0 $ si $i \neq j$ y $\langle w_i, w_j \rangle =1 $ en caso contrario, por lo que
\begin{align*}\langle v, w_j \rangle w_j = \overline{v_j} w_j \end{align*}
Con esto, sustituyendo en $P(v)$
\begin{align*} P(v)= \sum_{j=1}^k v_j w_j \end{align*}
Que notemos es una combinación lineal de $\{w_1, \cdots, w_k \}$ por lo que es un elemento de $W$-

Continuando un poco aparte, veamos que sucede con $\langle w_j, v-P(v)\rangle $ para cualquier $w_j \in \{w_1, \cdots, w_k \}$ y cualquier $v \in V$
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, v \rangle – \langle w_j, P(v)\rangle \end{align*}
Utilizando lo hecho arriba, tenemos que
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, \sum_{i=1}^nw_iv_i \rangle – \langle w_j, \sum_{j=1}^kw_jv_j\rangle \end{align*}
De nuevo utilizando la ortonormalidad en ambos productos concluimos que
\begin{align*} \langle w_j, v-P(v)\rangle = v_j – v_j =0. \end{align*}
Por lo que $v-P(v)$ es ortogonal a cada $w_j \in \{w_1, \cdots, w_k \}$ lo que a su vez nos arroja que $v-P(v) \in W^{\perp}$ ya que al ser ortogonal a toto $w_j \in \{w_1, \cdots, w_k \}$, entonces $v-P(v)$ es ortogonal a todo elemento de $W$.
Finalmente, tenemos que para cualquier $v \in V$
\begin{align*} v= P(v) + ( v- P(v) )\end{align*}
Con $P(v) \in W $ y $v- P(v) \in W^{\perp}$ de donde se sigue que
\begin{align*} V = W + W^{\perp}. \end{align*}
Más aún en entradas anteriores hemos mostrado que $W \cap W^{\perp} = \{0\}$.

Por lo tanto
\begin{align*} V = W \oplus W^{\perp}. \end{align*}

$\square$

Más adelante

Finalmente con esta entrada concluimos la segunda unidad de nuestro curso, podemos ver que el análisis de formas bilineales y cuadráticas y sus análogos complejos, formas sesquilineales y hermitianas dio paso a una gran cantidad de teoría bastante interesante y en particular da origen a un tema sumamente importante que es el producto interno y esto a su vez nos permitió generalizar propiedades que ya teníamos esta vez a espacios vectoriales complejos.

Sin embargo, algo en lo que no abundamos fue el comportamiento de matrices adjuntas ( transpuestas conjugadas ) ni en el comportamiento de sus matrices asociadas, de esto nos encargaremos en la siguiente entrada, que a su vez es el inicio de la siguiente unidad en este curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Con la notación de la segunda proposición, demuestra que
    \begin{align*} ||x||^2 = \sum_{i=1}^n |x_i|^2.\end{align*}
  2. Por que al definir espacio hermitiano mencionamos $\langle x,x \rangle >0$ si aunque $\langle x,x \rangle \in \mathbb{C}$.
  3. Escribe con todo detalle la prueba del teorema de Gram-Schmidt y el algoritmo para espacios vectoriales complejos.
  4. Sea $\mathbb{C}^3$ un espacio vectorial sobre $\mathbb{C}$ con el producto interno canónico, prueba que es un espacio hermitiano y aplica el proceso de Gram-Schmidt al conjunto $\{ (i, 0, 1), (-1, i, 1), (0, -1, i+1) \}$.
  5. En otra literatura podrías encontrar forma sesquilineal definida de manera que la primera entrada es lineal y la segunda debe ser lineal conjugada, ¿Esto afecta los resultados obtenidos en esta unidad? ¿Podrías desarrollar la misma teoría utilizando esta definición alterna?

Entradas relacionadas

Álgebra Lineal II: Matrices de formas sesquilineales

Por Diego Ligani Rodríguez Trejo

Introducción

En la entrada anterior dimos una relación entre matrices y formas bilineales. Como hemos hecho anteriormente, extenderemos este conocimiento para el caso de espacios vectoriales complejos. En esta entrada daremos una relación entre formas sesquilineales, formas cuadráticas hermitianas y matrices. Daremos la definición y veremos sus propiedades.

Gran parte de la relación que había para el caso real se mantiene al pasar a los complejos. Las demostraciones en la mayoría de los casos son análogas, así que la mayoría de ellas quedarán como tarea moral. Sin embargo, haremos énfasis en las partes que hacen que el caso real y el complejo sean distintos. Te recomendamos tener a la mano las entradas sobre formas bilineales y matrices y formas sesquilineales.

Matriz asociada a una forma sesquilineal y una forma cuadrática hermitiana

A partir de aquí, en esta entrada, asumiremos que $V$ es un espacio vectorial sobre $\mathbb{C}$ de dimensión finita. Recordemos que $S(V)$ se definió como el espacio de formas sesquilineales de $V$.

Definición. Sea $u_1, \ldots, u_n$ una base de $V$ y $\varphi: V \times V \rightarrow \mathbb{C}$ una forma sesquilineal de $V$. La matriz de $\varphi$ con respecto a la base $u_1, \ldots, u_n$ es la matriz
\begin{align*} A=[a_{ij}] \qquad \text{con} \qquad a_{ij}=\varphi(u_i,u_j),\end{align*}
para todo $i,j$ tal que $1 \leq i,j \leq n$.

Veamos primero como escribir $\varphi(x,y)$ en su forma matricial. Así como en el caso real, también podemos definir la matriz de una forma cuadrática usando su forma polar.

Definición. Sea $u_1, \cdots , u_n$ una base de $V$ y $q$ una forma cuadrática hermitiana de $V$, la matriz de $q$ con respecto a la base $u_1, \ldots, u_n$ es la matriz de su forma polar en esa misma base.

Hasta ahora todo es muy parecido al caso real.

Evaluar la forma sesquilineal con su matriz

Como en el caso real, podemos la matriz de una forma sesquilineal para evaluarla. Sin embargo, hay que ser cuidadosos pues por la sesquilinealidad debemos conjugar el vector de coordenadas de la primer entrada de la forma sesquilineal.

Proposición. Sea $\varphi$ una forma sesquilineal de $V$ y $\mathcal{B}$ una base de $V$. Sea $A$ la matriz de $\varphi$ en la base $\mathcal{B}$. Sean $X$ y $Y$ los vectores de coordenadas de vectores $x$ y $y$ de $V$ en la base $\mathcal{B}$, respectivamente. Entonces: $$\varphi(x,y)=X^\ast AY.$$

Aquí $X^\ast$ es la matriz transpuesta conjugada, es decir, la que se obtiene al conjugar todas las entradas de $^tX$. La demostración es análoga al caso real, cuidando en que en la primer entrada de una forma sesquilineal los escalares salen conjugados. Por ello, queda como ejercicio.

Tenemos dos consecuencias importantes de la proposición anterior:

  • La matriz $A$ que hace $$\varphi(x,y)=X^\ast AY$$ para cualesquiera $x,y$, es única.
  • Se tiene que $\varphi$ es hermitiana si y sólo si su matriz $A$ cumple $A=A^\ast$.

En el caso real no vimos las demostraciones de las afirmaciones análogas, así que ahora sí veremos las demostraciones de estas.

Proposición. Con la notación de arriba, $A$ es la unica matriz que cumple
\begin{align*} \varphi(x,y)=X^ \ast AY.\end{align*}

Demostración. Supongamos que tenemos otra matriz $A’=[a’_{ij}]$ tal que \begin{align*} \varphi(x,y)=X^*A’Y.\end{align*} Tomando elementos $u_i$ y $u_j$ de la base $\mathcal{B}$, obtenemos que el vector de coordenadas $U_i$ (resp. $U_j$) de $u_i$ (resp. $u_j$) es el vector con $1$ en la entrada $i$ (resp. $j$) y cero en las demás. De este modo:

\begin{align*}
a’_{ij}&=U_i^*A’U_j\\
&=b(u_i,u_j)\\
&=a_{ij}.
\end{align*}

Esto muestra que las matrices $A$ y $A’$ son iguales entrada a entrada, de modo que $A$ es única.

$\square$

Proposición. Con la notación de arriba, $\varphi$ es hermitiana si y sólo si $A=A^*$.

Demostración. Supongamos primero que $\varphi$ es hermitiana. En particular, para $u_i$ y $u_j$ elementos de la base obtenemos que $\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)}.$ En términos de las entradas de la matriz $A$ obtenemos entonces que:

\begin{align*}
a_{ij}&=\varphi(u_i,u_j)\\
&= \overline{\varphi(u_j,u_i)}\\
&=\overline{a_{ji}}.
\end{align*}

Esto nos dice que $A=A^\ast$.

Ahora, suponiendo que $A=A^ \ast $ se tiene directamente que $\varphi(u_i,u_j)=\overline{\varphi(u_j,u_i)}$ para cualquier par de elementos $u_i$ y $u_j$ de la base. De este modo, la forma sesquilineal es hermitiana en parejas de elementos de la base. Si tenemos ahora cualesquiera dos vectores $x$ y $y$ en $V$, basta con escribirlos en términos de la base $x=\sum_{i=1}^n x_iu_i$, $y=\sum_{j=1}^n y_ju_j$ y usar la proposición de la entrada de formas sesquilineales para obtener

\begin{align*}
\varphi(x,y)&=\sum_{i=1}^n \sum_{j=1}^n \overline{x_i}y_j \varphi(u_i,u_j)\\
&= \sum_{i=1}^n \sum_{j=1}^n \overline{x_i \overline{y_j}\varphi(u_j,u_i)}\\
&=\overline{\varphi(y,x)},
\end{align*}

tal y como queríamos.

$\square$

Esta última equivalencia da pie a definir una matriz hermitiana.

Definición. Sea $A\in M_n(\mathbb{C})$. Diremos que $A$ es conjugada simétrica o hermitiana si $A=A^*.$

Cambios de base

En el caso real, dos matrices que representan a una misma matriz difieren en un producto dado por una matriz de cambio de base y su transpuesta. En el caso complejo sucede algo parecido, pero debemos usar una matriz de cambio de base y su transpuesta conjugada.

Proposición. Supongamos que una forma sesquilineal $\varphi$ tiene asociada una matriz $A$ con respecto a una base $\mathcal{B}$ y una matriz $A’$ con respecto a otra base $\mathcal{B}’$ . Sea $P$ la matriz de cambio de base de $\mathcal{B}$ a $\mathcal{B}’$ . Entonces

\begin{align*} A’=P^\ast AP.\end{align*}

La demostración es análoga al caso real, cuidando la conjugación de los escalares que salen de la primera entrada de una forma sesquilineal.

Más adelante…

Hasta ahora ya hemos hablado de formas bilineales, sesquilineales y sus formas matriciales. También platicamos de algunos conceptos que surgen de estas ideas, como las formas cuadráticas y las cuadráticas hermitianas. La importancia de estos conceptos es que nos permiten hacer geometría en espacios vectoriales reales o complejos.

En la siguiente entrada explicaremos esto más a detalle. Un poco más adelante veremos cómo en espacios «con geometría» podemos definir conceptos de dualidad y ortogonalidad.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Considera la matriz $\begin{pmatrix}1+i & 0 \\ 5 & 1+2i \end{pmatrix}$. ¿Con cuál forma sesquilineal de $\mathbb{C}^2$ está asociada bajo la base canónica? y ¿Con qué forma sesquilineal de $\mathbb{C}^2$ está asociada bajo la base $(1+i,1)$, $(1,2+i)$?
  2. Prueba la proposición que dice cómo evaluar una forma sesquilineal usando su forma matricial y los vectores coordenada de vectores en cierta base dada.
  3. Prueba la proposición de cambios de base para la forma matricial de una forma sesquilineal.
  4. Demuestra que para cualesquiera dos matrices $A,B \in M_n(\mathbb{C})$ se tiene que
    \begin{align*} (AB)^*=B^*A^*.\end{align*}
  5. Demuestra que para cualquier matriz $B \in M_n(\mathbb{C})$ se tiene que las matrices $B^*B$ y $BB^*$ son hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Formas cuadráticas hermitianas

Por Diego Ligani Rodríguez Trejo

Introducción

El análogo complejo a las formas cuadráticas son las formas cuadráticas hermitianas. En esta entrada las definiremos, enfatizaremos algunas diferencias con el caso real y veremos algunas de sus propiedades.

Al final enunciaremos una versión compleja del teorema de Gauss.

Formas cuadráticas hermitianas

Definición Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\varphi$ una forma sesquilineal hermitiana de $V$. La forma cuadrática hermitiana correspondiente a $\varphi$ es la función $\Phi: V\to \mathbb{C}$ tal que para cualquier $x$ en $V$ se tiene que

\begin{align*} \Phi(x)=\varphi (x,x) \end{align*}

Observa que aquí, de entrada, estamos pidiendo que $\varphi$ sea sesquilineal. Esto entra en contraste con el caso real, en donde no nos importaba si la forma bilineal que tomábamos inicialmente era simétrica o no. Como veremos un poco más abajo, dada la forma cuadrática hermitiana $\Phi$, hay una única forma sesquilineal hermitiana de la que viene. Por esta razón, llamaremos a la función $\varphi$ la forma polar de $\Phi$.

Problema 1. Sea $V=\mathbb{C}^n$ y $\Phi : V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(x_1, \ldots, x_n)= |x_1|^2 + \cdots + |x_n|^2.\end{align*} Muestra que $\Phi$ es una forma cuadrática.

Solución. Recordemos que para cualquier $z \in \mathbb{C}$ se tiene $|z|^2=z \overline{z}$. Así propongamos $\varphi$ como sigue:

\begin{align*}
\varphi(x,y):= (\overline{x_1})(y_1) + \cdots + (\overline{x_n})(y_n).
\end{align*}

Es sencillo mostrar que $\varphi$ así definida es una forma sesquilineal hermitiana, y queda como ejercicio.

$\square$

Problema 2. Sea $V$ el espacio de funciones continuas del intervalo $[0,1]$ a $\mathbb{C}$ y $\Phi: V \rightarrow \mathbb{C}$ definida por
\begin{align*} \Phi(f)= \int_0^1|f(t)|^2 dt.\end{align*} Muestra que $\Phi$ es una forma cuadrática.

Solución. La solución es muy parecida. Proponemos $\varphi$ como sigue:

\begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt \end{align*}

Es sencillo mostrar que $\varphi(f,f)=\Phi(f)$ y que $\varphi$ es forma sesquilineal hermitiana. Ambas cosas quedan como ejercicio.

$\square$

Propiedades básicas de formas cuadráticas hermitianas

Veamos algunas propiedades de las formas cuadráticas hermitianas.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$, $\varphi$ una forma sesquilinear hermitiana y $\Phi(x)$ su forma cuadrática asociada.

  1. Para todo $x\in V$, se tiene que $\Phi(x)=\varphi(x,x)$ siempre es un número real.
  2. Para todo $x\in V$ y $a\in \mathbb{C}$ se tiene que $\Phi(ax)=|a|\Phi(x)$.
  3. Para cualesquiera $x,y$ en $V$ se tiene que $\Phi(x+y)=\Phi(x)+\Phi(y)+2\text{Re}(\varphi(x,y))$.

Demostración. Los incisos 1) y 2) son consecuencia inmediata de los ejercicios de la entrada anterior. Para el inciso 3) usamos que la suma de un número con su conjugado es el doble de su parte real para obtener la siguiente cadena de igualdades:

\begin{align*}
\Phi(x+y)&=\varphi(x+y,x+y)\\
&=\varphi(x,x)+ \varphi(y,y)+ \varphi(x,y)+\varphi(y,x)\\
&=\varphi(x,x)+ \varphi(y,y)+ \varphi(x,y)+\overline{\varphi(x,y)}\\
&=\Phi(x) + \Phi(y) + 2\text{Re}(\varphi(x,y)).
\end{align*}

$\square$

Identidad de polarización compleja

Para demostrar que una función es una forma cuadrática hermitiana, usualmente necesitamos a una función que sea la candidata a ser la forma sesquilineal hermitiana que la induzca. Es decir, necesitamos un método para proponer la forma polar. Podemos hacer esto mediante la identidad de polarización compleja.

Proposición (Identidad de polarización). Sea $\Phi: V \rightarrow \mathbb{C}$ una forma cuadrática hermitiana. Existe una única forma sesquilineal hermitiana $\varphi: V \times V \rightarrow \mathbb{C}$ tal que $\Phi(x)=\varphi(x,x)$ para todo $x \in V$.

Más aún, ésta se puede encontrar de la siguiente manera:

\begin{align*} \varphi(x,y)= \frac{1}{4}\sum_{k=0}^4 i^k \Phi (y+i^kx)\end{align*}

Aquí $i$ es el complejo tal que $i^2=-1$. Esta suma tiene cuatro sumandos, correspondientes a las cuatro potencias de $i$: $1,i,-1,-i$.

Demostración. Por definición, como $\Phi$ es una forma cuadrática hermitiana, existe $s:V\times V\to \mathbb{C}$ una forma sesquilineal hermitiana tal que $\Phi(x)=s(x,x)$. Veamos que la fórmula propuesta en el enunciado coincide con $s$. La definición en el enunciado es la siguiente:

\begin{align*} \varphi(x,y)=\frac{1}{4}\sum_{k=0}^4 i^k \Phi (y+i^kx)\end{align*}

Como $\Phi(x)=s(x,x)$ podemos calcular $\varphi$ como sigue
\begin{align*} \varphi(x,y)=\frac{1}{4}\sum_{k=0}^4 i^k s(y+i^kx,y+i^kx)\end{align*}

Desarrollando los sumandos correspondientes a $k=0$ y $k=2$, y simplificando, se obtiene

\begin{align*}2s(y,x) + 2s(x,y).\end{align*}

Del mismo modo, los sumandos para $k=1$ y $k=3$ quedan como

\begin{align*} 2s(x,y) – 2s(y,x) \end{align*}

Sustituyendo esto en la definición original de $\varphi$ tenemos que

\begin{align*} \varphi(x,y)&=\frac{ 2s(y,x) + 2s(x,y) + 2s(x,y) – 2s(y,x) }{4}\\&=s(x,y). \end{align*}

De esta igualdad podemos concluir que $\varphi = s$, por lo que 1) $\varphi$ es forma sesquilineal hermitiana y 2) la forma cuadrática hermitiana de $\varphi$ es $\Phi$. Esta forma debe ser única pues si hubiera otra forma sesquilineal hermitiana tal que $s'(x,x)=\Phi(x)$, los pasos anteriores darían $s'(x,x)=\varphi(x,y)$ nuevamente.

$\square$

En particular, esta identidad nos dice que formas sesquilineales hermitianas distintas van a formas cuadráticas hermitianas distintas. Es por ello que podemos llamar a la función $\varphi$ dada por la fórmula en el enunciado la forma polar de $\Phi$.

Teorema de Gauss complejo

Enunciamos a continuación la versión compleja del teorema de Gauss.

Teorema. Sea $\Phi$ una función cuadrática hermitiana $\mathbb{C}^n$. Existen $\alpha_1, \cdots , \alpha_r$ números complejos y formas lineales $l_1, \cdots l_r$ linealmente independiente de $\mathbb{C}^n$ tales que para todo $x$ en $\mathbb{C}^n$ se tiene:

\begin{align*} \Phi(x_1, \cdots , x_n ) = \sum_{i=1}^r \alpha_i |l_i(x)|^2. \end{align*}

Observa que en la expresión de la derecha no tenemos directamente a las formas lineales, sino a las normas de éstas.

Más adelante…

Ya hablamos de formas bilineales y de formas sesquilineales. ¿Habrá una forma alternativa de representarlas? Cuando teníamos transformaciones lineales entre espacios vectoriales, podíamos representarlas por matrices. Resulta que a las formas bilineales también podemos representarlas por matrices. Veremos cómo hacer esto (y cuáles son las ventajas de hacer eso) en las siguientes dos entradas. En una veremos los resultados correspondientes a formas bilineales y en la otra los resultados correspondientes a formas sesquilineales.

Un poco más adelante aprovecharemos esta representación matricial para retomar el estudio de los productos interiores.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Sea $V=\mathbb{C}^n$ y definamos $\varphi:V\times V \to \mathbb{C}$ como sigue:
    \begin{align*} \varphi(x,y)= \overline{x_1}y_1 + \cdots + \overline{x_n}y_n, \end{align*}
    para cualquier par $x,y \in V$ con $x=(x_1, \cdots x_n)$ y $y=(y_1, \cdots y_n)$. Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  2. Sea $V$ el espacio de funciones continuas del intevalo $[0,1]$ a $\mathbb{C}$ y $\varphi: V\times V \to \mathbb{C}$ definida como sigue:
    \begin{align*} \varphi(f_1,f_2)= \int_0^1\overline{f_1(t)} f_2(t) dt,\end{align*}
    para cualquier par $f_1, f_2 \in V$. Demuestra que $\varphi$ es una forma sesquilineal hermitiana.
  3. Sea $V$ un espacio vectorial sobre $\mathbb{C}$ y $\Phi$ una forma cuadrática hermitiana. Prueba la siguiente identidad (identidad del paralelogramo)
    \begin{align*} \Phi(x+y) + \Phi(x-y) = 2(\Phi(x) + \Phi(y)).\end{align*} ¿Cómo se compara con la identidad del paralelogramo real?
  4. Compara la identidad de polarización real con la identidad de polarización compleja. ¿Por qué son tan distintas entre sí?
  5. Demuestra el Teorema de Gauss para formas cuadráticas hermitianas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Matrices simétricas reales y sus eigenvalores

Por Leonardo Ignacio Martínez Sandoval

Introducción

Hemos llegado a la cima del curso. En estas últimas entradas probaremos uno de los teoremas más bellos en álgebra lineal: el teorema espectral para matrices simétricas reales. También hablaremos de varias de las consecuencias que tiene.

Hay dos formas equivalentes de enunciar el teorema.

Teorema. Sea $V$ un espacio euclideano y $T:V\to V$ una transformación simétrica. Entonces, existe una base ortonormal de $V$ que consiste de eigenvectores de $T$.

Teorema. Sea $A$ una matriz simétrica en $\mathbb{R}^n$. Entonces, existe una matriz ortogonal $P$ y una matriz diagonal $D$, ambas en $\mathbb{R}^n$, tales que $$A=P^{-1}DP.$$

Para hablar de la demostración y de las consecuencias del teorema espectral para matrices simétricas reales, necesitaremos usar teoría de todas las unidades del curso. En particular, usaremos las siguientes definiciones:

  • Una matriz $A$ en $M_n(F)$ es simétrica si es igual a su transpuesta.
  • Una matriz $A$ en $M_n(F)$ es ortogonal si es invertible y $A^{-1}= {^tA}$.
  • Si $T:V\to V$ es una transformación lineal de un espacio vectorial $V$ a sí mismo y $W$ es un subespacio de $V$, entonces decimos que $W$ es estable bajo $T$ si $T(W)\subseteq W$.
  • Un producto interior es una forma bilineal simétrica y positiva definida.
  • Un espacio Euclideano es un espacio vectorial de dimensión finita con un producto interior.
  • Si $W$ es un subespacio de un espacio Euclideano $V$, entonces $W^\bot$ es el conjunto de todos los vectores que de $V$ que son ortogonales a todos los vectores de $W$.
  • Una matriz $A$ en $M_n(F)$ es diagonalizable si existen matrices $P$ y $D$ en $M_n(F)$ con $P$ invertible, $D$ diagonal y tales que $A=P^{-1}DP$.

Y los siguientes resultados principales:

En esta entrada enunciaremos tres resultados auxiliares de interés propio. A partir de estos resultados, la demostración del teorema espectral para matrices simétricas reales y la equivalencia entre ambas versiones será mucho más limpia.

Los eigenvalores de matrices simétricas reales

El polinomio característico de una matriz $A$ en $M_n(\mathbb{R})$ tiene coeficientes reales. Por el teorema fundamental del álgebra, debe tener exactamente $n$ raíces en $\mathbb{C}$, contando multiplicidades. Si alguna de estas raíces $r$ no es real, entonces $A$ no puede ser diagonalizable en $M_n(\mathbb{R})$. La razón es que $A$ sería similar a una matriz diagonal $D$, y los eigenvalores de las matrices diagonales (incluso triangulares) son las entradas de la diagonal principal. Como $A$ y $D$ comparten eigenvalores (por ser similares), entonces $r$ tendría que ser una entrada de $D$, pero entonces $D$ ya no sería una matriz de entradas reales.

Lo primero que veremos es que las matrices simétricas reales «superan esta dificultad para poder diagonalizarse». Esta va a ser nuestra primer herramienta para demostrar el teorema espectral.

Teorema. Sea $A$ una matriz simétrica en $M_n(\mathbb{R})$ y $\lambda$ una raíz del polinomio característico de $A$. Entonces, $\lambda$ es un número real.

Demostración. El polinomio característico de $A$ es un polinomio con coeficientes reales, así que por el teorema fundamental del álgebra se tiene que $\lambda$ debe ser un número en $\mathbb{C}$. Así, podemos escribirlo de la forma $\lambda = a+ib$, con $a$ y $b$ números reales. Lo que mostraremos es que $b=0$.

Se tiene que $\lambda$ es un eigenvalor de $A$ vista como matriz en $M_n(\mathbb{C})$, y por lo tanto le corresponde un eigenvector $U$ en $\mathbb{C}^n$, es decir, un $U\neq 0$ tal que $$AU=\lambda U.$$ Este vector $U$ lo podemos separar en partes reales e imaginarias con vectores $V$ y $W$ en $\mathbb{R}^n$ tales que $$U=V+iW.$$

En estos términos,
\begin{align*}
AU&=A(V+iW)=AV+iAW \quad\text{y}\\
\lambda U &= (a+ib)(V+iW)\\
&=(aV-bW) + i (aW+bV),
\end{align*}

de modo que igualando partes reales e imaginarias en la expresión $AU=\lambda U$ tenemos que
\begin{align*}
AV&=aV-bW\quad\text{y}\\
AW&=aW+bV.
\end{align*}

Como $A$ es simétrica, tenemos que

\begin{equation}
\langle AV,W \rangle=\langle {^tA}V,W \rangle= \langle V, AW\rangle.
\end{equation}

Estudiemos las expresiones en los extremos, reemplazando los valores de $AV$ y $AW$ que encontramos arriba y usando la bilinealidad del producto interior. Se tiene que

\begin{align*}
\langle AV,W \rangle &= \langle aV-bW,W \rangle\\
&=a\langle V,W \rangle – b \langle W,W \rangle\\
&=a \langle V,W \rangle – b \norm{W}^2,
\end{align*}

y que

\begin{align*}
\langle V,AW \rangle &= \langle V,aW+bV \rangle\\
&=a\langle V,W \rangle + b \langle V,V \rangle\\
&=a \langle V,W \rangle + b \norm{V}^2.
\end{align*}

Substituyendo estos valores en la expresión (1), obtenemos la igualdad

$$a \langle V,W \rangle – b \norm{W}^2 = a \langle V,W \rangle + b \norm{V}^2,$$

que se simplifica a $$b(\norm{V}^2+\norm{W}^2)=0.$$

Estamos listos para dar el argumento final. Como $U=V+iW$ es un eigenvector, entonces no es nulo, de modo que no es posible que $V$ y $W$ sean ambos el vector $0$ de $\mathbb{R}^n$. Como el producto interior es positivo definido, entonces alguna de las normas $\norm{V}$ o $\norm{W}$ no es cero, de modo que $$\norm{V}^2+\norm{W}^2\neq 0.$$

Concluimos que $b=0$, y por lo tanto que $\lambda$ es un número real.

$\square$

La demostración anterior es ejemplo de un truco que se usa mucho en las matemáticas. Aunque un problema o un teorema no hablen de los números complejos en su enunciado, se puede introducir a $\mathbb{C}$ para usar sus propiedades y trabajar ahí. Luego, se regresa lo obtenido al contexto real. Aquí en el blog hay otra entrada en donde damos más ejemplos de «brincar a los complejos».

Un resultado auxiliar de transformaciones simétricas

A continuación damos la segunda herramienta que necesitaremos para probar el teorema espectral. Recuerda que si $V$ es un espacio Euclideano y $T:V\to V$ es una transformación lineal, entonces decimos que $T$ es simétrica si para todo par de vectores $u$ y $v$ en $V$ se tiene que $$\langle T(u),v\rangle = \langle u, T(v) \rangle.$$ Enunciamos el resultado en términos de transformaciones, pero también es válido para las matrices simétricas asociadas.

Teorema. Sea $V$ un espacio Eucideano y $T:V\to V$ una transformación lineal simétrica. Sea $W$ un subespacio de $V$ estable bajo $T$. Entonces:

  • $W^\bot$ también es estable bajo $T$ y
  • Las restricciones de $T$ a $W$ y a $W^\bot$ son transformaciones lineales simétricas en esos espacios.

Demostración. Para el primer punto, lo que tenemos que mostrar es que si $w$ pertenece a $W^\bot$, entonces $T(w)$ también, es decir, que $T(w)$ es ortogonal a todo vector $v$ en $W$.

Tomemos entonces un vector $v$ en $W$. Como $W$ es estable bajo $T$, tenemos que $T(v)$ está en $W$, de modo que $\langle w, T(v) \rangle =0$. Como $T$ es simétrica, tenemos entonces que $$\langle T(w),v \rangle = \langle w, T(v) \rangle = 0.$$ Esto es lo que queríamos probar.

Para la segunda parte, si $T_1$ es la restricción de $T_1$ a $W$ y tomamos vectores $u$ y $v$ en $W$, tenemos que
\begin{align*}
\langle T_1(u), v \rangle &= \langle T(u), v \rangle\\
&=\langle u, T(v) \rangle \\
&=\langle u, T_1(v) \rangle,
\end{align*}

lo cual muestra que $T_1$ es simétrica. La prueba para $W^\bot $ es análoga y queda como tarea moral.

$\square$

Matrices diagonalizables y bases ortonormales de eigenvectores

El tercer y último resultado enuncia una equivalencia entre que una matriz en $M_n(F)$ sea diagonalizable, y que exista una base especial para $F^n$. Es lo que usaremos para probar la equivalencia entre ambas formulaciones del teorema espectral para matrices simétricas reales.

Teorema. Sea $A$ una matriz en $M_n(F)$. Las siguientes dos afirmaciones son equivalentes:

  • $A$ es diagonalizable, es decir, existen matrices $P$ y $D$ en $M_n(F)$, con $P$ invertible y $D$ diagonal tales que $A=P^{-1}DP.$
  • Existe una base para $F^n$ que consiste de eigenvectores de $A$.

Demostración. Antes de comenzar la demostración, recordemos que si tenemos una matriz $B$ en $M_n(F)$ de vectores columna $$C_1,\ldots,C_n,$$ entonces los vectores columna del producto $AB$ son $$AC_1,\ldots AC_n.$$ Además, si $D$ es una matriz diagonal en $M_n(F)$ con entradas en la diagonal $d_1,\ldots,d_n$, entonces los vectores columna de $BD$ son $$d_1C_1,\ldots,d_nC_n.$$

Comencemos la prueba del teorema. Supongamos que $A$ es diagonalizable y tomemos matrices $P$ y $D$ en $M_n(F)$ con $P$ invertible y $D$ diagonal de entradas $d_1,\ldots,d_n$, tales que $A=P^{-1}DP$. Afirmamos que los vectores columna $C_1,\ldots,C_n$ de $P^{-1}$ forman una base de $F^n$ que consiste de eigenvectores de $A$.

Por un lado, como son los vectores columna de una matriz invertible, entonces son linealmente independientes. En total son $n$, como la dimensión de $F^n$. Esto prueba que son una base.

De $A=P^{-1}DP$ obtenemos la igualdad $AP^{-1}=P^{-1}D$. Por las observaciones al inicio de la prueba, tenemos al igualar columnas que para cada $j=1,\ldots,n$ se cumple $$AC_j = d_j C_j.$$ Como $C_j$ forma parte de un conjunto linealmente independiente, no es el vector $0$. Así, $C_j$ es un eigenvector de $A$ con eigenvalor $d_j$. Con esto terminamos una de las implicaciones.

Supongamos ahora que existe una base de $F^n$ que consiste de eigenvectores $C_1,\ldots,C_n$ de $A$. Para cada $j=1,\ldots,n$, llamemos $\lambda_j$ al eigenvalor correspondiente a $C_j$, y llamemos $D$ a la matriz diagonal con entradas $\lambda_1,\ldots,\lambda_n$.

Como $C_1,\ldots,C_n$ son vectores linealmente independientes, la matriz $B$ cuyas columnas son $C_1,\ldots, C_n$ es invertible. Además, por las observaciones al inicio de la prueba, se tiene que la columna $j$ de la matriz$AB$ es $AC_j$ y la columna $j$ de la matriz $BD$ es $\lambda_j C_j$. Entonces, por construcción, estas matrices son iguales columna a columna, y por lo tanto lo son iguales. De esta forma, tenemos que $AB=BD$, o bien, reescribiendo esta igualdad, que $$A=BDB^{-1}.$$ Así, la matriz invertible $P=B^{-1}$ y la matriz diagonal $D$ diagonalizan a $A$.

$\square$

Las matrices simétricas reales serán todavía más especiales que simplemente las matrices diagonalizables. Lo que asegura el teorema espectral es que podremos encontrar no sólo una base de eigenvectores, sino que además podemos garantizar que esta base sea ortonormal. En términos de diagonalización, la matriz $P$ no sólo será invertible, sino que además será ortogonal.

Más adelante…

En esta entrada enunciamos dos formas del teorema espectral y hablamos de algunas consecuencias que tiene. Además, repasamos un poco de la teoría que hemos visto a lo largo del curso y vimos cómo nos ayuda a entender mejor este teorema.

En la siguiente entrada, que es la última del curso, demostraremos las dos formas del teorema espectral que enunciamos en esta entrada y haremos un pequeño comentario sobre qué hay más allá del teorema espectral en el álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Encuentra un ejemplo de una matriz simétrica en $M_n(\mathbb{C})$ cuyos eigenvalores no sean reales.
  • En el contexto del segundo teorema, muestra que la restricción de $T$ a $W^\bot$ es simétrica.
  • Realiza la demostración de que si $A$ y $B$ son matrices en $M_n(F)$ y los vectores columna de $B$ son $C_1,\ldots,C_n$, entonces los vectores columna de $AB$ son $AC_1,\ldots,AC_n$. También, prueba que si $D$ es diagonal de entradas $d_1,\ldots,d_n$, entonces las columnas de $BD$ son $d_1C_1,\ldots,d_nC_n$.
  • Encuentra una matriz $A$ con entradas reales similar a la matriz $$\begin{pmatrix} 1 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & -3 \end{pmatrix},$$ tal que ninguna de sus entradas sea igual a $0$. Encuentra una base ortogonal de eigenvectores de $A$ para $\mathbb{R}^3$.
  • Diagonaliza la matriz $$\begin{pmatrix}-2 & 0 & 0 & 0\\0 & 2 & 0 & 0\\ \frac{19}{7} & \frac{30}{7} & \frac{65}{7} & \frac{24}{7}\\ \frac{6}{7} & – \frac{20}{7} & – \frac{48}{7} & – \frac{23}{7}\end{pmatrix}.$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Superior II: Ejercicios de conjugados complejos

Por Claudia Silva

Introducción

Aquí van los vídeos de hoy, en donde vemos ejemplos resueltos de conjugación compleja. Expliqué con un poco más de detalle el ejemplo 132 del libro de Bravo, Rincón y Rincón. Resolví el ejercicio 325 completo, así como otros 3 ejercicios de conjugados complejos del libro Álgebra Superior II de Antonio Lascurain. Más adelante les pondré en foto para los que no tengan facilidad para ver los vídeos de YouTube.

Ejemplos y ejercicios de conjugados complejos del Bravo, Rincón, Rincón

Primero, resolvemos el ejemplo 132 del libro:

Problema. Calcular $z$ si $iz+(2-i)\overline{z}=10+6i$.

Ejemplo 132 detallado

Inciso 1 del ejercicio 325:

Problema. Resuelve $(1+i)z+(1-i)\overline{z}=4$.

Inciso 1 del ejercicio 325

Inciso 2 del ejercicio 325:

Problema. Resuelve $z\overline{z}+3(z+\overline{z})=7$

Inciso 2 del ejercicio 325

Inciso 3 del ejercicio 325. Nota importante de este ejercicio: Alrededor del 7:09 me equivoqué en un signo, el término $6d$ de la parte imaginaria debería ser negativo. Eso puede que cambie el resultado final, pero esa es la idea de la resolución del problema.

Problema. Resuelve el sistema \begin{align*}iz+(1+i)&=3+i\\ (1+i)\overline{z}-(6+i)\overline{w}&=4\end{align*}

Ejercicios del libro de Lascurain

Los siguientes ejercicios fueron tomados del libro de Álgebra Superior II de Antonio Lascurain.

Problema. Realiza la siguiente operación de números complejos: $$\overline{\left(\frac{2-4i}{5-5i}\right)}$$.

Una división con conjugados complejos

Problema. Encuentra las parejas $u,v$ de números complejos para las cuales sucede que $u \overline{\overline{v}u}=v$.

Problema 1 de conjugación compleja

Problema. Encuentra las parejas $u,v$ de números complejos para las cuales sucede que $v+iu=-\overline{v}+i\overline{u}$.

Problema 2 de conjugación compleja

Más adelante…

Tarea moral

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»