Álgebra Lineal II: El teorema de clasificación de transformaciones ortogonales

Por Ayax Calderón

Introducción

En la entrada anterior definimos las transformaciones ortogonales y probamos algunas de sus propiedades relacionadas con el producto interior, norma y la transformación adjunta. Vimos también que el conjunto de todas las transformaciones ortogonales de un espacio euclideano $V$ forma un grupo $O(V)$ bajo composición.

En esta entrada queremos entender mucho mejor dicho grupo. El resultado principal que probaremos nos dirá exactamente cómo son todas las posibles transformaciones ortogonales en un espacio euclideano (que podemos pensar que es $\mathbb{R}^n$). Para llegar a este punto, comenzaremos con algunos resultados auxiliares y luego con un lema que nos ayudará a entender a las transformaciones ortogonales en dimensión $2$. Aprovecharemos este lema para probar el resultado para cualquier dimensión.

El lema de los subespacios estables

Lo primero que veremos es que las transformaciones ortogonales preservan completamente los subespacios estables, así como sus espacios ortogonales. Este es el resultado que nos permitirá un poco más adelante trabajar inductivamente.

Lema. Sean $V$ un espacio euclidiano, $T\in O(V)$ y $W$ un subespacio de $V$ estable bajo $T$.

  1. Se tiene que $T(W)=W$ y $T(W^\bot)=W^\bot$.
  2. Se tiene que $T|_W\in O(W)$ y $T|_{W^\bot}\in W^\bot$.

Demostración. 1. Como $T(W)\subseteq W$ y $T|_W$ es inyectiva (pues $T$ es inyectiva en $V$), se sigue que $T|_W:W\to W$ es suprayectiva y por lo tanto $T(W)=W$. Veamos ahora que $W^\bot$ también es estable bajo $T$. Tomemos $x\in W^\bot$ y $y\in W$. Queremos demostrar que $T(x)\in W^\bot$, es decir, que $\langle T(x),y \rangle=0$. Como $T$ es ortogonal, entonces $T^*=T^{-1}$ y por lo tanto
$$\langle T(x),y \rangle=\langle x,T^{-1}(y) \rangle.$$

Como $T|_W:W\to W$ es biyectiva, se tiene que $W$ es estable bajo $T^{-1}$. Entonces $T^{-1}(y)\in W$, y como $x\in W^\bot$, entonces $\langle x,T^{-1}(y) \rangle=0$. Por lo tanto $\langle T(x),y \rangle=0$. Esto muestra que $W^\bot$ es estable bajo $T$ y por la primer parte de este inciso, llegamos a $T(W^\bot)=W^\bot$.

2. Para todo $x\in W$ se tiene que
$$||T|_W(x)||=||T(x)||=||x||,$$
lo que significa que $T|_W\in O(W)$. De manera análoga se tiene que $T_{W^\bot}\in O(W^\bot)$.

$\square$

El lema de la invarianza de una recta o un plano

Para poder aplicar el lema de la sección anterior, tendremos que poder encontrar subespacios estables. El siguiente lema nos dice que siempre podemos encontrar subespacios estables en espacios euclideanos.

Lema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal sobre $V$. Entonces existe una recta (subespacio de dimensión $1$) o un plano (subespacio de dimensión $2$) en $V$ estable bajo $T$.

Demostración. El polinomio mínimo de $T$ es un polinomio $\mu_T(x)$ con coeficientes reales. Si tiene una raíz real, se sigue que $T$ tiene un eigenvalor y por consiguiente, la recta generada por un eigenvector es estable bajo $T$.

Ahora supongamos que $\mu_T(x)$ no tiene raíces reales. Sea $z$ una raíz compeja de $\mu_T(x)$, que existe por el teorema fundamental del álgebra. Como $\mu_T(x)$ tiene coeficientes reales, entonces $\overline{z}$ también es raíz de $\mu_T(x)$.Por lo tanto, $Q(x)=(x-z)(x-\overline{z})$ divide a $\mu_T(x)$.

Es imposible que $Q(T)$ sea una matriz invertible, pues de serlo, tendríamos que $\frac{\mu_T}{Q}(x)$ sería un polinomio de grado más chico que $\mu_T(x)$ y anularía a $T$. Esto nos dice que existe $x\in V$ distinto de $0$ tal que $Q(T)(x)=0$. Si $Q(x)=x^2+ax+b$, esto se traduce a $T^2(x)+aT(x)+bx=0$. De aquí, se tiene que $x$ y $T(x)$ generan un plano estable bajo $T$.

$\square$

Las transformaciones ortogonales en dimensión $2$

Los lemas de las secciones anteriores nos permitirán ir partiendo a un espacio euclideano $T$ en «cachitos estables» ya sea de dimensión $1$ o de dimensión $2$. En los de dimensión $1$ ya sabemos cómo debe verse una matriz que represente a $T$: simplemente corresponden a eigenvectores y entonces consistirán en reescalamientos (que deben de ser por factor $1$ ó $-1$ para tener ortogonalidad). Pero, ¿cómo se verá matricialmente la transformación $T$ en subespacios estables de dimensión $2$ que no se puedan descomponer más? Esto es lo que nos responde el siguiente lema.

Lema. Sea $V$ un espacio euclidiano de dimensión $2$ y $T\in O(V)$ sin eigenvalores reales. Entonces existe una base ortonormal de $V$ tal que la matriz asociada a $T$ en dicha base es de la forma
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Demostración. Sea $\beta=\{e_1,e_2\}$ una base ortonormal de $V$ y escribimos $T(e_1)=ae_1+be_2$ para algunos números reales $a,b$. Como
$$a^2+b^2=||T(e_1)||^2=||e_1||^2=1,$$ entonces podemos encontrar un número real $\theta$ tal que $(a,b)=(\cos\theta,\sin\theta)$.

Para que $\langle T(e_1), T(e_2)\rangle = 0$, necesitamos que exista un $c$ tal que $T(e_2)=c(-\sin\theta e_1+\cos \theta e_2)$. Finalmente, ya que $$||T(e_2)||=||e_2||=1, $$ debemos tener $|c|=1$ y así $c\in \{-1,1\}$.

El caso $c=-1$ podemos descartarlo pues la matriz que representa a $T$ en la base $\beta$ sería
$$\begin{pmatrix}
\cos \theta & \sin \theta\\
\sin \theta & -\cos\theta\end{pmatrix},$$
cuyo polinomio caracterísitco es $x^2-1$ y por lo tanto tiene a $1$ como eigenvalor, lo cual no entra en nuestras hipótesis. Así, $c=1$ y por lo tanto la matriz que representa a $T$ en la base $\beta$ es
$$\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix},$$

como queríamos.

$\square$

El teorema de clasificación

Con lo visto hasta ahora, ya estamos listos para demostrar el teorema fundamental de clasificación de transformaciones lineales ortogonales de un espacio euclidiano.

Teorema (clasificación de ortogonales). Sea $V$ un espacio euclidiano y $T\in O(V)$. Entonces podemos encontrar una base ortonormal $\beta$ de $V$ tal que la matriz asociada a $T$ con respecto a la base $\beta$ es de la forma
\begin{equation}\label{forma}
A=\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix},\end{equation}
donde $\theta_1,\dots, \theta_k$ son números reales y
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta
\end{pmatrix}.$$

Demostración. Procederemos por inducción sobre $\dim V$. Si $\dim V=1$, entonces ya terminamos, pues se tendría que $T=\pm id$ (esto quedó de tarea moral en la entrada anterior).

Supongamos que el resultado se satisface para todos los espacios euclideanos de dimensión a lo más $n-1$. Tomemos $V$ un espacio euclideano de dimensión $n$ y $T$ una transformación ortogonal de $V$. Por el lema de la invarianza de una recta o un plano, o bien $V$ tiene una recta estable bajo $T$, o bien un plano estable bajo $T$.

El caso en que $T$ tiene una recta estable bajo $T$ corresponde a que $T$ tiene un eigenvalor real $t$ con eigenvector, digamos, $e_1$. Entonces $$|t|||e_1||=||te_1||=||T(e_1)||=||e_1||,$$
por lo cual $t\in\{-1,1\}$. Sea $W$ la recta generada por $e_1$.

Tenemos que $V=W\oplus W^\bot$. Por el lema de subespacios estables, $T(W)=W$ y $T|_{W^\bot}$ es ortogonal de $W^\bot$. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_2,\dots , e_n\}$ tal que la matriz asociada a dicha base y restringida a $W^\bot$ es de la forma \eqref{forma}. Añadiendo el vector $\frac{e_1}{||e_1||}$ se añade un $1$ o $-1$ en la diagonal, así que, posiblemente permutando la base ortonormal resultante $\{\frac{e_1}{||e_1||},e_2,\dots ,e_n\}$ de $V$ obtenemos una base ortonormal tal que la matriz asociada a $T$ con respecto a esta base es de la forma \eqref{forma}.

Ahora supongamos que $T$ no tiene valores propios reales, es decir, que estamos en el caso de tener un plano estable bajo $T$. Como $T$ es ortogonal, el espacio $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones otogonales sobre estos espacios. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_3,\dots,e_n\}$ tal que la matriz asociada a $T|_{W^\bot}$ con respecto a esta base es una matriz diagonal de bloques de la forma $R_{\theta_i}$. Por el lema de transformaciones ortogonales en dimensión $2$, el subespacio $W$ tiene una base ortonormla $\{e_1,e_2\}$ tal que la matriz asociada a $T|_W$ con respecto a esta base es de la forma $R_\theta$. Como $V=W\oplus W^\bot$, entonces la matriz asociada a $T$ con respecto a la base $\{e_1,\dots, e_n\}$ es de la forma \eqref{forma}, con lo cual concluimos con la prueba deseada.

$\square$

También podemos enunciar el teorema anterior en términos de matrices:

Corolario. Sea $A\in M_n(\mathbb{R})$ una matriz ortogonal. Entonces existen enteros $p,q,k$ que satisfacen $p+q+2k=n$, una matriz ortogonal $P\in M_n(\mathbb{R})$ y números reales $\theta_1,\dots , \theta_n$ tales que
$$A=P^{-1}\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}P.$$

Observación. El determinante de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es $(-1)^q\in\{1,-1\}$ (estamos usando $\det R_{\theta_i}=1$ para $1\leq i\leq k$). Se sigue que $$\det T\in\{-1,1\}$$ para cualquier $T\in O(V)$.

Más adelante…

Por lo platicado en esta entrada, ya podemos decir cómo es cualquier transformación ortogonal, y no es tan complicado: simplemente en alguna base apropiada, se rota en pares de coordenadas, o bien se refleja en coordenadas, o bien no se hace nada en alguna coordenada (o una combinación de estas cosas). Todo esto intuitivamente deja fijas las normas y el teorema de clasificación nos dice que si se fijan normas entonces debe ser así. Por ello, podemos pensar a las transformaciones ortonormales como «sencillas» o por lo menos «entendibles».

Aprovecharemos esto en el siguiente tema, pues enunciaremos el teorema espectral real, que nos dice que las transformaciones simétricas se entienden muy bien a partir de las ortogonales y de las diagonales. Así, las transformaciones simétricas también serán «entendibles». Finalmente, con el teorema de descomposición polar llevaremos este entendimiento a todas, todas las matrices.

Tarea moral

  1. Verifica que, en efecto, las matrices $R_\theta$ de la entrada tienen determinante igual a $1$.
  2. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que $T$ es ortogonal si y sólo si $||T(x)||=||x||$ para los vectores $x$ de norma $1$.
  3. Encuentra la matriz de rotación de ángulo $\frac{\pi}{3}$ alrededor de la recta generada por el vector $(1,1,1)$.
  4. Describe todas las matrices en $M_3(\mathbb{R})$ que son simultaneamente ortogonales y diagonales.
  5. Describe todas las matrices en $M_3(\mathbb{R})$ que sean simultáneamente ortogonales y triangulares superiores.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Probabilidad I-Videos: Independencia de eventos

Por Aurora Martínez Rivas

Introducción

La noción de independencia de los eventos juega un papel importante en la teoría de la probabilidad y sus aplicaciones.  Generalmente, saber que algún evento B ha ocurrido cambia la probabilidad de que otro evento A ocurra. Si la probabilidad permanece sin cambios entonces llamamos a A y B independientes.

Independencia de eventos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE 104721: “Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM”. Sitio web del proyecto: https://www.matematicasadistancia.com.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sean $A$ y $B$ eventos independientes, muestra que
    • $A^c,\ B$
    • $A,\ B^c$
    • $A^c,\ B^c$

Son independientes.

  • Demuestra que los eventos $A$ y $B$ son independientes si y sólo si $P\left(A\middle|\ B\right)=P\left(A\middle|\ B^c\right)$.
  • Sea $\Omega=${$1,2,\ldots,p$} donde $p$ es primo, $\mathcal{F}$ es el conjunto de todos los subconjuntos de $\Omega$ y para todo evento $A\in\mathcal{F}$, $P(A)=\frac{\left|A\right|}{p}$. Muestra que, si $A$ y $B$ son eventos independientes, entonces al menos uno de los eventos $A$ y $B$ son cualquiera $\emptyset$ o $\Omega$.
  • Considera que se lanza un dado n veces. Sea $A_{ij}$ el evento tal que el $i-ésimo$ y $j-ésimo$ resultado producen el mismo número. Muestra que los eventos {$A_{ij}:1\le\ i\le\ j\le\ n$} son independientes dos a dos, pero no son independientes.
  • Prueba que si $A_1,A_2,\ldots,A_n$ son eventos independientes entonces $P\left(A_1\cup A_2\cup\ldots\cup A_n\right)=1-\displaystyle\prod_{i=1}^{n}\left[1-P\left(A_i\right)\right]$.

Más adelante…

En los siguientes videos veremos dos aplicaciones útiles e importantes de la probabilidad condicional: el teorema de probabilidad total y el teorema de Bayes, que nos permiten a través de una partición correcta del espacio muestral, encontrar probabilidades de una manera conveniente.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Teorema de existencia y unicidad de Picard

Por Eduardo Vera Rosales

Introducción

En entradas anteriores hemos cubierto diversos métodos de resolución de ecuaciones diferenciales de primer orden, y hemos pasado por alto diversas hipótesis que deben cumplir las ecuaciones para que éstas tengan una solución. Es momento entonces de justificar toda la teoría realizada anteriormente mediante el Teorema de existencia y unicidad para ecuaciones de primer orden, que nos garantiza la existencia de una única solución al problema de condición inicial $$\frac{dy}{dt}=f(t,y) ; \,\,\,\,\,\,\ y(t_{0})=y_{0}$$ en un intervalo $I_{h}$, bajo ciertas hipótesis que deben satisfacerse.

Primero daremos un panorama general del Teorema de existencia y unicidad, así como la estrategia general para demostrarlo. Debido a que este teorema es complejo de demostrar, necesitamos algunas herramientas extra que iremos presentando conforme las vayamos utilizando. Demostraremos primero la unicidad de la solución al problema de condición inicial y posteriormente su existencia. Finalmente demostraremos la dependencia continua del problema de condición inicial respecto a la condición inicial.

¡Vamos a comenzar!

Introducción del Teorema de Existencia y Unicidad de Picard. Ecuación integral asociada.

Enunciamos el Teorema de existencia y unicidad de Picard, debido al matemático francés Émile Picard, asociamos una ecuación integral al problema de condición inicial, analizamos la relación que guarda la solución a esta ecuación con el problema de condición inicial, y presentamos una forma equivalente de demostrar el teorema en lo que se refiere a la existencia de la solución.

Demostración de la unicidad de la solución al problema de condición inicial

En este video presentamos las herramientas para demostrar la parte de la unicidad del Teorema de existencia y unicidad de Picard. Primero presentamos a las funciones $f(t,y)$ Lipschitz continuas respecto a la segunda variable. Posteriormente demostramos dos lemas: el primero enuncia una forma equivalente de decir que una función $f$ es Lipschitz continua respecto a la segunda variable, el segundo es el Lema de Grönwall, debido al matemático sueco Thomas Grönwall, que nos da una cota superior para una función $g(t)$ continua no negativa que cumple con cierta desigualdad. Finalmente demostramos la unicidad de la solución al problema de condición inicial.

Iteraciones de Picard

Para demostrar la existencia de la solución al problema de condición inicial, o equivalentemente, a la ecuación integral asociada al problema, definimos una sucesión muy particular de funciones $\{y_{n}(t)\}_{n \in \mathbb{N}}$ cuyos elementos llamaremos iteraciones de Picard o aproximaciones sucesivas, resolvemos un ejemplo para ver cómo calcular estas iteraciones, hacemos algunas observaciones que cumple la sucesión, presentamos un par de definiciones y teoremas (que no demostraremos) para saber cuándo converge nuestra sucesión de funciones, esto para dar paso a la demostración de la existencia de la solución al problema de condición inicial.

Demostración de la existencia de la solución al problema de condición inicial

En este video demostramos la parte de la existencia de la solución al problema de condición inicial. Previamente mostramos un lema que nos permite encontrar el intervalo $I_{h}$ donde la solución existe.

Dependencia continua de la condición inicial

Concluimos esta serie de videos, mostrando la dependencia continua del problema de condición inicial, respecto a los valores de la condición inicial, utilizando el Lema de Grönwall que demostramos en el segundo video de esta entrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Prueba que la función $$f(t,y)=y^{\frac{2}{3}}$$ no es Lipschitz continua respecto a la segunda variable en cualquier dominio D (subconjunto abierto conexo de $\mathbb{R}^{2}$) que incluya a $y=0$.
  • Resuelve el problema de valor inicial $$\frac{dy}{dt}=y^{\frac{2}{3}}; \,\,\,\,\,\,\,\,\,\,\, y(0)=0$$ y verifica que este problema tiene más de una solución.
  • ¿El problema anterior contradice el Teorema de existencia y unicidad de Picard?
  • Prueba el siguiente corolario al Lema de Grönwall: si se cumplen las hipótesis del Lema de Grönwall con $C_{1}=0$, entonces $g(t)=0$ en $[t_{0}-a,t_{0}+a]$.
  • Calcula las iteraciones de Picard hasta $n=2$ para el problema de condición inicial $$\frac{dy}{dt}=e^{t}+y^{2}; \,\,\,\,\,\, y(0)=0.$$ ¿Puedes encontrar una formula cerrada para caracterizar a los elementos de la sucesión? Intenta calcular más iteraciones. Con este ejemplo puedes ver que en ocasiones puede ser muy complicado calcular iteraciones para $n$ grande, y por tanto, no es sencillo encontrar la convergencia de la sucesión.
  • Muestra que si la sucesión $\{y_{n}(t)\}_{n \in \mathbb{N}}$ converge uniformemente a una función $y(t)$ en $[a,b]$, entonces $y$ es continua en $[a,b]$.

Más adelante

Antes de finalizar el análisis a las ecuaciones de primer orden regresemos un poco al estudio de ecuaciones autónomas. Vamos a considerar ahora una familia de ecuaciones autónomas $f_{\lambda}(y)$ que dependen de un parámetro $\lambda$, y vamos a analizar lo que sucede con las soluciones de equilibrio y con las soluciones en general cuando cambia el valor del parámetro. A este tipo de problemas se les llama bifurcaciones. Con esto terminamos la primera unidad de nuestro curso de Ecuaciones diferenciales ordinarias.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal II: Formas sesquilineales

Por Diego Ligani Rodríguez Trejo

Introducción

Como mencionamos anteriormente, las formas bilineales que hemos estudiado son restringidas en el sentido de que sólo pueden ser definidas en espacios vectoriales sobre los reales. En este curso estudiaremos una noción muy relacionada, que en algunos sentidos extiende lo que hemos visto a espacios vectoriales sobre los complejos.

Probablemente en estas entradas tengas una sensación de ya haber visto todo. Como un déjà vu. Es bastante normal. Los resultados son casi análogos a los del caso real. Sin embargo, hay algunas diferencias importantes en las que haremos énfasis.

Formas sesquilineales

La palabra «bilineal» tiene que ver con que ambas entradas de una forma bilineal son lineales. ¿A qué se refiere «sesquilineal»? La raíz latina sesqui que significa uno y medio, y precisamente veremos esto reflejado en la definición.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Una forma sesquilineal en $V$ es una función $\varphi: V \times V \rightarrow \mathbb{C} $ tal que:

  • Para cualesquiera $x_1,x_2,y \in V$ y para cualquier $\lambda \in \mathbb{C}$, se tiene que $$\varphi (\lambda x_1+x_2, y) = \overline{\lambda} \varphi (x_1,y)+ \varphi(x_2 , y).$$
  • Para cualesquiera $y_1,y_2,x \in V$ y para cualquier $\lambda \in \mathbb{C}$, se tiene que $$\varphi (x,\lambda y_1+y_2) = \lambda\varphi (x,y_1)+ \varphi(x, y_2).$$

De esta manera, la «media» linealidad se refiere a que en la primera entrada de $\varphi$ las sumas sí se abren, pero los escalares «salen conjugados». Debido a esto, no es tan común que una forma sesquilineal sea simétrica. Sin embargo, tenemos una noción similar que resultará fundamental.

Definición. Una forma sesquilineal $\varphi$ se llamará hermitiana si $\overline{ \varphi(y,x) }= \varphi(x,y)$ para cualesquiera $x, y \in V$.

Como comentario, en algunos contextos las formas sesquilineales son lineales en la primer coordenada y semi-lineales en la segunda. Asegúrate de verificar la definición cada que cambies de contexto. A las formas sesquilineales hermitianas también se les conoce como conjugadas simétricas.

Propiedades de formas sesquilineales

Las formas sesquilineales son parecidas a las formas bilineales en el sentido de que basta saber cómo son en parejas de elementos de una base para conocerlas por completo. De hecho, como en el caso de formas bilineales tenemos un resultado un poco más general. Sin embargo, ten cuidado. Observa que todo el tiempo debemos cuidar que los escalares de la primera entrada salen conjugados.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Sean $m,n$ enteros positivos, $a_1, \cdots a_n, b_1, \cdots b_m$ vectores en $V$, $\lambda_1, \cdots \lambda_n, \mu_1, \cdots \mu_m$ números complejos y $\varphi$ una forma sesquilineal. Se cumple que:
\begin{align*}
\varphi\left(\sum_{i=1}^n \lambda_ia_i , \sum_{j=1}^m\mu_jb_j\right)=\sum_{i=1}^n\sum_{j=1}^m\overline{\lambda_i}\mu_j\varphi(a_i,b_j)
\end{align*}

La demostración queda como ejercicio. Usando esta proposición se puede demostrar un resultado en términos de bases.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$ de dimensión $n$ y $e_1,\ldots,e_n$ una base de $V$. Sean $a_{ij}$ números complejos para $i,j=1,\ldots,n$. Existe una y sólo una forma sesquilineal $\varphi:V\times V\to \mathbb{C}$ tal que $\varphi(e_i,e_j)=a_{ij}$.

Los espacios de formas sesquilineales y hermitianas

Dado un espacio vectorial complejo $V$, podemos definir los siguientes dos conjuntos, de todas las formas sesquilineales y todas las formas hermitianas, respectivamente:

\begin{align*} S(V) &:= \{ \varphi: V \times V \rightarrow \mathbb{C} \; | \; \varphi \text{ es sesquilineal} \}\\
H(V) &:= \{ \varphi \in S(V) \; | \; \varphi \text{ es hermitiana}\}
\end{align*}
Los conjuntos son no vacíos, pues la función constante $0$ es forma sesquilineal y hermitiana.

De manera análoga a lo que sucedía con las formas bilineales, el conjunto $S(V)$ es un subespacio vectorial del espacio complejo de todas las funciones de $V \times V $ en $\mathbb{C}$. Esto puedes verificarlo por tu cuenta. Sin embargo, $H(V)$ no es un subespacio vectorial de dicho subespacio. De hecho, ni siquiera es un espacio vectorial sobre $\mathbb{C}$. En los problemas puedes encontrar un contraejemplo de que sea cerrado bajo multiplicación escalar.

Sin embargo, no todo está perdido. Podemos pensar a $S(V)$ como un espacio vectorial sobre los reales. Simplemente limitamos los productos escalares a números reales. En este contexto, resulta que $H(V)$ sí es un subespacio de $S(V)$ (y por lo tanto un espacio vectorial sobre $\mathbb{R}$). Veamos esto.

Proposición. El conjunto $H(V)$ es un subespacio vectorial de $S(V)$, pensando a este último como espacio vectorial sobre $\mathbb{R}$.

Demostración. Sabemos que $H(V) \subseteq S(V)$ y que ambos son distintos del vacío, así que basta probar que $H(V)$ es cerrado bajo la suma y multiplicación por escalares reales.

Sean $\varphi_1, \varphi_2 \in H(V)$, $x,y \in V$ y $\lambda \in \mathbb{R}$. Sabemos por cómo está definida la suma que

\begin{align*} (\varphi_1 + \varphi_2) (x,y)= \varphi_1(x,y) + \varphi_2 (x,y) \end{align*}

Además, como $\varphi_1, \varphi_2 \in H(V)$, tenemos que

\begin{align*} \varphi_1(x,y) &= \overline{\varphi_1(y,x)}\\\varphi_2(x,y) &= \overline{\varphi_2(y,x)} \end{align*}

por lo que

\begin{align*} (\varphi_1 + \varphi_2) (x,y) &= \overline{\varphi_1(y,x)} + \overline{\varphi_2(y,x)}\\&= \overline{ (\varphi_1+\varphi_2) (y,x) }
\end{align*}

De aquí se concluye que $\varphi_1 + \varphi_2 \in H(V)$.

Para la multiplicación tenemos la siguiente cadena de igualdades, en donde estamos usando $\overline(\lambda)=\lambda$ (¿por qué?):

\begin{align*}
(\lambda \varphi_1) (x,y) &= \lambda (\varphi_1(x,y))\\
&=\lambda (\overline{ \varphi_1(y,x)})\\
&= \overline{\lambda\varphi_1(y,x)}
\end{align*}

Se concluye que $\lambda \varphi_1 \in H(V)$.

Con las dos propiedades mostradas basta para afirmar que $H(V)$ es un subespacio vectorial de $S(V)$ como espacio vectorial sobre $\mathbb{R}$.

$\square$

El espacio $H(V)$ no es únicamente un subespacio de $S(V)$. De hecho es un subespacio importante, pues nos permite escribir a $S(V)$ fácilmente como suma directa de dos subespacios.

Proposición. Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Tomemos a $S(V)$ como espacio vectorial sobre $\mathbb{R}$. Tenemos la siguiente descomposición: $$S(V)=H(V)\oplus iH(V).$$

Un recordatorio de la suma directa lo puedes encontrar aquí.

Demostración. Empecemos probando que $S(V)$ efectivamente se puede descomponer como la suma de $H(V)$ e $iH(V)$.
Para esto, basta demostrar que cualquier forma sesquilineal se puede expresar como suma de una forma hermitiana e $i$ veces otra forma hermitiana. Para ello, dada $\varphi \in S(V)$ definimos $h_1, h_2$ como sigue:

\begin{align*} h_1(x,y)&=\frac{\varphi(x,y)+ \overline{\varphi(y,x)}}{2}\\h_2(x,y)&=\frac{\varphi(x,y)- \overline{\varphi(y,x)}}{2i}\end{align*}

Claramente $\varphi=h_1+ih_2$, así que basta mostrar que $h_1$ y $h_2$ son hermitianas. Lo haremos para $h_2$ y $h_1$ quedará como ejercicio.

Tomemos cualesquiera $x,y$ en $V$. Calculemos $\overline{h_2(y,x)}$:

\begin{align*}
\overline{h_2(y,x)}=\overline{\left(\frac{\varphi(y,x)- \overline{\varphi(x,y)}}{2i}\right)} \end{align*}

Nota que se cumple la siguiente identidad:
\begin{align*} \frac{\varphi(y,x)- \overline{\varphi(x,y)}}{2i}=\frac{-\varphi(y,x)i+ \overline{\varphi(x,y)}i}{2} \end{align*}

Así,

\begin{align*} \overline{h_2(y,x)}=\overline{\left(\frac{-\varphi(y,x)i + \overline{\varphi(x,y)}i}{2}\right)}\end{align*}

Además, para cualquier $c \in \mathbb{C}$ tenemos que $\overline{ci}=-\overline{c}i$, por lo que

\begin{align*} \overline{h_2(y,x)}= \frac{\overline{\varphi (y,x)}i -\varphi (x,y)i}{2}\end{align*}

Finalmente multiplicando por $\frac{i}{i}:$

\begin{align*} \overline{h_2(y,x)}&= \frac{-\overline{\varphi (y,x)} + \varphi (x,y)}{2i}\\&=\frac{ \varphi (x,y)- \overline{ \varphi (y,x)}}{2i}\\&=h_2(x,y) \end{align*}

Concluimos que $h_2 \in H(V)$. Hasta ahora, hemos mostrado que $$S(V)=H(V)+iH(V).$$ Demostrar que $H(V)$ y $iH(V)$ están en posición de suma directa es más sencillo.

Sea $h \in H(V) \cap iH(V)$. En particular $h \in iH(V)$ por lo que existe $h_1 \in H(V)$ tal que $h=ih_1$ así, para cualesquiera $x,y \in \mathbb{C}$

\begin{align*} h(x,y)&=\overline{h(y,x)}\\&=\overline{ih_1(y,x)}\\&=-i\overline{h_1(y,x)}\\&=-ih_1(x,y)\\&=-h(x,y).\end{align*}

De esta cadena concluimos que $h(x,y)=-h(x,y)$ y sabemos que el único complejo que cumple esto es el $0$. Por lo tanto $h(x,y)=0$, así que $h=0$ y entonces $H(V) \cap iH(V)= \{ 0 \}$. Esto es suficiente para saber qué $H(V)$ y $iH(V)$ están en posición de suma directa. Concluimos que
\begin{align*} S(V)= H(V) \oplus iH(V).\end{align*}

$\square$

Más adelante…

En esta entrada definimos a las formas sesquilineales como un análogo en $\mathbb{C}$ a las formas bilineales. Como es de esperarse, también definiremos un análogo a las formas cuadráticas. Las «nuevas» formas cuadráticas que definiremos también tendrán su teorema de Gauss.

Un poco después de eso podremos hablar de las formas matriciales para formas bilineales y para formas sesquilineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Muestra que $H(V)$ en general no es un espacio vectorial sobre $\mathbb{C}$. Para ello, muestra que si $V$ es $\mathbb{C}^2$ y $\varphi((x_1,x_2),(y_1,y_2))=\overline{x_1}x_1+\overline{x_2}y_2$, entonces $\varphi$ es hermitiana, pero $i\varphi$ no lo es.
  2. Demuestra la proposición sobre aplicar una forma sesquilineal en combinaciones lineales.
  3. Demuestra la proposición sobre formas sesquilineales y bases. En ese contexto, ¿cómo deben ser los $a_{ij}$ para que la forma sea hermitiana?
  4. Sea $\varphi$ una forma hermitiana en un espacio vectorial complejo $V$. Demuestra que:
    • Para todo $x\in V$ la expresión $\varphi(x,x)$ es un número real.
    • Para todo $x\in V$ y $a\in \mathbb{C}$ se tiene que $\varphi(ax,ax) = |a|^2\varphi(x,x)$.
  5. En el contexto de la proposición de descomposición de $S(V)$ como suma directa de $H(V)$ y $iH(V)$, demuestra que $h_1$ es hermitiana.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Geometría Analítica I: Parábolas

Por Héctor Morales

Introducción

La última de las secciones cónicas que abordaremos en esta unidad es la parábola. De las tres cónicas que hemos revisado, probablemente es la que conoces mejor de forma intuitiva: ya sea que hayas escuchado sobre «las antenas parabólicas», «los espejos parabólicos» o «el tiro parabólico», estamos tan familiarizados con las propiedades de las parábolas que en esta unidad, más allá de introducir la figura como algo nuevo, nos encargaremos de formalizar sus propiedades .

¿Qué hace que la imagen mental que tenemos de las parábolas corresponda tan bien a la figura que podemos obtener a partir de una definición formal? Podrás recordar de tus clases de mecánica de la preparatoria que la Tierra ejerce una fuerza sobre cada uno de los objetos sobre su superficie que les da una aceleración constante, usualmente denotada por la letra $g$. Entonces, la trayectoria de un objeto, asumiendo condiciones ideales, que se mueve con velocidad constante en el eje horizontal y con movimiento acelerado en el eje vertical está descrita por:

\begin{equation}
\begin{aligned}
&x(t)=v_{0} t \cos (\theta) \
&y(t)=v_{0} t \sin (\theta)-\frac{1}{2} g t^{2}
\end{aligned}
\end{equation}

No es necesario que en este momento entiendas totalmente de dónde vienen estas dos ecuaciones; por el momento quédate con la idea de que es un buen modelo matemático de un proyectil en la Tierra que se mueve sobre un plano; es decir, estas dos ecuaciones describen bastante bien el movimiento de una bala de cañón al ser disparada, una pelota de fútbol después de ser pateada, etc. Resulta que estas dos ecuaciones son la parametrización de una parábola, de modo que una parábola es una descripción bastante buena de la trayectoria de un objeto cuando «lo lanzamos». Entonces, aunque estemos por abordar por primera vez el estudio formal de la parábola, verás que tanto sus elementos, como sus propiedades te resultarán bastante familiares.

240
La trayectoria de un objeto que tiene un movimiento rectilineo y uniforme en $x$ y un movimiento acelerado en $y$ describe una parábola.

Sin más preámbulo, pasaremos a la definición de una parábola: además de la definición como conjunto de puntos, obtendremos una ecuación canónica al igual que como lo hicimos para la elipse y la hipérbola y nos familiarizaremos con sus elementos más importantes. Dejaremos la descripción detallada de todos sus elementos y la exposición de sus propiedades para la siguiente entrada.

Definición de Parábola

Una parábola es el lugar geométrico de los puntos que equidistan de un punto $\mathbf{p}$ (llamado su foco) y una recta $\ell$, llamada su directriz, donde $\mathbf{p} \notin \ell$. Es decir, está definida por la ecuación

\begin{equation}
\mathrm{d}(\boldsymbol{x}, \boldsymbol{p})=\mathrm{d}(\boldsymbol{x}, \ell).
\end{equation}

En el siguiente recuadro interactivo de GeoGebra juega un poco con esta definición. Observa cómo una parábola, a primera vista, podría parecerte una elipse «cortada», pero date cuenta que es una curva que se dibuja a partir de una condición muy específica que se impone a una distancia entre la recta directriz y el foco ¿Puedes encontrar los casos degenerados de la parábola?¿Qué pasa si haces $p=0$?

Tomando un ejemplo sencillo con el foco en el eje $\mathbf{y}$, la directriz paralela al eje $\mathbf{x}$, y que además pase por el origen. Tenemos entonces $\mathbf{p}=(0, \mathrm{c})$, donde $\mathrm{c}>0$ digamos, y $\ell: \mathrm{y}=-\mathrm{c}$; de tal manera que la parábola queda determinada por la ecuación

\begin{equation}
\sqrt{x^{2}+(y-c)^{2}}=|y+c|.
\end{equation}

Como te puedes dar cuenta, lo único que hicimos fue aplicar la definición de norma en $\mathbb{R}^{2}$ tal como la estudiamos en la primera unidad. Como ambos lados de la ecuación son positivos, ésta es equivalente a la igualdad de sus cuadrados que da

\begin{equation}
\begin{aligned}
x^{2}+y^{2}-2 c y+c^{2} &=y^{2}+2 c y+c^{2} \
x^{2} &=4 c y.
\end{aligned}
\end{equation}

De tal manera que la gráfica de la función $x^{2}$ ($y=x^{2}$) es una parábola con foco $(0,\frac{1}{4})$ y directriz $y=-\frac{1}{4}$. Veremos ahora que cualquier parábola cumple la propiedad de «ser gráfica de una función» respecto de su directriz.

Sea $\mathcal{P}$ la parábola con foco p y directriz $\ell$ (donde $\mathbf{p} \notin \ell)$. Dado un punto $\mathbf{y}_{0} \in \ell$, es claro que los puntos del plano cuya distancia a $\ell$ coincide con (o se mide por) su distancia a $\mathbf{y}_{0}$ son precisamente los de la normal a $\ell$ que pasa por $\mathbf{y}_{0}$, llamémosla $v_{0} .$ Ver la figura.

Cualquier parábola cumple la propiedad de ser gráfica de una función respecto a su directriz.

Por otro lado, la mediatriz entre $\mathbf{y}_{0}$ y $\mathbf{p}$, llamémosla $\eta_{0}$, consta de los puntos cuyas distancias a $\mathbf{p}$ y $\mathbf{y}_{0}$ coinciden. Por lo tanto, la intersección de $\eta_{0}$ y $v_{0}$ está en la parábola $\mathcal{P}$, es decir $\boldsymbol{x}_{0}=v_{0} \cap \eta_{0} \in \mathcal{P}$ pues $\mathrm{d}\left(\boldsymbol{x}_{0}, \ell\right)=\mathrm{d}\left(\boldsymbol{x}_{0}, \mathbf{y}_{0}\right)=\mathrm{d}\left(\boldsymbol{x}_{0}, \boldsymbol{p}\right)$. Pero además $\mathbf{x}_{0}$ es el único punto en la normal $v_{0}$ que está en $\mathcal{P}$. Ésta es «la propiedad de la gráfica» a la que nos referíamos.

Podemos concluir aún más: que la mediatriz $\eta_{0}$ es la tangente a $\mathcal{P}$ en $\mathbf{x}_{0}$. Pues para cualquier otro punto $x \in \eta_{0}$ se tiene que su distancia a $\ell$ es menor que su distancia a $\mathbf{y}_{0}$ que es su distancia a $\mathbf{p}\left(\mathrm{d}(\mathbf{x}, \ell)<\mathrm{d}\left(\mathbf{x}, \mathbf{y}_{0}\right)=\mathrm{d}(\mathbf{x}, \mathbf{p})\right)$, y entonces $x \notin \mathcal{P}$. De hecho, la parábola $\mathcal{P}$ parte el plano en dos pedazos, los puntos más cerca de $\mathbf{p}$ que de $\ell$ (lo de adentro, digamos, definidos por la desigualdad $d(\mathbf{x}, \mathbf{p}) \leq d(\mathbf{x}, \ell)$) y los que están más cerca de $\ell$ que de $\mathbb{p}$ (lo de afuera, dado por $d(\mathbf{x}, \ell) \leq d(\mathbf{x}, \mathbf{p})$ en donde está $\eta_{0}$), que comparten la frontera donde estas distancias coinciden (la parábola $\mathcal{P}$). Así que $\eta_{0}$ pasa tangente a $\mathcal{P}$ en $\mathbf{x}_{0}$, pues $\mathbf{x}_{0} \in \eta_{0} \cap \mathcal{P}$ y además $\eta_{0}$ se queda de un lado de $\mathcal{P}$.

En el siguiente recuadro interactivo de GeoGebra familiarizate con la expresión analítica de la parábola y nota una cosa muy importante: ¿qué pasa cuando, contrario al caso «sencillo» que vimos en esta entrada, el vértice de la parábola está fuera del origen? Nota cómo una traslación de nuestro caso sencillo introduce un término lineal en la ecuación de la parábola y date cuenta qué papel juega cada uno de los coeficientes modificando la forma de la parábola.

Más adelante…

En esta entrada iniciamos nuestro estudio de las parábolas: a partir de su definición como el conjunto de puntos que equidistan de una recta y un punto construimos la curva y nos familiarizamos con su expresión analítica. Así como lo hicimos para las cónicas anteriores, le dedicaremos la siguiente sección a estudiar sus propiedades y a nombrar cada uno de sus elementos; posteriormente, haremos algunos ejercicios para tener práctica leyendo la información geométrica que contiene la ecuación de la parábola.

Tarea moral

  • Construye la curva y da el dominio y codominio de las siguientes curvas: $y^{2}=16x$, $x^{2}=-16y$, $x^{2}=10y$, $y^{2}=7x$, $3x^{2}+5y=0$, $5x^{2}-2y=0$, $y^{2}+6x=0$, $x^{2}=11y$.
  • A partir de la definición de parábola, encuentre la ecuación de la parábola de foco $(0,-5)$ y directriz $y=3$.
  • Cuáles son los puntos de intersección de la línea que tiene la ecuación $2x+3y=7$ y la parábola con ecuación $y=-2x^{2}+2x+5$

Entradas relacionadas

  • Ir a Geometría Analítica I
  • Entrada anterior del curso: Problemas con hipérbolas
  • Siguiente entrada del curso: Propiedades de parábolas