Álgebra lineal II: El grupo ortogonal

Introducción

En la entrada anterior defimos las transformaciones ortogonales y probamos algunas propiedas de éstas, relacionadas con el producto interior, la norma y la transformación adjunta de una trasnformación ortogonal cualquiera. En esta ocasión no encargaremos, de manera más general, de estudiar al conjunto de todas las transformaciones lineales ortogonales definidas sobre un espacio euclidiano $V$, de clasificarlas y de estudiar el caso de dimensión $2$.

Teorema. El conjunto de las transformaciones ortogonalles sobre un espacio euclidiano $V$ forma un grupo bajo composición. En otras palabras, la composición de dos transformaciones ortogonales es una transformación ortogonal y la inversa de una transformación ortogonal es una transformación ortogonal.

Demostración. Sean $T_1,T_2$ transformaciones lineales ortogonales, entonces $T_1\circ T_2$ es lineal y además
$$||T_1\circ T_2(x)||=||T_1(T_2(x))||=||T_2(x)||=||x||$$
para todo $x\in V$ y por lo tanto $T_1\circ T_2$ es una transformación lineal ortogonal.

Análogamente tenemos que si $T$ es ortogonal, entonces
$$||x||=||T(T^{-1}(x))||=||T^{-1}(x)||$$
para todo $x\in V$.

$\square$

Definición. El grupo $O(V)$ es el grupo de transformaciones ortogonales (o isometrías) de $V$ y se conoce como el grupo ortogonal de $V$. Es el grupo de automorfimos de un espacio euclidiano $V$ y juega un papel muy importante al momento de entender al espacio $V$.

Problema. Sean $V$ un espacio euclidiano, $T\in O(V)$ y $W$ un subespacio de $V$ estable bajo $T$.

  1. Demuestra que $T(W)=W$ y $T(W^\bot)=W^\bot$.
  2. Demuestra que $T|_W\in O(W)$ y $T|_{W^\bot}\in W^\bot$.

Demostración. 1. Como $T(W)\subseteq W$ y $T|_W$ es inyectiva (pues $T$ es inyectiva en $V$), se sigue que $T|_W:W\to W$ es suprayectiva y por lo tanto $T(W)=W$. Ahora tomamos $x\in W^\bot$ y $y\in W$. Queremos demostrar que $\langle T(x),y \rangle=0$. Como $T$ es ortogonal, entonces $T^*=T^{-1}$ y por lo tanto
$$\langle T(x),y \rangle=\langle x,T^{-1}(y) \rangle.$$

Como $T$ es estable bajo $T^{-1}$, entonces $T^{-1}(y)\in W$, y como $x\in W^\bot$, entonces $\langle x,T^{-1}(y) \rangle=0$. Por lo tanto $\langle T(x),y \rangle=0$, que es lo que queríamos demostrar.

2. Sea $T_1:=T|_W$, entonces para todo $x\in W$ se tiene que
$$||T_1(x)||=||T(x)||=||x||,$$
lo que significa que $T_1\in O(W)$. De manera análoga se tiene que $T_{W^\bot}\in O(W^\bot)$.

$\square$

Clasificación

En esta sección nos encargaremos de clasificar las transformaciones ortogonales de un espacio euclidiano en términos de transformaciones simples. La demostración requiere dos lemas que daremos a continuación:

Lema. Sea $V$ un espacio euclidiano y $T$ una transformación lineal sobre $V$. Entonces existe una recta o un plano en $V$ estable bajo $T$.

Demostración. El polinomio mínimo de $T$ es un polinomio $P$ con coeficientes reales. Si tiene una raíz real, se sigue que $T$ tiene un eigenvalor y por consiguiente, la recta generada por un eigenvector es estable bajo $T$. Ahora supongamos que $P$ no tiene raíces reales. Sea $z$ una raíz compeja de $P$, como $P$ teien coeficientes reales, entonces $\overline{z}$ también es raíz de $P$ y por lo tanto $Q=(x-z)(x-\overline{z})$ divide a $P$. Más aún, $Q(T)$ no es invertible, pues si lo fuera, entonces $\frac{P}{Q}$ sería un polinomio de grado menor que anula a $T$. Por lo tanto existe $x\in V$ no nulo tal que $Q(T)(x)=0$. Esto se puede escribir como $T^2(x)+aT(x)+bx=0$ para algunos reales $a,b$. se sigue que el subespacio generado por $x$ y $T(x)$ es un plano estable bajo $T$, lo cual termina con la demostración.

$\square$

Lema. Sea $V$ un espacio euclidiano de dimensión $2$ y $T\in O(V)$ sin valores propios reales. Entonces existe una base ortonormal de $V$ tal que la matriz asociada a $T$ en dicha base es de la forma
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Demostración. Sea $B=\{e_1,e_2\}$ una base ortonormal de $V$ y escribimos $T(e_1)=ae_1+be_2$ para algunos números reales $a,b$. Como
$$a^2+b^2=||T(e_1)||^2+||e_1||^2=1,$$ entonces podemos encontrar un número real $\theta$ tal que $(a,b)=(\cos\theta,\sin\theta)$. El complemento ortogonal de $T(e_1)$ está dado por la recta $\mathbb{R}(-\sin\theta e_1 + \cos\theta e_2)$. Como $\langle T(e_1),T(e_2) \rangle=\langle e_1,e_2 \rangle=0$, de donde $T(e_2)\in\mathbb{R}(-\sin\theta e_1 + \cos\theta e_2)$ y por lo tanto
$$T(e_2)=c(-\sin\theta e_1 + \cos \theta e_2)$$ para algún número real $c$. Como $$||T(e_2)||=||e_2||=1, $$ se sigue que $|c|=1$ y por lo tanto la matriz asociada a $T$ con respecto a la base $B$ es
$$A=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta\end{pmatrix}.$$

Con lo visto hasta ahora, ya estamos listos para demostrar el teorema fundamental de clasificación de transformaciones lineales ortogonales de un espacio euclidiano.

Teorema. Sea $V$ un espacio euclidiano y $T\in O(V)$. Entonces podemos encontrar una base ortonormal $B$ de $V$ tal que la matriz asociada a $T$ con respecto a la base $B$ es de la forma
\begin{equation}\label{forma}
A=\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix},\end{equation}
donde $\theta_1,\dots, \theta_k$ son números reales y
$$R_\theta=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta
\end{pmatrix}.$$

Demostración. Procederemos por inducción sobre $\dim V$.
Si $\dim V=1$, entonces ya terminamos, pues se tendría que $T=\pm id$. Supongamos que $\dim V\geq 2$ y que el resultado se satisface para $n-1$.
Supongamos que $T$ tiene un eigenvalor real $t$ con eigenvector $e_1$. Entonces $$|t|||e_1||=||te_1||=||T(e_1)||=||e_1||,$$
por lo cual $t\in\{-1,1\}$. Sea $W=\mathbb{R}e_1$, entonces $W$ es estable bajo $T$, por la tanto $W^\bot$ es estable bajo $T$ (pues $T$ es ortogonal). Más aún, la restricción de $T$ a $W^\bot$ es una transformación ortogonal ya que $||T(x)||=||x||$ para toda $x\in V$, por lo tanto también para cualquier $x\in W^\bot$. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_2,\dots , e_n\}$ tal que la matriz asociada a dicha base y restringida a $W^\bot$ es de la forma \eqref{forma}. Añadiendo el vector $\frac{e_1}{||e_1||}$ y posiblemente permutando la base ortonormal resultante $\{\frac{e_1}{||e_1||},e_2,\dots ,e_n\}$ de $V$ obtenemos una base ortonormal tal que la matriz asociada a $T$ con respecto a esta base es de la forma \eqref{forma}.

Ahora supongamos que $T$ no tiene valores propios reales. El primer lema nos dice que podemos encontrar un subespacio de dimensión $2$ estable bajo $T$. Como $T$ es ortogonal, el espacio $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones otogonales sobre estos espacios. Por hipótesis inductiva, $W^\bot$ tiene una base ortonormal $\{e_3,\dots,e_n\}$ tal que la matriz asociada a $T|_{W^\bot}$ con respecto a esta base es una matriz diagonal de bloques de la forma $R_{\theta_i}$. Por el segundo lema, el subespacio $W$ tiene una base ortonormla $\{e_1,e_2\}$ tal que la matriz asociada a $T|_W$ con respecto a esta base es de la forma $R_\theta$. Entonces la matriz asociada a $T$ con respecto a la base $\{e_1,\dots, e_n\}$ es de la forma \eqref{forma}, con lo cual conlcuimos con la prueba deseada.

$\square$

También podemos enunciar el teorema anterior en términos de matrices:

Corolario. Sea $A\in M_n(\mathbb{R})$ una matriz ortogonal. Entonces existen enteros $p,q,k$ que satisfacen $p+q+2k=n$, una matriz ortogonal $P\in M_n(\mathbb{R})$ y números reales $\theta_1,\dots , \theta_n$ tales que
$$A=P^{-1}\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}P.$$

Observación. El determinante de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es $(-1)^q\in\{1,-1\}$, como $\det R_{\theta_i}=1$ para $1\leq i\leq k$. Se sigue que $$\det T\in\{-1,1\}$$ para cualquier $T\in O(V)$.

Definición. Diremos que una isometría $T$ es una isometría positiva si $\det T=1$. Por otro lado, diremos que $T$ es una isometría negativa si $\det T=-1$ En términos geométricos, las isometrías positivas preservan la orientación del espacio, mientras que las isometrías negativas la invierten.

Definición. Sea $B=\{e_1,\dots,e_n\}$ una base ortonormal de un espacio euclidiano $V$. Si $B’=\{f_1,\dots,f_n\}$ es otra base ortonormal de $V$, entonces la matriz de cambio de base de $B$ a $B’$ es ortogonal y por lo tanto $\det P\in\{-1,1\}$. Diremos que $B’$ está orientada positivamente con respecto a $B$ si $\det P=1$ y conversamente diremos que $B’$ está orientada negativamente con respecto a $B$ si $\det P=-1$.

Si $V=\mathbb{R}^n$ está equipado con el producto interior usual, entonces siempre tomamos como $B$ a la base canónica y sólo decimos que una base ortonormal es positiva o negativa.

Observación. El polinomio característo de la matriz
$$\begin{pmatrix}
I_p & 0 & 0 & \dots & 0\\
0 & -I_q & 0 & \dots & 0\\
0 & 0 & R_{\theta_1} & \dots & 0\\
\vdots & \vdots & \vdots &\ddots & \vdots\\
0 & 0 & 0 &\dots & R_{\theta_k}
\end{pmatrix}$$
es
$$(x-1)^p(x+1)^q\cdot\displaystyle\prod_{i=1}^k (x^2-2\cos\theta_i x+1).$$
Las raíces complejas del polinomio $x^2-2\cos\theta_i x+1$ son $e^{i\theta}$ y $e^{-i\theta}$, y tienen modulo $1$. Por lo tanto, todos los eigenvalores complejos de una matriz ortogonal tienen módulo $1$.

Estudiando el grupo ortogonal en dimensiones pequeñas

Empezamos analizando el caso de dimensión $2$. Sea $A\in M_2(\mathbb{R})$ una matriz dada por
$$A=\begin{pmatrix}
a & b\\
c & d\end{pmatrix}$$ que satisface $A^tA=I_2$. Sabemos que $\det A\in\{-1,1\}$, así que consideramos ambos casos.

Si $\det A=1$, entonces la inversa de $A$ simplemente es
$$A^{-1}=\begin{pmatrix}
d & -b\\
-c & a\end{pmatrix}$$
y como $A$ es ortogonal, entonces $A^-1=^tA$, por lo que $a=d$ y $b=-c$, lo que nos dice que $A$ es de la forma
$$A=\begin{pmatrix}
a & -c\\
c & a\end{pmatrix}.$$
Más aún, tenemos que $a^2+c^2=1$, por lo que existe un único $\theta\in(-\pi,\pi]$ tal que $A=\cos\theta$ y $c=\sin\theta$. Por lo tanto
$$A=R_{\theta}=\begin{pmatrix}
\cos\theta & -\sin\theta\\
\sin\theta & \cos\theta \end{pmatrix}.$$
La transformación lineal correspondiente es
\begin{align*}
T:\mathbb{R}^2&\to\mathbb{R}^2\\
(x,y)&\mapsto (\cos\theta x – \sin\theta y, \sin\theta x+ \cos\theta y)
\end{align*}
y geométricamente corresponde a una rotación de ángulo $\theta$. Además
\begin{equation}\label{rot}
R_{\theta_1}\cdot R_{\theta_2}=R_{\theta_1+\theta_2}=R_{\theta_2}\cdot R_{\theta_1}.
\end{equation}
Una consecuencia importante es que la matriz asociada a $T$ con respecto a cualquier base ortonormal positiva de $\mathbb{R}^2$ aún es $R_\theta$, pues la matriz de cambio de base de la base canónica a la nueva base ortonormal positiva sigue siendo una rotación. Análogamente, si en el argumento anterior tomamos una base ortonormal negativa, entonces la matriz asociada a $T$ es $R_{-\theta}$. La relación \eqref{rot} también muestra que para calcular el ángulo de la composición de dos rotaciones basta con tomar la suma de los ángulos y restar un múltiplo adecuado de $2\pi$ tal que el ángulo obtenido quede en el intervalo $(-\pi,\pi]$.

Si $\det A=-1$. Entonces
$$A^{-1}=\begin{pmatrix}
-d & b\\
c & -a\end{pmatrix}$$ y como $A$ es ortogonal, entonces $d=-a$ y $b=c$. También tenemos que $a^2+b^2=1$, por lo que existe un único número real $\theta\in(-\pi,\pi]$ tal que $a=\cos\theta$ y $b=\sin\theta$. Entonces
$$A=S_\theta:=\begin{pmatrix}
\cos\theta & \sin\theta\\
\sin\theta & -\cos\theta \end{pmatrix}.$$
Notemos que $S_\theta$ es simétrica y ortogonal, por lo tanto $S_\theta^2=I_2$ y que la transformación correspondiente es
\begin{align*}
T:\mathbb{R}^2&\to\mathbb{R}^2\\
(x,y)&\mapsto (cos\theta x+\sin\theta y, \sin \theta x-\cos\theta y)
\end{align*}
es una simetría ortogonal. Para encontrar la recta con respecto a la cual $T$ es una simetría ortogonal, bastará con resolver el sistema $AX=X$. El sistema es equivalente a
$$\sin\left(\frac{\theta}{2}\right)\cdot x=\cos \left(\frac{\theta}{2}\right)\cdot y$$ y por lo tanto la recta $AX=X$ está generada por el vector
$$e_1=\left( \cos\left(\frac{\theta}{2}\right), \sin\left(\frac{\theta}{2}\right) \right)$$ y la correspondiente recta ortogonal está generada por el vector
$$e_2=\left(-\sin\left(\frac{\theta}{2}\right),\cos\left(\frac{\theta}{2}\right)\right),$$
y los vectores $e_1,e_2$ forman una base ortonormal de $\mathbb{R}^2$ para la cual la matriz asociada a $T$ es
$$\begin{pmatrix}
1 & 0\\
0 & -1\end{pmatrix}$$
y además $$S_{\theta_1}\cdot S_{\theta_2}=R_{\theta_1-\theta_2}$$
lo que significa que la composición de dos simetrías ortogonales es una rotación. Similarmente tenemos que
$$S_{\theta_1}R_{\theta_2}\hspace{3mm} R_{\theta_1}S_{\theta_2}=S_{\theta_1+\theta_2},$$
por lo que la composición de una rotación y una simetría ortogonal es una simetría ortogonal.

Tarea moral

  • Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal. Demuestra que $T$ es ortogonal si y sólo si $||T(x)||=||x||$ siempre que $||x||=1$.
  • Encuentra la matriz de rotación de ángulo $\frac{\pi}{3}$ alrededor de la recta generada por el vector $(1,1,1)$.
  • Describe todas las matrices en $M_3(\mathbb{R})$ que son simultaneamente ortogonales y diagonales.

Probabilidad I-Videos: Independencia de eventos

Introducción

La noción de independencia de los eventos juega un papel importante en la teoría de la probabilidad y sus aplicaciones.  Generalmente, saber que algún evento B ha ocurrido cambia la probabilidad de que otro evento A ocurra. Si la probabilidad permanece sin cambios entonces llamamos a A y B independientes.

Independencia de eventos

Tarea moral

  • Sean $A$ y $B$ eventos independientes, muestra que
    • $A^c,\ B$
    • $A,\ B^c$
    • $A^c,\ B^c$

Son independientes.

  • Demuestra que los eventos $A$ y $B$ son independientes si y sólo si $P\left(A\middle|\ B\right)=P\left(A\middle|\ B^c\right)$.
  • Sea $\Omega=${$1,2,\ldots,p$} donde $p$ es primo, $\mathcal{F}$ es el conjunto de todos los subconjuntos de $\Omega$ y para todo evento $A\in\mathcal{F}$, $P(A)=\frac{\left|A\right|}{p}$. Muestra que, si $A$ y $B$ son eventos independientes, entonces al menos uno de los eventos $A$ y $B$ son cualquiera $\emptyset$ o $\Omega$.
  • Considera que se lanza un dado n veces. Sea $A_{ij}$ el evento tal que el $i-ésimo$ y $j-ésimo$ resultado producen el mismo número. Muestra que los eventos {$A_{ij}:1\le\ i\le\ j\le\ n$} son independientes dos a dos, pero no son independientes.
  • Prueba que si $A_1,A_2,\ldots,A_n$ son eventos independientes entonces $P\left(A_1\cup A_2\cup\ldots\cup A_n\right)=1-\displaystyle\prod_{i=1}^{n}\left[1-P\left(A_i\right)\right]$.

Más adelante…

En los siguientes videos veremos dos aplicaciones útiles e importantes de la probabilidad condicional: el teorema de probabilidad total y el teorema de Bayes, que nos permiten a través de una partición correcta del espacio muestral, encontrar probabilidades de una manera conveniente.

Entradas relacionadas

Ecuaciones Diferenciales I – Videos: Teorema de Existencia y Unicidad de Picard

Introducción

En entradas anteriores hemos cubierto diversos métodos de resolución de ecuaciones diferenciales de primer orden, y hemos pasado por alto diversas hipótesis que deben cumplir las ecuaciones para que éstas tengan una solución. Es momento entonces de justificar toda la teoría realizada anteriormente mediante el Teorema de existencia y unicidad para ecuaciones de primer orden, que nos garantiza la existencia de una única solución al problema de condición inicial $\frac{dy}{dt}=f(t,y)$ ; $y(t_{0})=y_{0}$, en un intervalo $I_{h}$, bajo ciertas hipótesis que se deben satisfacer.

Primero daremos un panorama general del Teorema de existencia y unicidad, así como la estrategia general para demostrarlo. Debido a que este teorema es complejo de demostrar, necesitamos algunas herramientas extra que iremos presentando conforme las vayamos utilizando; demostraremos con esto el Teorema: primero la unicidad de la solución y posteriormente su existencia. Finalmente demostraremos la dependencia continua del problema de condición inicial respecto a la condición inicial.

Vamos a comenzar!

Introducción del Teorema de Existencia y Unicidad de Picard. Ecuación integral asociada.

Enunciamos el Teorema de existencia y unicidad de Picard, debido al matemático francés Émile Picard, asociamos una ecuación integral al problema de condición inicial, analizamos la relación que guarda la solución a esta ecuación con el problema de condición inicial, y presentamos una forma equivalente de demostrar el teorema en lo que se refiere a la existencia de la solución.

Demostración de la unicidad de la solución al problema de condición inicial

En este video presentamos las herramientas para demostrar la parte de la unicidad del Teorema de existencia y unicidad de Picard. Primero presentamos a las funciones $f(t,y)$ Lipschitz continuas respecto a la segunda variable. Posteriormente demostramos dos lemas: el primero enuncia una forma equivalente de decir que una función $f$ es Lipschitz continua respecto a la segunda variable, el segundo es el Lema de Grönwall, debido al matemático sueco Thomas Grönwall, que nos da una cota superior para una función $g(t)$ continua no negativa que cumple con cierta desigualdad. Finalmente demostramos la unicidad de la solución al problema de condición inicial.

Iteraciones de Picard

Para demostrar la existencia de la solución al problema de condición inicial, o equivalentemente, a la ecuación integral asociada al problema, definimos una sucesión muy particular de funciones $\{y_{n}(t)\}_{n \in \mathbb{N}}$ cuyos elementos llamaremos iteraciones de Picard o aproximaciones sucesivas, resolvemos un ejemplo para ver cómo calcular estas iteraciones, hacemos algunas observaciones que cumple la sucesión, presentamos un par de definiciones y teoremas (que no demostraremos) para saber cuándo converge nuestra sucesión de funciones, esto último como preliminares para la demostración de la existencia de la solución al problema de condición inicial.

Demostración de la existencia de la solución al problema de condición inicial

En este video demostramos la parte de la existencia de la solución al problema de condición inicial, y previamente mostramos un lema que nos permite encontrar el intervalo $I_{h}$ donde la solución existe.

Dependencia continua de la condición inicial

Concluimos esta serie de videos, mostrando la dependencia continua del problema de condición inicial, respecto a los valores de la condición inicial, utilizando el Lema de Grönwall que demostramos en el segundo video de esta entrada.

Tarea moral

  • Prueba que la función $f(t,y)=y^{\frac{2}{3}}$ no es Lipschitz continua respecto a la segunda variable en cualquier dominio D (subconjunto abierto conexo de $\mathbb{R}^{2}$) que incluya a $y=0$.
  • Resuelve el problema de valor inicial $\frac{dy}{dt}=y^{\frac{2}{3}}$ ; $y(0)=0$ y verifica que este problema tiene más de una solución.
  • ¿El problema anterior contradice el Teorema de existencia y unicidad de Picard?
  • Prueba el siguiente corolario al Lema de Grönwall: si se cumplen las hipótesis del Lema de Grönwall con $C_{1}=0$, entonces $g(t)=0$ en $[t_{0}-a,t_{0}+a]$.
  • Calcula las iteraciones de Picard hasta $n=2$ para el problema de condición inicial $\frac{dy}{dt}=e^{t}+y^{2}$ ; $y(0)=0$. ¿Puedes encontrar una formula cerrada para caracterizar a los elementos de la sucesión? Intenta calcular más iteraciones. Con este ejemplo puedes ver que en ocasiones puede ser muy complicado calcular iteraciones para $n$ grande, y por tanto, no es sencillo encontrar la convergencia de la sucesión.
  • Muestra que si la sucesión $\{y_{n}(t)\}_{n \in \mathbb{N}}$ converge uniformemente a una función $y(t)$ en $[a,b]$, entonces $y$ es continua en $[a,b]$.

Más adelante

Hemos terminado el análisis a las ecuaciones de primer orden, y podemos pasar a estudiar ecuaciones diferenciales de primer orden, pero antes vamos a regresar un poco al estudio de ecuaciones autónomas. Vamos a considerar ahora una familia de ecuaciones autónomas $f_{\lambda}(y)$ que dependen de un parámetro $\lambda$, y vamos a analizar lo que sucede con las soluciones de equilibrio y con las soluciones en general cuando cambia el valor del parámetro. A este tipo de problemas se les llama bifurcaciones. Con esto terminamos la primera unidad de nuestro curso de Ecuaciones diferenciales ordinarias.

Entradas relacionadas

Álgebra lineal II: Formas sesquilineales

Introducción

Como mencionamos anteriormente, las formas bilineales, aunque muy útiles, son muy restringidas en como las definimos, intentaremos extender un poco esta definición al menos a espacios vectoriales sobre los complejos, aunque esto aún es limitado, para fines de este curso esto bastará.

La forma de extenderla será mediante formas sesquilineales, veremos su definición, así como un par de propiedades y se verán un par de propiedades que darán paso al tema siguiente las formas hermitianas cuadráticas.

Formas sesquilineales

Vale la pena empezar entendiendo a que se refiere la palabra sesquilineal, como seguramente notaste, una forma bilineal era llamada así porque era «dos veces lineal», con esto nos referimos a que debía ser lineal en cada una de sus entradas.
Similarmente, las formas sesquilineales deben su nombre a la raíz latina sesqui que significa uno y medio, como esto no nos indica naturalmente a que se refiere sesquilineal, veamos la definición.

Definición
Sea $V$ un espacio vectorial sobre $\mathbb{C}$. Una forma sesquilineal en $V$ es una función $\varphi: V \times V \rightarrow \mathbb{C} $ tal que

  • Para cualesquiera $x_1,x_2,y \in V$ y para cualquier $\lambda \in \mathbb{C}$ $\varphi (\lambda x_1+x_2, y) = \overline{\lambda} \varphi (x_1,y)+ \varphi(x_2 , y)$.
  • Para cualesquiera $y_1,y_2,x \in V$ y para cualquier $\lambda \in \mathbb{C}$ $\varphi (x,\lambda y_1+y_2) = \lambda\varphi (x,y_1)+ \varphi(x, y_2)$.


Sabiendo esto, la «media» linealidad se refiere a que en la primera entrada se pide que $\varphi$ sea lineal conjugada.

Además, una forma sesquilinear $\varphi$ se llamará conjugada simétrica o hermitiana si $\overline{ \varphi(y,x) }= \varphi(x,y)$ para cualesquiera $x , y \in V$.

Cabe aclarar que esto no es lo mismo que una forma cuadrática hermitiana, que empezaremos a ver en la siguiente entrada.

Propiedades de formas sesquilineales

A partir de esto, podemos definir el siguiente conjunto

\begin{align*} S(V) : = \{ \varphi: V \times V \rightarrow \mathbb{C} \; | \; \varphi \text{ es sesquilineal} \} \end{align*}
Y de manera análoga a lo que sucedía con las formas bilineales, $S(V)$ es un subespacio vectorial del $\mathbb{C}$-espacio de todas las funciones de $V \times V $ en $\mathbb{C}$.
También, podemos definir
\begin{align*} H(V) : = \{ \varphi \in S(V) \; | \; \overline{ \varphi(y,x) }= \varphi(x,y) \; \forall x , y \in V \} \end{align*}
el conjunto de formas hermitianas.

Algo que siempre hay que revisar después de la definición de algún conjunto es que este es no vacío, por suerte es generalmente sencillo comprobar esto, en nuestro caso es claro que la función $0$ es sesquilineal y hermitiana.

Con esto investiguemos un poco la relación existente entre $S(V)$ y $H(V)$
Proposición

$H(V)$ es un subespacio vectorial de $S(V)$ como espacio vectorial sobre $\mathbb{R}$.

Demostración

Sabemos que $H(V) \subseteq S(Y)$ y que ambos son distintos del vacío, así empecemos probando que $H(V)$ es cerrado bajo la suma y multiplicación escalar.

Sean $\varphi_1, \varphi_2 \in H(V)$, $x,y \in V$ y $\lambda \in \mathbb{R}$.

Sabemos por cómo está definida la suma que
\begin{align*} (\varphi_1 + \varphi_2) (x,y)= \varphi_1(x,y) + \varphi_2 (x,y) \end{align*}
Además, como $\varphi_1, \varphi_2 \in H(V)$
\begin{align*} \varphi_1(x,y) = \overline{\varphi_1(y,x)} \qquad \text{y} \qquad \varphi_2(x,y) = \overline{\varphi_2(y,x)} \end{align*}
por lo que
\begin{align*} (\varphi_1 + \varphi_2) (x,y)= \overline{\varphi_1(y,x)} + \overline{\varphi_2(y,x)} \end{align*}
También, sabemos que $\overline{a+b}= \overline{a}+ \overline{b}$ para cualquier par de números complejos, en particular
\begin{align*} \overline{\varphi_1(y,x)} + \overline{\varphi_2(y,x)} = \overline{\varphi_1(y,x) + \varphi_2(y,x) } = \overline{ (\varphi_1+\varphi_2) (y,x) }\end{align*}
Así, finalmente
\begin{align*} (\varphi_1 + \varphi_2) (x,y)= \overline{ (\varphi_1+\varphi_2) (y,x) } \end{align*}
De donde se concluye que $\varphi_1 + \varphi_2 \in H(V)$

Procedamos análogamente para la multiplicación
\begin{align*} (\lambda \varphi_1) (x,y)= \lambda (\varphi_1(x,y))=\lambda (\overline{ \varphi_1(y,x)}) \end{align*}
Más aún, tenemos que $\overline{\lambda} = \lambda$ (¿Por qué?)
\begin{align*} (\lambda \varphi_1) (x,y)= \lambda (\overline{ \varphi_1(y,x)}) = \overline{ \lambda \varphi_1(y,x)}= \overline{ (\lambda \varphi_1)(y,x)}\end{align*}
De donde se termina concluyendo que $\lambda \varphi_1 \in H(V)$

Con estas dos, basta para afirmar que $H(V)$ es un subespacio vectorial de $S(V)$ como espacio vectorial sobre $\mathbb{R}$.

$\square$

Proposición

Sea $V$ un espacio vectorial sobre $\mathbb{C}$, $S(V)$ el subespacio de formas sesquilineales y $H(V)$ el subespacio de formas hermitianas, $S(V)$ se puede descomponer como la suma directa de $H(V)$ y $iH(V)$.

Un recordatorio de la suma directa lo puedes encontrar aquí.

Demostración

Empecemos probando que $S(V)$ efectivamente se puede descomponer como la suma de $H(V)$ y $iH(V)$.
Para esto, basta demostrar que cualquier forma sesquilineal se puede expresar como suma de dos formas hermitianas, de esta manera sea $\varphi \in S(V)$ definamos $h_1, h_2$ como sigue
\begin{align*} h_1(x,y)=\frac{\varphi(x,y)+ \overline{\varphi(y,x)}}{2} \qquad \text{y} \qquad h_2(x,y)=\frac{\varphi(x,y)- \overline{\varphi(y,x)}}{2i}\end{align*}
Comencemos mostrando que $h_2$ es hermitiana, de esta manera dados cualesquiera $x,y \in \mathbb{C}$, calculemos $\overline{h_2(y,x)}$.
\begin{align*} \overline{h_2(y,x)}=\overline{(\frac{\varphi(y,x)- \overline{\varphi(x,y)}}{2i})} \end{align*}
En particular sabemos que
\begin{align*} \frac{\varphi(y,x)- \overline{\varphi(x,y)}}{2i}=\frac{-\varphi(y,x)i+ \overline{\varphi(x,y)}i}{2} \end{align*}
Así
\begin{align*} \overline{h_2(y,x)}=\overline{(\frac{-\varphi(y,x)i + \overline{\varphi(x,y)}i}{2})}\end{align*}
Además, para cualquier $c \in \mathbb{C}$ tenemos que $\overline{ci}=-\overline{c}i$, por lo que
\begin{align*} \overline{h_2(y,x)}= \frac{\overline{\varphi (y,x)}i -\varphi (x,y)i}{2}\end{align*}
Finalmente multiplicando por $\frac{i}{i}$
\begin{align*} \overline{h_2(y,x)}= \frac{-\overline{\varphi (y,x)} + \varphi (x,y)}{2i}=\frac{ \varphi (x,y)- \overline{ \varphi (y,x)}}{2i}=h_2(x,y) \end{align*}
Por lo que $h_2 \in H(V)$
De manera análoga y se puede mostrar que $h_1$ es hermitiana.
Dado esto tenemos que
\begin{align*} h_1 \in H(V) \qquad \text{y} \qquad ih_2 \in iH(V) \end{align*}
Con
\begin{align*} ih_2= \frac{\varphi (x,y)- \overline{ \varphi (y,x)}}{2} \end{align*}
Y es claro que, para cualesquiera $x,y \in \mathbb{C}$
\begin{align*} \varphi (x,y) =\frac{\varphi (x,y)+ \overline{\varphi (y,x)}}{2} + \frac{ \varphi (x,y)- \overline{ \varphi (y,x)}}{2} =h_1(x,y)+ih_2(x,y)\end{align*}
Así en general
\begin{align*} \varphi =h_1+ih_2\end{align*}
Por lo que
\begin{align*} S(V)=H(V)+iH(V)\end{align*}
Demostrar que $H(V)$ y $iH(V)$ están en posición de suma directa es más sencillo.

Sea $h \in H(V) \cap iH(V)$ en particular $h \in iH(V)$ por lo que existe $h_1 \in H(V)$ tal que $h=ih_1$ así, para cualesquiera $x,y \in \mathbb{C}$
\begin{align*} h(x,y)=\overline{h(y,x)}=\overline{ih_1(y,x)}=-i\overline{h_1(y,x)}=-ih_1(x,y)=-h(x,y) \end{align*}
De esta cadena concluimos que $h(x,y)=-h(x,y)$ y sabemos que el único complejo que cumple esto es el $0$.

Por lo tanto $h(x,y)=0$ por lo que $h=0$ que finalmente nos arroja que $H(V) \cap iH(V)= \{ 0 \}$.

Esto es suficiente para saber qué $H(V)$ y $iH(V)$ están en posición de suma directa.

Por lo tanto
\begin{align*} S(V)= H(V) \oplus iH(V)\end{align*}.

$\square$

Más adelante

De esta manera definimos a las formas sesquilineales como un análogo en $\mathbb{C}$ a las formas bilineales, así que como es de esperarse, también definiremos un análogo a las formas cuadráticas siendo estas las formas hermitianas cuadráticas y finalizaremos esta pequeña sección enunciando el análogo al teorema de Gauss.

Después procederemos a ver un repaso de productos interiores y su relación con formas cuadráticas incluso probaremos un par de desigualdades muy importantes, siendo una de estas la desigualdad de Cauchy-Schwarz.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Puede $H(V)$ definida como arriba ser un subespacio vectorial de $S(V)$ sobre $\mathbb{C}$.
  2. En la segunda proposición, demuestra que $h_1$ definida como arriba es hermitiana.
  3. Sean $m.n \in \mathbb{N}$, $a_1, \cdots a_n, b_1, \cdots b_m \in H$ y $\lambda_1, \cdots \lambda_n, \mu_1, \cdots \mu_m \in H$ entonces
    \begin{align*} \varphi(\sum_{i=1}^n \lambda_ia_i , \sum_{j=1}^m\mu_jb_j)=\sum_{i=1}^n\sum_{j=1}^m\lambda_i\overline{\mu_j}\varphi(a_i,b_j)\end{align*}
  4. Sea $\varphi$ hermitiana, demuestra que $\varphi(x,x) \in \mathbb{R}$ $\forall x \in V $
  5. Sea $\varphi$ hermitiana, demuestra que $\varphi(ax,ax) = |a|\varphi(x,x)$ $\forall x \in V $ y $\forall a \in \mathbb{C}$

Entradas relacionadas

Cálculo Diferencial e Integral I:Intervalos y desigualdades en los números reales

Introducción

Ahora veremos los intervalos de los números reales, su definición y su representación en la recta real. Por ellos nos apoyaremos de varios ejemplos y ejercicios. Recordemos que al representar gráficamente a los números reales lo hacemos por medio de una recta. Donde un punto será la representación de un número y la recta todo el conjunto $\r$.

De igual manera abordaremos en esta entrada la solución de desigualdades en los reales donde los intervalos están íntimamente relacionados.

Intervalos en los reales

Definición: Sean $a,b \in \r$. Definimos los siguientes intervalos en $\RR$ como sigue:

  • Intervalo cerrado:
    \[
    [a,b]=\left\{x : a \leq x \leq b\right\}
    \]
  • Intervalo abierto
    \[
    (a,b)=\left\{x : a < x < b\right\}
    \]
  • Semiabierto por la izquierda/ Semicerrado por la derecha
    \[
    (a,b]=\left\{x : a < x \leq b\right\}
    \]
  • Semiabierto por la derecha/ Semicerrado por la izquierda
    \[
    [a,b)=\left\{x : a \leq x < b\right\}
    \]

Casos especiales

Sea $a\in \r$. Para los intervalos que involucran al infinito tenemos las siguientes definiciones:

  • \[
    (-\infty ,a)=\left\{x : x < a \right\}
    \]
  • \[
    (-\infty ,a]=\left\{x : x \leq a \right\}
    \]
  • \[
    (a, \infty) =\left\{x : a < x\right\}
    \]
  • \[
    [a, \infty) =\left\{x : a \leq x\right\}
    \]
  • \[
    (- \infty, \infty) =\r
    \]

Representación gráfica

A continuación veremos la representación de cada uno de los intervalos anteriores en la recta real. Esto nos ayudará más adelante con la resolución de desigualdades. En cada una de las imágenes la sección de la recta real sombreada con amarillo «\\\» representará los valores considerados por el intervalo.

\[ [a,b] \]

Consideramos los valores de $a$ y $b$.

\[ (a,b) \]

No consideramos los valores de $a$ y $b$.

\[ (a,b] \]

No consideramos el valor de $a$.

\[ [a,b) \]

No consideramos el valor de $b$.

\[ (-\infty ,a) \]

Todos los valores estrictamente menores que $a$.

\[ (-\infty ,a] \]

Todos los valores menores o iguales que $a$.

\[ (a, \infty) \]

Todos los valores estrictamente mayores que $a$.

\[ [a, \infty) \]

Todos los valores mayores o iguales que $a$.

\[ (- \infty, \infty) \]

Toda la recta real.

Cabe mencionar que los símbolos $- \infty$ y $\infty$ son solamente notación, ya que no existe ningún número «$\infty$» tal que cumpla $\infty \geq x$ para todo $x\in \r$.

Ahora que ya hemos definido a los intervalos en los reales $\r$. Veremos algunos ejercicios de representación gráfica de intervalos.

Algunos ejemplos de intervalos

A continuación daremos la representación gráfica de los siguientes intervalos.

  • \[ (1,14 ] \]
    Aplicando la definición correspondiente obtenemos la siguiente representación:
  • \[ (-15,-2) \cup [6,10) \]
    Graficamos primero ambos intervalos en la recta real, por lo que tenemos lo siguiente:

Ya que estamos considerando la unión de los intervalos, por su definición tenemos que el conjunto resultante sería el azul:

  • \[ (-3, 0) \cap (-2, 4] \]
    Vemos que al graficar ambos intervalos obtenemos:

Cómo queremos la intersección de dichos intervalos, el intervalo resultante sería en el que encontremos elementos en común, así sería:

\[ (-3, 0) \cap (-2, 4] = [-2,0] \]
  • \[ [-6,1) \cup (-1,7] \]
    Comenzamos graficando ambos intervalos en la recta real:

Así considerando la definición de unión obtenemos el siguiente intervalo:

\[ [-6,1) \cup (-1,7] = [-6,7]\]
  • \[ [-10, 0) \cap [0, 5) \]
    Graficando los intervalos anteriores tenemos:

Debido a que queremos la intersección de ambos intervalos, observamos que por su definición no poseen ningún elemento en común, así su intersección sería vacía: $[-10, 0) \cap [0, 5) = \emptyset$

  • \[ (-\infty,-2) \cup(-3,0) \cup [-1, \infty) \]
    Si graficamos los tres intervalos anteriores vemos que tendríamos lo siguiente:

Así al aplicar la definición de unión nos percatamos que se trata de toda la recta $\r$:

Una vez que hemos visto estos ejemplos procederemos a los ejercicios de desigualdades. Cabe mencionar que todos los resultados probados anteriormente, aquellos relacionados al Orden en $\r$ los estaremos utilizando sin repetir dichas demostraciones.

Desigualdades en los reales

Encuentra todos los números reales $x$ que cumplan con las siguientes desigualdades:

  • $$4- x < 3 -2x$$

Comenzamos con restar $4$ en ambos lados de la desigualdad:
\begin{align*}
4- x-4 &< 3 -2x-4\\
-x+ (4 -4) &< -2x+(3-4)\\
-x&<-2x-1\\
-x+ 2x &< (-2x +2x)-1\\
x&<-1
\end{align*}

Así observamos que todas las $x$ que cumplen la desigualdad son aquellas que $x<-1$, es decir, las que pertenecen al intervalo:
$$(-\infty,-1)$$

  • $$(x-1)(x-3)>0$$

Cómo estamos buscando que el producto sea positivo, debemos considerar los siguientes dos casos:
CASO 1: $(x-1)>0$ y $(x-3)>0$
Por lo anterior queremos encontrar a todos los reales que satisfacen que $x>1$ y $x>3$.
Al graficar dichos intervalos observamos lo siguiente:

Ya que estamos considerando la intersección, el intervalo buscado sería:
$$(3, \infty)$$

CASO 2: $(x-1)<0$ y $(x-3)<0$

Ahora queremos a todos los números que cumplan con que $x<1$ y $x<3$, así tenemos:

Por lo que el intervalo buscado es:
$$(-\infty,1)$$

Considerando la unión de los intervalos obtenidos en los CASOS 1 y 2 tenemos que el conjunto solución es:
$$(-\infty,1) \cup (3, \infty)$$

  • $$\frac{1}{x} + \frac{1}{1-x} > 0$$

Comenzaremos realizando la suma de fracciones:
\begin{align*}
\frac{1}{x} + \frac{1}{1-x} > 0 &\Rightarrow \frac{1-x+x}{x(1-x)}>0\\
&\Rightarrow \frac{1}{x (1-x)}>0\\
\end{align*}
Cómo ya tenemos que el numerador es mayor que cero: $1>0$. La igualdad se satisface si y sólo si $x (x-1) > 0$. Por lo que debemos considerar los siguientes casos:

CASO 1: $x>0$ y $1-x >0$
Por lo que tendríamos las siguientes condiciones: $x>0$ y $1>x$.

De lo anterior vemos que los valores que cumplen ambas condiciones son aquellos que pertenecen al intervalo:
$$(0,1)$$

CASO 2: $x<0$ y $1-x < 0$
De lo anterior tenemos que: $x < 0$ y $1<x$.

Observamos que no existen valores que cumplan ambas condiciones.
De los casos vistos tenemos que los valores que cumple la desigualdad son todos aquellos que pertenecen al intervalo: $$(0,1)$$

Tarea moral

Da la representación geométrica de los siguientes intervalos:

  • \[ (-15,-2) \cap [6,10) \]
  • \[ (-3, 0) \cup (-2, 4] \]
  • \[ [-6,1) \cap (-1,7] \]
  • \[ (-\infty,-2) \cup [0, \infty) \]

Encuentra todos los números reales $x$ que cumplan con las siguientes desigualdades:

  • $$5-x^{2} < -2$$
  • $$x^{2} -2x +2 > 0$$

Más adelante

En la próxima entrada veremos la función valor absoluto. Daremos su definición formal y su interpretación geométrica. De igual manera veremos un resultado muy importante que lo involucra: la desigualdad del triángulo.

Entradas relacionadas