Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Álgebra Lineal II: Dualidad y representación de Riesz en espacios euclideanos

Por Diego Ligani Rodríguez Trejo

Introducción

En Álgebra Lineal I introdujimos el concepto de espacio dual, a grandes rasgos, era el espacio vectorial donde estaban todas las formas lineales de un espacio hacia su campo. Por otro lado, en entradas recientes hicimos un recordatorio de qué era un producto interior. Lo que haremos ahora es relacionar ambos conceptos. Esta relación no debería ser tan inesperada, pues un producto interior es una forma bilineal, y al fijar una entrada de este obtenemos una forma lineal.

Lo primero que haremos es ver cómo conectar la matriz que representa a una forma bilineal con una matriz que envía vectores a formas lineales. Después, veremos una versión particular de un resultado profundo: el teorema de representación de Riesz. Veremos que, en espacios euclideanos, toda forma lineal se puede pensar «como hacer producto interior con algún vector».

Nos enfocaremos únicamente a los resultados en el caso real. Los casos en el caso complejo son muy parecidos, y se exploran en los ejercicios.

La matriz de una transformación que «crea» formas lineales

Sea $V$ un espacio vectorial real con una forma bilineal $b$. A partir de $b$ podemos construir muchas formas lineales, a través de la función $\varphi_b:V\to V^\ast$ que asigna a cada vector $y$ de $V$ a la forma lineal $\varphi_b(y):=b(\cdot,y)$.

Podemos pensar a $\varphi_b$ como «una maquinita que genera formas lineales» que depende del vector $b$. Claramente $\varphi_b(y)$ es lineal, pues $b$ es lineal en su primera entrada. Y también claramente $\varphi_b$ es lineal, pues $b$ es lineal en su segunda entrada. En cierto sentido, la matriz correspondiente a la forma bilineal $b$ coincide con la matriz correspondiente a $\varphi_b$.

Proposición. Sea $\beta$ una base de un espacio vectorial $V$ de dimensión finita sobre los reales. Sea $\beta^\ast$ su base dual. Tomemos $b$ una forma bilineal en $V$. La matriz de $\varphi_b$ con respecto a las bases $\beta$ y $\beta’$ es igual a la matriz de $b$ con respecto a la base $\beta$.

Demostración. Llamemos a los elementos de la base $\beta$ como $u_1,\ldots,u_n$ y a los de la base $\beta^ \ast$ como $l_1,\ldots,l_n$. Para encontrar la $j$-ésima columna de la matriz de $\varphi_b$ con respecto a $\beta$ y $\beta^\ast$, debemos expresar a cada $\varphi_b(u_j)$ como combinación lineal de los elementos $l_1,\ldots,l_n$. Para hacer esto, es más sencillo ver cómo es $\varphi_b(u_j)(x)$ para cada $x\in V$ y usar que los $l_i$ «leen» las coordenadas en la base $\beta$.

Para ello, tomemos $x=\sum_{i=1}^nu_ix_i$. Tenemos lo siguiente:

\begin{align*}
\varphi_b(u_j)(x)&=b(\sum_{i=1}^nu_ix_i,u_j)\\
&= \sum_{i=1}^nx_ib(u_i,u_j)\\
&= \sum_{i=1}^n l_i(x) b(u_i,u_j).
\end{align*}

Como esto sucede para cada vector $x$, tenemos entonces que $$\varphi_b(u_j)=\sum_{i=1}^n b(u_i,u_j) l_i.$$

Pero esto es justo lo que queremos. Las entradas de la $j$-ésima columna de la matriz que representa a $\varphi_b$ son entonces los coeficientes $b(u_1,u_j),b(u_2,u_j),\ldots,b(u_n,u_j)$. Pero esas son justo las entradas de la $j$-ésima columna de la matriz que representa a $b$ en la base $\beta$.

$\square$

Teorema de representación de Riesz

La sección anterior explica cómo de una forma bilineal $b$ podemos obtener una «máquinita» que genera formas lineales $\varphi_b$. Si $b$ es mucho más especial (un producto interior), entonces esta maquinita es «más potente», en el sentido de que puede generar cualquier forma lineal del espacio. A este resultado se le conoce como el teorema de representación de Riesz. Aunque sus versiones más generales incluyen ciertos espacios de dimensión infinita, y el enunciado dice algo más general, en este curso nos limitaremos a enunciar y demostrar la versión en espacios vectoriales de dimensión finita.

Teorema (teorema de representación de Riesz). Sea $V$ un espacio euclidiano con producto interno $\langle \cdot, \cdot \rangle$. La función $\varphi_{\langle \cdot, \cdot \rangle}: V \rightarrow V^\ast$ es un isomorfismo.

Demostración. Debemos probar que $\varphi_{\langle \cdot, \cdot \rangle}$ es una transformación lineal biyectiva hacia $V^\ast$. Como mencionamos en la sección anterior, cada $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es una forma lineal pues el producto interior es lineal en su primera entrada. Además, $\varphi_{\langle \cdot, \cdot \rangle}$ es una transformación lineal pues el producto interior es lineal en su segunda entrada.

Por los resultados que se vieron en el curso de Álgebra Lineal I, se tiene que $\dim V = \dim V^\ast$. De esta manera, basta ver que $\varphi_{\langle\cdot,\cdot \rangle}$ es inyectiva. Y para ello, basta ver que el único vector $y$ tal que $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es la forma lineal cero es $y=0$.

Supongamos entonces que $\varphi_{\langle \cdot, \cdot \rangle}(y)$ es la forma lineal cero. Si este es el caso, entonces para cualquier $x$ en $V$ tendríamos que $\langle x, y \rangle = 0$. En particular, esto sería cierto para $x=y$, de modo que $\langle y, y \rangle =0$. Pero como el producto interior es positivo definido, esto implica que $y=0$.

Esto muestra que $\varphi_{\langle \cdot, \cdot \rangle}$ es inyectiva. Como es transformación lineal entre espacios de la misma dimensión, entonces es biyectiva.

$\square$

Ejemplo de representación de Riesz

Las operaciones que se hacen para calcular una forma lineal no siempre son sencillas. Lo que nos dice el teorema de representación de Riesz es que podemos tomar un «vector representante» de una forma lineal para que evaluarla corresponda «simplemente» a hacer un producto interior. Si es fácil hacer ese producto interior, entonces podemos simplificar la evaluación de la forma lineal.

Ejemplo. Tomemos $V$ el espacio vectorial de polinomios con coeficientes reales y grado a lo más $2$. Hemos visto con anterioridad que $\langle \cdot, \cdot \rangle: V\times V \to \mathbb{R}$ dado por: $$\langle p, q \rangle = p(0)q(0)+p(1)q(1)+p(2)q(2) $$ es un producto interior.

Hemos visto también que $I:V\to \mathbb{R}$ dada por $I(p)=\int_0^1 p(x)\, dx$ es una forma lineal. El teorema de representación de Riesz nos garantiza que $I$, que es una integral definida, debería poder «representarse» como el producto interior con un polinomio especial $q$. Esto parecen ser buenas noticias: para $I(p)$ necesitamos hacer una integral. Para hacer el producto interior, sólo son unas multiplicaciones y sumas.

El polinomio «mágico» que funciona en este caso es el polinomio $q(x)=-\frac{x^2}{2}+\frac{3}{4}x+\frac{5}{12}$. Puedes verificar que:

\begin{align*}
q(0)&=\frac{5}{12}\\
q(1)&=\frac{2}{3}\\
q(2)&=-\frac{1}{12}.
\end{align*}

De esta manera, si hacemos el producto interior con cualquier otro polinomio $p(x)=ax^2+bx+c$ obtenemos:

\begin{align*}
\langle p, q \rangle &= p(0)q(0) + p(1)q(1)+p(2)q(2)\\
&= c\cdot \frac{5}{12} + (a+b+c)\cdot \frac{2}{3} + (4a+2b+c) \cdot \left(-\frac{1}{12}\right)\\
&=\frac{a}{3}+\frac{b}{2}+c.
\end{align*}

Si por otro lado hacemos la integral, obtenemos:

\begin{align*}
\int_0^1 ax^2 + bx + c \, dx &= \left. \left(\frac{ax^3}{3}+\frac{bx^2}{2}+cx \right)\right|_0^1\\
&=\frac{a}{3}+\frac{b}{2}+c.
\end{align*}

En ambos casos se obtiene lo mismo.

$\triangle$

Se podría tener una discusión más profunda para explicar cómo se obtuvo el polinomio $q$ del ejemplo anterior. Sin embargo, dejaremos la experimentación de esto para los ejercicios. Por ahora, la mayor ventaja que le encontraremos al teorema de representación de Riesz es la garantía teórica de que dicho vector que representa a una forma lineal dado un producto interior siempre existe en los espacios euclideanos.

Más adelante…

Hemos enunciado y demostrado una versión del teorema de Riesz para espacios euclieanos. Este teorema tiene versiones más generales en el contexto de espacios de Hilbert. Así mismo, una versión más extensa del teorema de Riesz nos dice cómo es la norma del vector que representa a un producto interior. Estos resultados son muy interesantes, pero quedan fuera del alcance de este curso. Es posible que los estudies si llevas un curso de análisis funcional.

Un poco más adelante, en la Unidad 3, usaremos el teorema de representación de Riesz para definir a las transformaciones adjuntas, a las simétricas y a las ortogonales. Por ahora, nos enfocaremos en estudiar más definiciones y propiedades en espacios euclideanos. La siguiente definición que repasaremos es la de ortogonalidad para vectores y para espacios vectoriales. Es un concepto que se estudia por encima en Álgebra Lineal I, pero ahora tenemos herramientas para poder decir más.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. ¿Podemos definir a $\varphi_b: V \rightarrow V^*$ en la otra entrada? Es decir, como la función tal que $\varphi_b(x)=b(x,\cdot)$? Si hacemos esto, ¿cambian en algo los resultados que vimos?
  2. Considera el espacio vectorial de matrices en $M_n(\mathbb{R})$. Anteriormente vimos que $b(A,B)=\text{tr}(\text{ }^t A B)$ es un producto interior y que sacar traza es una forma lineal. De acuerdo al teorema de representación de Riesz, debe haber una matriz $T$ que representa a la traza, es decir, tal que $\text{tr}(A)=b(A,T)$. ¿Quién es esta matriz $T$? Ahora, si tomamos la transformación que manda una matriz $A$ a la suma de las entradas en su antidiagonal, esto también es una forma lineal. ¿Quién es la matriz que representa a esta forma lineal con el producto interior dado?
  3. Enuncia y demuestra un teorema de igualdad de formas matriciales para el caso de formas sesquilineales. ¿Necesitas alguna hipótesis adicional?
  4. Enuncia y demuestra un teorema de representación de Riesz para espacios hermitianos. Deberás tener cuidado, pues el vector que representa a una forma lineal tendrá que estar en la coordenada que conjuga escalares. ¿Por qué?
  5. ¿Será cierto el teorema de representación de Riesz si la forma bilineal no es un producto interior? Identifica dónde falla la prueba que dimos. Luego, construye un contraejemplo para ver que la hipótesis de que $b$ sea positiva definida es fundamental. Es decir, encuentra un espacio vectorial $V$ real con una forma bilineal simétrica y positiva $b$, en donde exista una forma lineal $l$ tal que sea imposible encontrar un vector $y$ tal que para todo $x$ en $V$ se tenga que $l(x)=b(x,y)$. Sugerencia. Parace que hay muchos cuantificadores. Intenta dar un contraejemplo lo más sencillo posible, por ejemplo, en $\mathbb{R}^2$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: El teorema de descomposición polar real

Por Ayax Calderón

Introducción

En la entrada anterior enunciamos y demostramos el teorema espectral para matrices simétricas reales. Una de las consecuencias de este teorema es el teorema de descomposición polar. Se puede pensar en el teorema de descomposición polar como al análogo a un resultado muy conocido de números complejos: cualquier número complejo se puede pensar de la forma $z=e^{i\theta}r$ con $r\geq 0$ real. Geométricamente, el complejo se obtiene «rotando tanto como el argumento y luego alargando de acuerdo a la norma».

Así mismo, veremos que toda matriz $A$ tendrá una expresión de la forma $A=US$ donde $U$ es una matriz ortogonal (que juega el papel de «la rotación») y $S$ es una matriz simétrica positiva (que por el teorema espectral recordemos que es básicamente «alargar en varias direcciones»). Este resultado es increíble: ¡nos dice cómo son todas, todas las matrices reales en términos de matrices muy sencillas: las ortogonales (que conocemos muy bien) y las simétricas (que por el teorema espectral también conocemos muy bien)!

Caso invertible del teorema de descomposición polar

Recordemos un resultado de la entrada anterior, que era una de las partes de nuestro teorema de clasificación de matrices positivas. Nos dice que las matrices simétricas positivas «tienen raíz cuadrada».

Proposición. Sea $A$ una matriz simétrica positiva. Entonces existe una matriz simétrica $B$ tal que $B^2=A$.

Como recordatorio, para obtener a $B$ lo que hicimos fue diagonalizar a $A$ de la forma $A=P^{-1}DP$ con $D$ matriz diagonal cuyas entradas eran $\lambda_1,\ldots,\lambda_n$ los eigenvalores de $A$. Como $A$ era positiva, sus eigenvalores eran no negativos, así que podíamos construir $D’$ con entradas $\sqrt{\lambda_1},\ldots,\sqrt{\lambda_n}$. Después, vimos que $B=P^{-1}D’P$ servía para que $B^2=A$. Observa que además $B$ es positiva pues sus eigenvalores son no negativos.

Como observación adicional, si $A$ fuera positiva definida entonces sus eigenvalores serían positivos, y entonces $B$ también tendría eigenvalores positivos. Así, $B$ sería positiva definida también. De hecho, se puede demostrar que en este caso la matriz $B$ es única (bajo la condición de ser simétrica positiva definida y raíz de $A$). Probar esto queda como parte de los ejercicios de la entrada.

Estamos listos para enunciar y demostrar el teorema de descomposición polar en el caso de matrices invertibles.

Teorema (De descomposición polar, caso invertible). Sea $A\in M_n(\mathbb{R})$ una matriz invertible. Entonces existe una única pareja $(U,S)$ con $U$ una matriz ortogonal y $S$ una matriz simétrica positiva definida para la que se cumple que $A=US$.

Demostración. Tomemos $A\in M_n(\mathbb{R})$ una matriz invertible. La matriz $^tAA$ es simétrica y positiva definida. Por la discusión anterior, existe una única matriz simétrica positiva definida $S$ tal que $^tAA=S^2$. Como $A$ es invertible, $S$ también lo es, así que definamos $$U=AS^{-1}.$$

Afirmamos que $(U,S)$ cumplen con lo requerido. Ya justificamos que $S$ es simétrica positiva definida. Además, de $U=AS^{-1}$ se obtiene inmediatamente $US=A$. Sólo falta verificar que $U$ es ortogonal. Para ello, al multiplicarla con su transpuesta obtenemos lo siguiente:
\begin{align*}
^tUU&=\hspace{.5mm}^tS^{-1}\hspace{.5mm}^tAAS^{-1}\\
&=S^{-1}S^2S^{-1}\\
&=I_n.
\end{align*}

Veamos ahora la unicidad. Supongamos que $A=U’S’$ con $U’$ ortogonal y $S’$ simétrica positiva definida, Entonces
$$^tAA=S’\hspace{.5mm}^tU’U’S’={S’}^2.$$

De esta manera, $S’$ es precisamente la raíz cuadrada de $^tAA$, que por la discusión anterior es única. Deducimos entonces que $S’=S$ y por lo tanto $U’=A{S’}^{-1}=AS^{-1}=U$.

$\square$

Caso general del teorema de descomposición polar

Es natural preguntarse qué sucede cuando la matriz $A$ no es invertible. Resulta que en ese caso aún podemos encontrar una descomposición, aunque perdemos un poco de las propiedades de las matrices y la unicidad. Por ejemplo, si $A=O_n$, entonces $A=UO_n$ para cualquier matriz ortogonal $U$ y entonces tenemos muchas posibles descomposiciones.

Teorema (De descomposición polar, caso general). Cualquier matriz $A\in M_n(\mathbb{R})$ se puede escribir de la forma $A=US$ con $U$ una matriz ortogonal y $S$ una matriz simétrica positiva.

¿Por qué falla nuestra demostración? Todavía tenemos que $^tAA$ es positiva, así que podríamos tomar una raíz cuadrada $S$. El problema es que como $A$ no es invertible, entonces $S$ tampoco lo es. Por ello, no podemos definir $U=AS^{-1}$ como lo hicimos con anterioridad. Sin embargo, podemos ser astutos y «cambiar tantito» a $A$ para que sí se vuelva invertible. De hecho, podemos tomar muchas matrices que se acercan a $A$ y sí son invertibles. Con ello podemos usar un «argumento al límite». Formalicemos estas ideas.

Demostración. Consideremos las matrices $A_k=A+\frac{1}{k}I_n$. Recordemos que $\det(A+\lambda I_n)$ es un polinomio de grado $n$ así que tiene a lo más $n$ raíces. Por ello, existe un $k_0$ tal que para toda $k>k_0$ la matriz $A_k$ es invertible. Al aplicar el teorema de descomposición polar a cada una de dichas $A_k$, obtenemos una matriz ortogonal $U_k$ y una simétrica positiva definida $S_k$ tales que

$$A_k=U_kS_k.$$

Las entradas de cada $U_k$ cumplen que están en el intervalo $[-1,1]$ (pues la suma de las entradas de cada fila es igual a $1$). Así, $U_k$ es una sucesión de matrices en el compacto de matrices con entradas $[-1,1]$. En un compacto toda sucesión tiene una subsucesión convergente, así que podemos elegir una subsucesión de estas matrices, digamos $U_{k_1}, U_{k_2},\ldots$ que converge a una matriz $U$.

Se puede ver que el producto de matrices es continúo y obtener inversas de matrices también es continuo (por ejemplo, por las fórmulas de inversa por matriz de adjuntos). De este modo, aplicando límite $j\to \infty$ a la igualdad $^tU_{k_j}U_{k_j}=I_n$ obtenemos que $^tU=I_n$, de modo que $U$ es ortogonal.

Del mismo modo, como trasponer es continuo, $S_{k_1}, S_{k_2},\ldots$ converge a una matriz simétrica $S$. Finalmente, usando nuevamente la continuidad del producto de matrices obtenemos

\begin{align*}
A&=\lim_{j\to \infty} A_{k_j}\\
&=\lim_{j\to \infty} U_{k_j} S_{k_j}\\
&=US.
\end{align*}

Sólo nos falta demostrar que $S$ es positiva, pero si tomamos $X\in\mathbb{R}^n$, entonces pasando al límite $j\to \infty$ en la desigualdad $^tXS_{k_j}X > 0$ obtenemos $^tXSX\geq 0$. Aquí es donde se podría perder que $S$ es positiva definida, pero seguimos teniendo que $S$ es positiva.

$\square$

Más adelante…

Tanto el teorema espectral como el teorema de descomposición polar son resultados de caracterización fundamentales en álgebra lineal y finalmente nos dan una respuesta a la pregunta de, geométricamente, cómo son todas las posibles transformaciones lineales. En las siguientes secciones se esbozarán los resultados análogos para el caso complejo.

Después de ello, en la cuarta unidad del curso cubriremos otro teorema que nos permitirá decir «cómo son todas las matrices». Quizás no todas las matrices sean directamente similares a una matriz diagonal. Pero enunciaremos y demostraremos el teorema de Jordan que dirá que cualquier matriz es similar a una «casi diagonal», a la que llamaremos diagonal por bloques.

Tarea moral

  1. Sean que $A$ y $B$ son matrices simétricas. Demuestra que $A$ y $B$ conmutan si y sólo si existe una misma matriz $P$ tal que $PAP^{-1}$ y $PBP^{-1}$ son diagonales (a esto se le conoce como que $A$ y $B$ sean «simultáneamente diagonalizables»)
  2. Usando el ejercicio anterior, demuestra que si $A$ es simétrica positiva definida, y se cumple $B^2=A=C^2$ con $B$ y $C$ matrices simétricas positivas definidas, entonces $B=C$.
  3. Sean $A,B\in M_n(\mathbb{R})$ matrices tales que $^tAA=^tBB$. Demuestra que existe una matriz ortogonal $U\in M_n(\mathbb{R})$ tal que $B=UA$.
  4. Encuentra la descomposición polar de $$\begin{pmatrix}
    11 & -5\\
    -2 & 10 \end{pmatrix}.$$
  5. Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: El teorema espectral real

Por Ayax Calderón

Introducción

Por lo que estudiamos en la primera parte de este curso, ya sabemos cuándo una matriz arbitraria es diagonalizable. Lo que haremos ahora es enunciar y demostrar el teorema espectral en el caso real. Una de las cosas que nos dice es que las matrices simétricas reales son diagonalizables. Pero nos dice todavía más. También nos garantiza que la manera en la que se diagonalizan es a través de una matriz ortogonal. Esto combina mucho de la teoría que hemos cubierto. Además, gracias al teorema espectral podremos, posteriormente, demostrar el famoso teorema de descomposición polar que nos dice cómo son todas las matrices.

El lema de eigenvalores de matrices simétricas

Comencemos enunciando algunas propiedades que tienen las matrices y transformaciones simétricas. El primero habla de cómo son los eigenvalores de las matrices simétricas.

Lema. Sea $A\in M_n({\mathbb{R}})$ una matriz simétrica. Entonces todas las raíces del polinomio característico de $A$ son números reales.

Demostración. Tomemos $A\in M_n(\mathbb{R})$ y sea $\lambda$. Su polinomio característico está en $\mathbb{R}[x]$, así que por el teorema fundamental del álgebra todas sus raíces están en $\mathbb{C}$. Sea $t$ una raíz del polinomio característico de $A$.

Pensemos a $A$ como un elemento de $M_n(\mathbb{C})$. Como $\det (tI_n-A)=0$, entonces $t$ es eigenvalor y por lo tanto hay un eigenvector $X\in\mathbb{C}^n$ no nulo tal que $AX=tX$. Como el vector tiene entradas complejas, lo podemos escribir como $X=Y+iZ$ para dos vectores $Y,Z\in \mathbb{R}^n$. Así mismo, podemos escribir a $t$ como $t=a+ib$ con $a$ y $b$ números reales.

Con esta notación, de la igualdad $AX=tX$ se sigue que

\begin{align*}
AY+iAZ&=AX\\
&=(a+ib)(Y+iZ)\\
&=aY-bZ+i(aZ+bY).
\end{align*}

Igualando las partes imaginarias y las partes reales obtenemos que

\begin{equation}\label{1}
AY=aY-bZ, \hspace{4mm} AZ=aZ+bY.
\end{equation}

Usemos ahora que $A$ es simétrica. Tenemos que
\begin{equation}\label{2}
\langle AY,Z \rangle=\langle Y, AZ \rangle.
\end{equation}

Sustituyendo la primera igualdad de \eqref{1} en el lado izquierdo de \eqref{2}, y la segunda igualdad de \eqref{1} en el lado derecho de \eqref{2}, obtenemos que:

\begin{equation*}
\langle aY-bZ,Z \rangle=\langle Y, aZ+bY \rangle,
\end{equation*}

y usando la linealidad del producto interior, se obtiene que

\begin{equation*}
a\langle Y,Z \rangle – b\langle Z,Z\rangle =a\langle Y, Z \rangle + b \langle Y , Y \rangle.
\end{equation*}

Se sigue que
$$b(||Y||^2+||Z||^2)=0$$ y como $Y$ o $Z$ es distinto de cero (de lo contrario tendríamos que $X=0$), entonces concluimos que $b=0$ y con ello que $t$ es un número real.

$\square$

El lema de estabilidad de transformaciones simétricas

El segundo lema que veremos nos dice qué sucede cuando una transformación lineal es simétrica y tomamos un subespacio estable bajo ella. Recuerda que un subespacio $W$ de un espacio vectorial $V$ es estable bajo una transformación lineal $T:V\to V$ si $T(W)\subseteq W$.

Lema. Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal simétrica sobre $V$. Sea $W$ un subespacio de $V$ estable bajo $T$. Entonces

  1. $W^\bot$ también es estable bajo $T$.
  2. Las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales simétricas sobre estos espacios.

Demostración.

1. Tomemos $x\in W^\bot$. Nos gustaría ver que $T(x)\in W^\bot$. Para ello, tomemos $y\in W$. Como $W$ es estable bajo $T$, tenemos $T(y)\in W$. Como $x\in W^\bot$, tenemos que $\langle x,T(y) \rangle =0$. Usando esto y la simetría de $T$, obtenemos entonces
$$\langle T(x),y \rangle = \langle x,T(y) \rangle=0,$$
que es lo que queríamos probar.

2. Sea $T|_W$ la restricción de $T$ a$W$. Para $x,y\in W$ tenemos que
$$\langle T|_W(x),y \rangle=\langle T(x),y \rangle=\langle x,T(y) \rangle =\langle x,T|_W(y) \rangle ,$$ por lo tanto $T|_W$ es simétrica sobre $W$. Análogamente se ve que el resultado se cumple para $W^\bot$.

$\square$

El teorema espectral real

Con los dos lemas anteriores podemos ahora sí enfocarnos en demostrar el teorema principal de esta entrada.

Teorema (el teorema espectral real). Sea $V$ un espacio euclidiano y $T:V\to V$ una transformación lineal simétrica. Entonces existe una base ortonormal de $V$ conformada por eigenvectores de $T$.

Demostración. Procederemos por inducción fuerte sobre $n=\dim V$. Si $n=1$, entonces el polinomio característico de $T$ es de grado $1$ y tiene coeficientes reales, por lo que tiene una raíz real $t$. Si $v$ es un eigenvector de $T$ con eigenvalor $t$, entonces $\frac{v}{||v||}$ también es eigenvector de $T$ y forma una base ortonormal de $V$. Esto termina el caso $n=1$.

Ahora supongamos que el resultado se satisface hasta dimensión $n-1$ y tomemos $V$ de dimensión $n$. Sea $B=\{e_1,e_2,\dots e_n\}$ una base ortonormal de $V$. Sea $A$ la matriz asociada a $T$ con respecto a $B$. Como $T$ es simétrica, entonces $A$ también lo es. Su polinomio característico no es constante, de modo que por el teorema fundamental del álgebra tiene por lo menos una raíz $t$, y por el primer lema de la sección anterior, se tiene que $t$ es real y por lo tanto es un eigenvalor.

Sea $W=\ker (t\text{id} -T)$ el $t$-eigenespacio de $T$. Si $W=V$, entonces $T=t\text{id}$ y así $B$ es una base ortonormal de $V$ compuesta por eigenvectores de $T$. De otro modo, $W\neq V$ y por lo tanto $k:=\dim W<n$. Tenemos que $V=W\oplus W^\bot$ y sabemos que los eigenespacios son estables bajo la transformación correspondiente. Así, por el segundo lema de la sección anterior $W^\bot$ también es estable bajo $T$ y la restricción de $T$ a $W^\bot$ es simétrica.

Podemos entonces aplicar la hipótesis inductiva a $T_{|W^\bot}$ para encontrar una base ortonormal $C=\{f_1^\bot,f_2^\bot\dots,f_{n-k}^\bot\}$ de $W^\bot$ compuesta por eigenvectores de $T$. Escogiendo una base ortonormal $D=\{f_1,f_2,\dots,f_k\}$ de $W$ (que automaticamente está formada por eigenvectores de $T$). La base $C\cup D$ de $V$ es entonces la base de eigenvectores que buscábamos.

$\square$

El teorema espectral también puede enunciarse en términos de matrices. Hacemos esto a continuación.

Observación. Si $A\in M_n(\mathbb{R})$ es una matriz simétrica, entonces la transformación lineal $T:X\mapsto AX$ sobre $\mathbb{R}^n$ es simétrica. Aplicando el teorema anterior, podemos encontrar una base ortonormal de $V$ con respecto a la cual la matriz asociada a $T$ es diagonal. Como la base canónica de $V$ es ortonormal, y como la matriz de cambio de pase entre dos bases ortonormlaes es ortogonal, obtenemos el siguiente resultado fundamental.

Teorema (el teorema espectral para matrices reales). Sea $A\in M_n(\mathbb{R})$ una matriz simétrica. Entonces $A$ es diagonalizable y, más específicamente, existen una matriz ortogonal $P\in M_n(\mathbb{R})$ y una matriz diagonal $D\in M_n(\mathbb{R})$ tales que $$A=P^{-1}DP.$$

Así, $A$ es simultáneamente, mediante una misma matriz $P$, tanto similar como congruente a una matriz diagonal.

Aplicación a caracterizar las matrices simétricas positivas

Ya hemos dado algunas caracterizaciones para las matrices simétricas positivas. Veamos algunas caracterizaciones adicionales.

Teorema. Sea $A\in M_n(\mathbb{R})$ una matriz simétrica. Entonces las siguientes afirmaciones son equivalentes:

  1. $A$ es positiva.
  2. Todos los eigenvalores de $A$ son no negativos.
  3. $A=B^2$ para alguna matriz simétrica $B\in M_n(\mathbb{R})$.
  4. $A=\hspace{.5mm}^tCC$ para alguna matriz $C\in M_n(\mathbb{R})$.

Demostración. 1) implica 2). Supongamos que $A$ es positiva y que $t$ es un eigenvalor de $A$ con eigenvector $v$. Como $Av=tv$, obtenemos que

\begin{align*}
t||v||^2&= t\langle v,v \rangle\\
&= \langle v, tv \rangle\\
&= \langle v, Av \rangle\\
&= \hspace{.5mm}^tvAv\\
&\geq 0,
\end{align*}
por lo tanto $t\geq 0$.

2) implica 3). Sean $t_1,\dots, t_n$ todas las raíces del polinomio característico de $A$, escritos con su multiplicidad correspondiente. Por el primer lema de la sección anterior, todos ellos son reales, y estamos suponiendo que son no negativos. Por el teorema espectral podemos encontrar una matriz $P$ y una diagonal $D$ tal que $A=P^{-1}DP$, y por lo que vimos de teoría de diagonalización, $D$ precisamente tiene como entradas en su diagonal a $t_1,t_2,\dots,t_n$. Sea $D’$ la matriz diagonal con entradas $c_i=\sqrt{t_i}$ y sea $B=P^{-1}D’P$. Como $P$ es ortogonal, $B$ es simétrica

Y además, por construcción, $B^2=P^{-1}{D’}^2P=P^{-1}DP=A$, como queríamos.

3) implica 4). Basta con tomar la matriz $B$ de (3) y tomar $C=B$. Como $B$ es simétrica, $A=B^2=\hspace{.5mm}^tBB$.

4) implica 1). Esto ya lo habíamos demostrado en un resultado anterior de caracterización de matrices simétricas.

$\square$

Más adelante…

Hemos enunciado y demostrado el teorema espectral. Lo que nos dice es muy interesante: una matriz simétrica básicamente consiste en cambiar de base a una base muy sencilla $e_1,\ldots,e_n$ (ortonormal) a traves de la matriz $P$. Luego, en esa base pasa algo muy simple: en la dirección de $e_i$, simplemente alargamos de acuerdo al eigenvalor $\lambda_i$.

Como consecuencia, veremos en la siguiente entrada que esto nos permite entender no sólo a las matrices simétricas, sino a todas, todas las matrices. Al teorema que veremos a continuación se le conoce como el teorema de descomposición polar.

Tarea moral

  1. La matriz $\begin{pmatrix} \sin \theta & \cos \theta \\ \cos \theta & \sin\theta \end{pmatrix}$ es real y simétrica, de modo que es diagonalizable. ¿Cuál es su diagonalización?
  2. Da un ejemplo de una matriz simétrica con coeficientes complejos que no sea diagonalizable.
  3. Sea $T$ una transformación lineal sobre un espacio euclidiano $V$, y supón que $V$ tiene una base ortonormal conformada por eigenvectores de $T$. Demuestra que $T$ es simétrica (por lo que el recíproco del teorema espectral se satisface).
  4. Considera la matriz $$A=\begin{pmatrix}
    1 & -2 & -2\\
    -2 & 1 & -2\\
    -2 & -2 &1\end{pmatrix}.$$
    Explica por qué $A$ es diagonalizable en $M_n(\mathbb{R})$ y encuentra una matriz $P$ tal que $P^{-1}AP$ es diagonal.
  5. Adapta el teorema de caracterización de matrices positivas visto en esta entrada a una versión para matrices positivas definidas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Probabilidad I-Videos: Continuidad de la probabilidad

Por Aurora Martínez Rivas

Introducción

En el video de axiomas de la probabilidad y sus propiedades se dio la definición de medida de probabilidad, así como algunas propiedades básicas que podíamos deducir de dicha definición. En esta ocasión abordaremos otra propiedad que nos será muy útil en los temas siguientes, esta, es conocida como la propiedad de continuidad de la probabilidad.

Continuidad de la probabilidad

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE 104721: “Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM”. Sitio web del proyecto: https://www.matematicasadistancia.com.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra que los incisos $a$ y $b$ de la proposición vista en el video son equivalentes, para esto solo te hace falta probar que el inciso $b$ también implica el inciso $a$.
  • Sea $A_r,\ r\geq 1$, eventos tales que, para toda $r$, $P\left(A_r\right)=1$. Demuestra que $P\left(\displaystyle\bigcap_{r=1}^{\infty}A_r\right)=1$.
  • Una moneda justa se lanza repetidamente. Demuestra que, con probabilidad uno, una cara se muestra tarde o temprano. Demuestra de manera similar que cualquier sucesión finita dada de caras y cruces ocurre eventualmente con probabilidad uno.
  • Teorema de probabilidad total. Demuestra que si $B_1,B_2,\ldots$ es una partición de $\Omega$, entonces para cualquier evento $A$ se cumple que

$P\left(A\right)=\displaystyle\sum_{i=1}^{\infty}{P\left(A\middle|\ B_i\right)P(B_i)}$.

  • Teorema de Bayes. Demuestra que si $B_1,B_2,\ldots$ es una partición de $\Omega$ y sea $A$ un evento tal que $P\left(A\right)\neq 0$ entonces para cada $j=1,2,\ldots$

$P\left(B_j\middle|A\right)=\frac{P\left(A\middle|B_j\right)P\left(B_j\right)}{\displaystyle\sum_{i=1}^{\infty}{P\left(A\middle|B_i\right)P\left(B_i\right)}}$.

Más adelante…

Este resultado proporciona una herramienta para tratar las propiedades correspondientes a la descripción de las probabilidades asociadas a cantidades que se rigen por la aleatoriedad, cuyas funciones están definidas en el espacio de probabilidad y que llamaremos variables aleatorias.

Te invito a ver el siguiente video para saber más sobre este tema.

Entradas relacionadas

Probabilidad I-Videos: Teorema de Bayes

Por Aurora Martínez Rivas

Introducción

En este video enunciaremos el teorema de Bayes, el cual hace uso del Teorema de probabilidad total, para brindarnos otra herramienta en la determinación de probabilidades de eventos en los que se busca condicionar al espacio muestral para un cálculo más sencillo.

Teorema de Bayes

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE 104721: “Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM”. Sitio web del proyecto: https://www.matematicasadistancia.com.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra directamente que

$\\ P(E|F)=P(E|FG)P(G|F)+P(E|FG^{c})P\left(G^{c}|F\right)$.

  •  Demuestra que, para cualquier evento $A$ y $B$,

$\\ P(A|A\cup B)\geq P(A|B)$.

  • Demuestra que si $A_{i}$, $i\geq 1$ son eventos mutuamente excluyentes de un experimento. entonces

$\\ P\left(A_j\middle|\displaystyle\bigcup_{i=1}^{\infty}A_i\right)=\frac{P\left(A_j\right)}{\displaystyle\sum_{i=1}^{\infty}A_i}$.

  • Tres jugadores lanzan monedas simultáneamente. La moneda lanzada por $A$ sale cara con probabilidad $P_{1}$, la moneda lanzada por $B$ sale cara con probabilidad $P_{2}$ y la moneda lanzada por $C$ sale cara con probabilidad $P_{3}$. Si una persona obtiene un resultado diferente al de las otras dos, entonces él es el extraño. Si no hay un hombre extraño, los jugadores lanzan de nuevo y continúan haciéndolo hasta que obtienen un hombre extraño. ¿Cuál es la probabilidad de que $A$ sea el extraño?.
  • Hay 3 monedas en una caja. Una es una moneda de dos caras, otra es una moneda justa y la tercera es una moneda sesgada que sale cara el 75% de las veces. Cuando una de las 3 monedas es selecciona al azar y lanzada, esta muestra cara. ¿Cuál es la probabilidad de que la monera seleccionada fuera la moneda de dos caras?

Más adelante…

El teorema de Bayes puede utilizarse para calcular fácilmente la probabilidad condicional de eventos en los que la intuición comúnmente falla, nos ayuda a describir la probabilidad de un evento basado en el conocimiento previo de las condiciones que podrían estar relacionadas con dicho evento.

Es momento, de comenzar a tratar ciertas funciones dentro de un espacio de probabilidad, para esto es necesario abordar otra propiedad importante que cumple una medida de probabilidad, esta es, la propiedad de continuidad.  

Entradas relacionadas