Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Álgebra Moderna I: Misma Estructura Cíclica, Permutación Conjugada y Polinomio de Vandermonde

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

Anteriormente en nuestro curso, definimos una caracterización única para las permutaciones, aprendimos que la factorización completa es única salvo por el orden de los factores. Ahora, podemos analizar a los ciclos que aparecen en dicha factorización completa.

La unicidad de la factorización completa nos asegura que la cantidad de ciclos que la conforman y la longitud de éstos no van a cambiar sin importar la factorización que escojamos. Estudiar estas propiedades de la factorización completa motiva la definición de estructura cíclica y de permutación conjugada, dos definiciones centrales de esta entrada.

Además de la factorización completa, existen otras maneras de descomponer a las permutaciones. Intuitivamente, podemos pensar a las permutaciones como reacomodos, entonces es posible llegar a cualquier acomodo intercambiando elementos de dos en dos, es decir podemos reacomodar los números de $1$ a $n$ como queramos mediante intercambios dos a dos.

Se verá que toda permutación se descompone siempre como un producto de una cantidad par de intercambios, o siempre con una cantidad impar de intercambios. Para ello seguiremos el enfoque presentado en el libro de Herstein, al igual que en el libro Grupos I de Avella, Mendoza, Sáenz y Souto, y en el libro de Dummit mencionados en la bibliografía, en los que se introduce un polinomio en varias indeterminadas llamado el polinomio de Vandermonde.

Misma Estructura Cíclica

Recordemos que toda permutación se puede factorizar en una factorización completa y que toda factorización completa es única salvo por el orden de sus factores. Entonces la cantidad de ciclos y su longitud no va a cambiar, independientemente de la factorizacoón completa que escojamos. Esto motiva la siguiente definición.

Definición. Sean $\alpha, \beta \in S_n$. Decimos que $\alpha$ y $\beta$ tienen la misma estructura cíclica si su factorización completa tiene el mismo número de $r-$ciclos para toda $r \in \z^+$.

Ejemplo.

En $S_9$, tomemos $\alpha$ y $\beta$ como sigue

\begin{align*}
\alpha &= (2 \; 4 \; 7 \; 9)(1 \; 3)(5 \; 6)(8)\\
\beta &= (2 \; 4)(1 \; 5 \; 8 \; 9)(3 \; 7)(6).
\end{align*}

Claramente, $\alpha$ y $\beta$ tienen la misma estructura cíclica, ya que ambas están formadas por un $4-$ciclo, dos transposiciones y un $1$-ciclo.

Permutación Conjugada

Definición. Sean $\alpha, \beta \in S_n$. Decimos que $\beta$ es conjugada de $\alpha$ si existe $\gamma \in S_n$ tal que $\beta = \gamma \alpha \gamma^{-1}$.

Ejemplo.

Tomemos $\gamma = (1 \; 2 \; 3)$. Entonces $\gamma = (1\;2\;4)$ y $\alpha = (3 \; 5 \; 6 \; 8)$. Luego, podemos calcular a $\beta$ como sigue,

\begin{align*}
\gamma\alpha\gamma^{-1} &= (1 \; 2 \; 3)(3 \; 5 \; 6 \; 8)(1 \; 3 \; 2) \\
& = (1 \; 5 \; 6 \; 8) = \beta.
\end{align*}

Así, $\beta = (1 \; 5 \; 6 \; 8)$ es conjugada de $(1 \; 5 \; 6 \; 8) = \alpha$.

Podemos observar que si consideramos la relación en $S_n$ dada por $\alpha \sim \beta$ si y sólo si $\alpha$ es conjugada de $\beta$, es una relación de equivalencia. Aquí no lo demostraremos, pero queda como tarea moral. Aunque no es evidente en primera instancia, el hecho de que dos permutaciones sean conjugadas puede analizarse a partir de la estructura cíclica que tienen. En la tarea moral hay ejercicios relacionados con ello.

¿A qué nos referimos con reacomodos?

Vimos que toda permutación se puede descomponer en ciclos disjuntos y, bajo condiciones específicas, esta descomposición es única salvo por orden de factores. Sin embargo, hay otras maneras de descomponer a una permutación, las podemos pensar a las permutaciones como reacomodos. Es claro que podemos llegar a cualquier reacomodo intercambiando los elementos de 2 en 2.

A continuación, ilustramos esto con un ejemplo.

Tomemos $\sigma = (1 \; 2 \; 3 \; 4 \; 5)$, en esta permutación los números $1,2,3,4$ y $5$ cambian ya que el $1$ va a dar a $2$, el $2$ al $3$, etc., así que si reacomodamos los números $1,2,3,4,5$ de acuerdo a lo que nos indica $\sigma,$ en vez la lista $1\;2\;3\;4\;5$ tendremos ahora la lista $2\;3\;4,5\;1.$ Entonces nos preguntamos, ¿cómo podemos llegar de la lista $1\;2\;3\;4\;5$ a la lista $2\;3\;4\;5\;1$ sólo mediante intercambios dos a dos?

Primero, observemos que lo único que tenemos que hacer es pasar el 1 hasta el final. Luego, tomemos en cuenta que nuestra propuesta es intercambiar los elementos de dos en dos. Así, el proceso es el siguiente:

Referencia visual del reacomodo.
  1. Intercambiamos 1 y 2, así nuestra lista quedaría $2 \; 1 \; 3 \; 4 \; 5.$ Observemos que el 2 ya queda en la posición deseada.
  2. Sobre el resultado anterior, intercambiamos 1 y 3. Hasta el momento tenemos el reacomodo $2 \; 3 \; 1 \; 4 \; 5$.
  3. Ahora, nos toca intercambiar 1 y 4. Así obtenemos $2 \; 3 \; 4 \; 1 \;5.$
  4. Por último, nos queda acomodar el último número, así que intercambiamos 1 y 5.

Al final, llegamos al reacomodo buscado. Esto nos indica que para permutar los números $1,2,3,4$ y $5$ de acuerdo a $\sigma$ basta con intercambiar el uno con el dos, luego el uno con el tres, después el uno con el cuatro y finalmente el uno con el cinco. En otras palabras, la permutación sigma se obtiene de aplicar sucesivamente las transposiciones $(1 \; 2)$, $(1 \; 3)$, $(1 \; 4)$ y $(1 \; 5)$. Debido a que escribimos la composición de permutaciones de derecha a izquierda, nuestra sigma quedaría de la siguiente manera:

$$\sigma = (1 \; 2 \; 3 \; 4 \; 5) = (1 \; 5) (1 \; 4) (1 \; 3) (1 \; 2).$$

Este ejemplo nos ilustra cómo podemos descomponer un ciclo como producto de transposiciones. Probaremos esto en el caso general, y dado que toda permutación es un producto de ciclos y cada ciclo se puede descomponer en producto de transposiciones, entonces podremos concluir que toda permutación es un producto de transposiciones.

Teorema. La siguiente igualdad de conjuntos se cumple,

$$S_n = \left< \{\tau \in S_n | \tau \text{ es una transposición} \} \right>.$$

Demostración.

Como toda permutación es un producto de ciclos, basta ver que todo ciclo es un producto de transposiciones. Así,

\begin{align*}
(i_1 \; \cdots \; i_r) = (i_1 \; i_r) \cdots (i_1\; i_3)(i_1 \; i_2).
\end{align*}

Por lo tanto $S_n = \left< \{ \tau \in S_n | \tau \text{ es una transposición} \}\right>$.

$\square$

El polinomio de Vandermonde

Hemos probado que toda permutación se puede expresar como un producto de transposiciones, esto es importante porque las transposiciones son permutaciones muy sencillas, sin embargo estas descomposiciones no son únicas, pueden cambiar los factores que aparecen, su orden e incluso en el número de factores que presentan. A pesar de ello siempre tienen un número par o siempre un número impar de transposiciones. Con el fin probar este resultado introduciremos un polinomio con distintas indeterminadas que permutaremos usando permutaciones, para lo cual consideraremos polinomios en varias indeterminadas, que serán permutadas por los elementos del grupo simétrico.

Definición. Sea $P(x_1, \dots, x_n)$ un polinomio en las indeterminadas $x_1, \dots, x_n$ con coeficientes enteros y $\alpha \in S_n$. El polinomio $\alpha P$ se define como

\begin{align*}
\alpha P(x_1,\dots,x_n) = P(x_{\alpha(1)},\dots,x_{\alpha(n)}).
\end{align*}

Ejemplo.

Consideremos el polinomio $P(x_1,x_2,x_3,x_4,x_5) =-3x_1x_2+x_3x_5^2+x_1x_2x_3x_4x_5$ y $\alpha =(1\, 2\, 3)(4\, 5)$. Entonces

\begin{align*}
\alpha P(x_1,x_2,x_3,x_4) = &(1\, 2\, 3)(4\, 5) P(x_1,x_2,x_3,x_4) \\
=&-3x_{\alpha(1)}x_{\alpha(2)}+x_{\alpha(3)}x_{\alpha(5)}^2+x_{\alpha(1)}x_{\alpha(2)}x_{\alpha(3)}x_{\alpha(4)}x_{\alpha(5)}\\=&-3x_2x_3+x_1x_4^2+x_2x_3x_1x_5x_4.\end{align*}

Definición. El polinomio de Vandermonde en las indeterminadas $x_1, \dots, x_n$ con coeficientes enteros es

\begin{align*}
V(x_1,\dots,x_n) = \prod_{1 \leq i < j \leq n}(x_i – x_j).
\end{align*}

Dado $\alpha \in S_n$, el $\alpha-$polinomio de Vandermonde es $\alpha P$, es decir:

\begin{align*}
\alpha \; V(x_1, \dots, x_n) = \prod_{1 \leq i < j \leq n}(x_{\alpha(i)} – x_{\alpha(j)}).
\end{align*}

Ejemplo.

Consideremos,

\begin{align*}
V(x_1,x_2,x_3,x_4) = & (x_1 – x_2)(x_1 – x_3)(x_1 – x_4) \\
& (x_2 – x_3) (x_2 – x_4)(x_3-x_4).
\end{align*}

Calculemos ahora $(2 \; 4) \, V(x_1,x_2,x_3,x_4)$. Observemos que los únicos factores de $V$ que cambian son aquellos donde aparece el subíndice $2$ o el $4$, y éstos se intercambian, por ejemplo el factor $ (x_1 – x_2)$ cambiará al factor $ (x_1 – x_4)$. Así

\begin{align*}
(2 \; 4) \, V(x_1,x_2,x_3,x_4) = &(x_1 – x_4)(x_1 – x_3)(x_1-x_2)\\
&(x_4-x_3)(x_4 – x_2)(x_3-x_2) \\
= & \,- V(x_1,x_2,x_3,x_4).
\end{align*}

Observación 1. Dado que cada factor del polinomio de Vandermonde se queda igual o cambia de signo, sólo pueden suceder dos cosas, $\alpha V = V$ ó $\alpha V = – V$ para todo $\alpha \in S_n$, de acuerdo a si hay un número impar de cambios de signo o si hay un número par de cambio de signo.

Observación 2. Sea $\alpha\in S_n$. Tenemos que $ \alpha (- V) =-\alpha V$.

Observación 3. Sean $\alpha, \beta \in S_n$. Tenemos que $ \alpha (\beta V) =(\alpha\beta)V$.

Demostración.

Sea $\alpha \in S_n$. Tenemos que:

\begin{align*}\alpha (\beta V(x_1, \dots, x_n))=&\alpha V(x_{\beta(1)}, \dots, x_{\beta(n)})= V(x_{\alpha(\beta(1))}, \dots, x_{\alpha(\beta(n))})\\=&V(x_{(\alpha\beta)(1)}, \dots, x_{(\alpha\beta)(n)})=(\alpha\beta)V(x_1, \dots, x_n).\end{align*}

$\square$

Vandermonde y las Transposiciones

Veamos cuál es el efecto que tienen dos permutaciones sobre un polinomio. Primero analizaremos qué efecto tienen las transposiciones en el polinomio de Vandermonde. Seguiremos para ello la idea del libro de Dummit que se menciona en la bibliografía, veremos primero qué efecto tiene la transposición $(1\; 2)$, y con ello entenderemos qué efecto tienen el resto de las transposiciones.

Lema. Sea $\tau \in S_n$ una transposición. Entonces $\tau V = -V$.

Demostración.

Caso 1: $\tau=(1\; 2)$.

Al aplicar $\tau$ a $V$ los factores $x_i-x_j$ con $i,j\notin \{1,2\}$ se preservan, mientras que el factor $x_1-x_2$ cambia a $x_2-x_1$ provocando un cambio de signo. Por otro lado los factores $x_1-x_j$ con $j\in\{3,\dots ,n\}$ y los factores $x_2-x_j$ con $j\in\{3,\dots ,n\}$ no producen cambios de signo. Concluimos entonces que sólo un factor produce un cambio de signo y así $(1\; 2) V=-V.$

Caso 2: $\tau\neq(1\; 2)$. Es decir, $\tau =(1\; l)$ con $l\in\{3,\dots ,n\}$, o $\tau =(2\; l)$ con $j\in\{3,\dots ,n\}$, o bien $\tau =(k\; l)$ con $k,j\notin\{1,2\}.$

Notemos que \begin{align*}(2\; l)(1\; 2)(2\; l)&=(1\, l)\text{ , para } l\in\{3,\dots ,n\},\\ (1\; l)(1\; 2)(1\; l)&=(2\, l)\text{ , para } l\in\{3,\dots ,n\},\\(1\; k)(2\; l)(1\; 2)(1\;k)(2\; l)&=(k\, l)\text{ , para } k,j\notin\{1,2\}.\end{align*} Así, siempre existe $\alpha \in S_n$ tal que $\alpha (1\; 2) \alpha =\tau$.

Si $\alpha V=V$, tenemos que $$\tau V=(\alpha(1\; 2)\alpha)V=(\alpha ((1\; 2)(\alpha V)))=(\alpha ((1\; 2) V))=\alpha (-V)=-\alpha V=-V.$$

Si $\alpha V=-V$, tenemos que $$\tau V=(\alpha(1\; 2)\alpha)V=(\alpha ((1\; 2)(\alpha V)))=(\alpha ((1\; 2) (-V))=\alpha V=-V.$$

$\square$

Teoremas importantes

Teorema. Sean $r\in\mathbb{Z}^+$ y $\alpha = \tau_1 \cdots \tau_r \in S_n$, $\tau_1, \dots, \tau_r$ transposiciones. Entonces

$$\alpha V = (-1)^r \,V.$$

Demostración. Por inducción sobre $r$.

Base de inducción: Supongamos que $r = 1$.
Entonces, desarrollando $\alpha V$ y usando el lema previo obtenemos

\begin{align*}
\alpha V &= \tau_1 V\\
&= -V = (-1)^1 V & \text{ Por el Lema anterior.}
\end{align*}

Así, se cumple la proposición para al caso base.

Ahora, sea $r > 1$.
Hipótesis de Inducción: Supongamos que el resultado se cumple para el producto de $r-1$ transposiciones.

P.D. $\alpha V = (-1)^r V$.

Desarrollando $\alpha V$ y usando el lema previo, obtenemos:

\begin{align*}
\alpha V &= (\tau_1 \, \tau_2 \cdots \tau_r) V\\
&= ((\tau_1 \, \tau_2 \cdots \tau_{r-1})\tau_r) V & \text{Agrupamos}\\
&= (\tau_1 \cdots \tau_{r-1})(\tau_r V) &\text{Observación 3}\\
&= (\tau_1 \cdots \tau_{r-1})(- V) &\text{Lema anterior}\\
&= -(\tau_1 \cdots \tau_{r-1}) V &\text{Observación 2.}
\end{align*}

Ahora, como $\tau_2 \cdots \tau_r$ tiene $r-1$ transposiciones, podemos aplicar la hipótesis de inducción y continuar con las igualdades.

\begin{align*}
-(\tau_2 \cdots \tau_r) V = -(-1)^{r-1} V = (-1)^r \,V.
\end{align*}

Así, demostramos lo deseado.

$\square$

Teorema. Sean $r,t\in\mathbb{Z}^+$, $\alpha = \tau_1 \cdots \tau_r = \rho_1 \cdots \rho_t \in S_n$, con $\tau_1, \cdots, \tau_r$, $\rho_1, \cdots, \rho_t$ transposiciones. Entonces $r$ y $t$ tienen la misma paridad.

Demostración.
Por el teorema anterior, obtenemos:

\begin{align*}
\alpha V = (\rho_1 \cdots \rho_t) V = (-1)^t \,V.
\end{align*}

Por otro lado, por el teorema anterior también obtenemos:

\begin{align*}
\alpha V = (\tau_1 \cdots \tau_r) V = (-1)^r \,V.
\end{align*}

Entonces $(-1)^t V = (-1)^r V$. Por lo tanto $t$ y $r$ tienen la misma paridad.

$\square$

Tarea moral

  1. Prueba que la relación en $S_n$ dada por $\alpha \sim \beta$ si y sólo si $\beta$ es conjugada de $\alpha$, es una relación de equivalencia.
  2. Encuentra $\sigma\alpha\sigma^{-1}$ en cada inciso:
    1. $\alpha = ( 2 \; 3 \; 5), \; \sigma = (1\; 3 \; 5 \; 6)$.
    2. $\alpha = (5 \; 4 \; 3 \; 1), \; \sigma = (2 \; 4 \; 5 \; 7 \; 8)$.
    3. $\alpha = (1 \; 7 \; 5 \; 4 \; 2 \; 3), \; \sigma = (1 \; 2 \; 4 \; 6 \; 7)$.
  3. Sean $\alpha,\sigma \in S_n$ con $\sigma = (i_1\; i_2 \; \cdots \; i_r) \in S_n$ un $r-$ciclo.
  4. Considera $\alpha = (1 \; 9 \; 4)(10 \; 2 \; 8 \; 5 \; 3)(3 \; 5 \; 6 \; 8)(7 \; 2) \in S_{10}$.
    1. Escribe a $\alpha$ como un producto de transposiciones de al menos tres formas distintas y compara la cantidad de transposiciones que se usan en cada caso.
    2. Con lo anterior, determina quién es $\alpha V$.
  5. ¿Qué forma cíclica tiene $\alpha\sigma\alpha^{-1}$?
  6. ¿Cómo podemos describir a la permutación $\alpha\sigma\alpha^{-1}$ a partir de cómo son $\alpha$ y $\sigma$ sin necesidad de hacer paso a paso la composición? ¿puedes encontrar una fórmula que lo describa?

Más adelante…

Todavía nos quedan propiedades del polinomio de Vandermonde que estudiar. En la siguiente entrada profundizaremos en ellas. Por ejemplo, ¿existe una manera de determinar el signo que tendrá el $\alpha-$polinomio de Vandermonde? ¿Cómo se relaciona con la descomposición de la permutación $\alpha$? ¿Hay manera de relacionar las permutaciones que dan lugar a polinomios con el mismo signo? Éstas y otras preguntas las responderemos a continuación.

Entradas relacionadas

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios distintos

Por Omar González Franco

No debería haber algo como matemáticas aburridas.
– Edsger Dijkstra

Introducción

En la entrada anterior presentamos un breve repaso sobre valores y vectores propios de matrices y vimos cómo es que estas herramientas nos pueden ayudar a resolver sistemas de ecuaciones diferenciales de primer orden homogéneas con coeficientes constantes.

En dicha entrada vimos que para obtener los valores propios es necesario determinar la ecuación característica de la matriz, ésta ecuación resulta ser un polinomio de grado igual al número de ecuaciones que conformen al sistema lineal, así que si se trata de un sistema de $n$ ecuaciones, entonces el polinomio característico sera un polinomio de grado $n$, lo que significa que al resolver para la incógnita obtendremos $n$ raíces, es decir, $n$ valores propios. Ahora bien, sabemos que existen al menos tres casos que pueden ocurrir con dichas raíces y es que pueden ser reales y todas diferentes, pueden ser algunas repetidas o pueden ser incluso números complejos, para cada caso tendremos una forma particular de la solución general a tal sistema lineal.

Lo que desarrollaremos en las siguientes entradas será justamente estos tres casos. En esta entrada comenzaremos con el caso en el que los valores propios del sistema lineal son todos reales y distintos.

Recordemos que estamos intentando resolver un sistema lineal homogéneo con coeficientes constantes.

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}y_{1} + a_{12}y_{2} + \cdots + a_{1n}y_{n} \\
y_{2}^{\prime}(t) &= a_{21}y_{1} + a_{22}y_{2} + \cdots + a_{2n}y_{n} \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}y_{1} + a_{n2}y_{2} + \cdots + a_{nn}y_{n} \label{1} \tag{1}
\end{align*}

Si $\mathbf{A}$ es la matriz de $n \times n$ con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

Entonces el sistema lineal a resolver es

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{3} \tag{3}$$

Valores propios reales distintos

Con lo visto en la entrada anterior sabemos que si una matriz $\mathbf{A}$ de $n \times n$ tiene $n$ valores propios reales y distintos $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$, entonces siempre se puede encontrar un conjunto de $n$ vectores propios linealmente independientes $\mathbf{v}_{1}, \mathbf{v}_{2}, \cdots, \mathbf{v}_{n}$.

Por otro lado, con el último teorema visto en la entrada anterior sabemos que si

$$\mathbf{Y}_{1} = \mathbf{K}_{1}e^{\lambda_{1}t}, \hspace{1cm} \mathbf{Y}_{2} = \mathbf{K}_{2}e^{\lambda_{2}t}, \hspace{1cm} \cdots, \hspace{1cm} \mathbf{Y}_{n} = \mathbf{K}_{n}e^{\lambda_{n}t}$$

es un conjunto fundamental de soluciones de (\ref{3}) en el intervalo $(-\infty, \infty)$, entonces la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1} e^{\lambda_{1}t} + c_{2} \mathbf{K}_{2} e^{\lambda_{2}t} + \cdots + c_{n} \mathbf{K}_{n} e^{\lambda_{n}t} \label{4} \tag{4}$$

Donde $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$ son los valores propios y $\mathbf{K}_{1}, \mathbf{K}_{2}, \cdots, \mathbf{K}_{n}$ son los vectores propios asociados a cada valor propio. Notemos que en este teorema no se incluye la hipótesis de que los valores propios sean distintos. En esta entrada estamos interesados en resolver sistemas lineales en donde las raíces del polinomio característico sean todos reales y distintos, es decir, el caso en el que los valores propios del sistemas son distintos entre sí.

El siguiente resultado muestra cómo debe ser la solución general de un sistema lineal (\ref{3}) en el caso en el que los valores propios son reales y distintos.

La demostración es inmediata aplicando los resultados antes mencionados que son parte de dos teoremas vistos en la entrada anterior. De tarea moral Intenta escribir la demostración formalmente.

La diferencia entre (\ref{4}) y (\ref{5}) es que en ésta última solución ocurre que $\lambda_{i} \neq \lambda_{j}$ para $i \neq j$.

Este primer caso en realidad es muy sencillo así que concluiremos la entrada con tres ejemplos.

En la entrada en la que desarrollamos el método de eliminación de variables vimos que la solución general del sistema

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
t +1 \\ t + 1
\end{pmatrix} \label{6} \tag{6}$$

es

$$\mathbf{Y} = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t} -\begin{pmatrix}
\dfrac{1}{3} \\ \dfrac{1}{3}
\end{pmatrix}t + \begin{pmatrix}
\dfrac{1}{9} \\ \dfrac{16}{9}
\end{pmatrix} \label{7} \tag{7}$$

Lo que significa que la solución del caso homogéneo de (\ref{6})

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y} \label{8} \tag{8}$$

es

$$\mathbf{Y} = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t} \label{9} \tag{9}$$

Veamos si aplicando este método obtenemos el mismo resultado.

Recordemos que el polinomio característico se obtiene de calcular el determinante

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{10} \tag{10}$$

Una vez obtenido el polinomio se buscan las raíces para determinar los valores propios. Para cada valor propio se busca un vector $\mathbf{K} \neq \mathbf{0}$, tal que satisfaga la relación

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0} \label{11} \tag{11}$$

Los vectores obtenidos corresponderán a los vectores propios del sistema.

Finalmente se sustituyen estos resultados en la solución (\ref{5}), siempre y cuando los valores propios sean reales y distintos.

Ejemplo: Resolver el sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y}$$

Solución: En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix}$$

Determinemos la ecuación característica de acuerdo a (\ref{10}).

$$\begin{vmatrix}
4 -\lambda & -1 \\ 2 & 1 -2
\end{vmatrix} = (4 -\lambda)(1 -\lambda) + 2 = 0$$

El polinomio característico es

$$\lambda^{2} -5 \lambda + 6 = 0$$

Resolviendo para $\lambda$ se obtiene que las raíces son $\lambda_{1} = 2$ y $\lambda_{2} = 3$, son reales y distintas. Para cada valor propio determinemos los vectores propios de acuerdo a (\ref{11}).

Caso 1: $\lambda_{1} = 2$.

$$\begin{pmatrix}
4 -2 & -1 \\ 2 & 1 -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
2 & -1 \\ 2 & -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
2k_{1} -k_{2} &= 0 \\
2k_{1} &= k_{2}
\end{align*}

Elegimos $k_{1} = 1$, entonces $k_{2} = 2$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 2
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 3$.

$$\begin{pmatrix}
4 -3 & -1 \\ 2 & 1 -3
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
1 & -1 \\ 2 & -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
k_{1} -k_{2} &= 0 \\
k_{1} &= k_{2}
\end{align*}

Elegimos $k_{1} = 1$, entonces $k_{2} = 1$, así el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

De acuerdo a (\ref{5}), la solución general es

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1}e^{\lambda_{1}t} + c_{2} \mathbf{K}_{2}e^{\lambda_{2}t} $$

Sustituyendo los valores obtenidos tenemos que la solución general del sistema lineal homogéneo es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t}$$

Vemos que efectivamente corresponde a la solución (\ref{9}) obtenida con el método de eliminación de variables.

$\square$

Resolvamos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 12 \\ 3 & 1
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
0 \\ 1
\end{pmatrix}$$

Solución: La matriz $\mathbf{A}$ está dada por

$$\mathbf{A} = \begin{pmatrix}
1 & 12 \\ 3 & 1
\end{pmatrix}$$

La ecuación característica es

$$\begin{vmatrix}
1 -\lambda & 12 \\ 3 & 1 -\lambda
\end{vmatrix} = (1 -\lambda)^{2} -36 = 0$$

El polinomio característico es

\begin{align*}
\lambda^{2} -2 \lambda -35 &= 0 \\
(\lambda -7) (\lambda + 5) &= 0
\end{align*}

De donde es claro que $\lambda_{1} = 7$ y $\lambda_{2} = -5$. Determinemos los vectores propios.

Caso 1: $\lambda_{1} = 7$.

$$\begin{pmatrix}
1 -7 & 12 \\ 3 & 1 -7
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
-6 & 12 \\ 3 & -6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
-6 k_{1} + 12 k_{2} &= 0 \\
3 k_{1} -6 k_{2} &= 0
\end{align*}

De donde $k_{1} = 2k_{2}$. Elegimos $k_{2} = 1$, de manera que $k_{1} = 2$. Así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -5$.

$$\begin{pmatrix}
1 + 5 & 12 \\ 3 & 1 + 5
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
6 & 12 \\ 3 & 6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
6 k_{1} + 12 k_{2} &= 0 \\
3 k_{1} + 6 k_{2} &= 0
\end{align*}

De donde $k_{1} = -2k_{2}$. Elegimos $k_{2} = 1$, de manera que $k_{1} = -2$. Así el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
-2 \\ 1
\end{pmatrix}$$

Sustituyendo estos resultados en la solución general (\ref{5}), se obtiene

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{7t} + c_{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{-5t}$$

Apliquemos los valores iniciales para determinar el valor de las constantes $c_{1}$ y $c_{2}$.

$$\mathbf{Y}(0) = c_{1} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{0} + c_{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{0}$$

Reescribiendo.

$$\begin{pmatrix}
0 \\ 1
\end{pmatrix} = \begin{pmatrix}
2c_{1} \\ c_{1}
\end{pmatrix} + \begin{pmatrix}
-2c_{2} \\ c_{2}
\end{pmatrix} = \begin{pmatrix}
2c_{1} -2c_{2} \\ c_{1} + c_{2}
\end{pmatrix} $$

Las ecuaciones que se obtienen son

\begin{align*}
2c_{1} -2c_{2} &= 0 \\
c_{1} + c_{2} &= 1
\end{align*}

Resolviendo el sistema se obtiene que $c_{1} = \dfrac{1}{2}$ y $c_{2} = \dfrac{1}{2}$. Por lo tanto, la solución particular del sistema lineal es

$$\mathbf{Y}(t) = \dfrac{1}{2} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{7t} + \dfrac{1}{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{-5t} = \begin{pmatrix}
e^{7t} -e^{-5t} \\ \dfrac{1}{2}e^{7t} + \dfrac{1}{2}e^{-5t}
\end{pmatrix}$$

$\square$

Para concluir con esta entrada, resolvamos un sistema lineal en el que la matriz $\mathbf{A}$ es de $4 \times 4$.

Ejemplo: Determinar la solución general del siguiente sistema lineal homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-1 & -1 & 1 & 1 \\
-3 & -4 & -3 & 6 \\
0 & -3 & -2 & 3 \\
-3 & -5 & -3 & 7
\end{pmatrix} \mathbf{Y}$$

Solución: La ecuación característica se obtiene de hacer el siguiente determinante.

$$\begin{vmatrix}
-1 -\lambda & -1 & 1 & 1 \\
-3 & -4 -\lambda & -3 & 6 \\
0 & -3 & -2 -\lambda & 3 \\
-3 & -5 & -3 & 7 -\lambda
\end{vmatrix} = 0$$

No es de nuestro interés mostrar todos los pasos del determinante, incluso es conveniente hacer uso de algún método computacional para resolverlo. El resultado que se obtiene de calcular el determinante es

$$\lambda^{4} -5 \lambda^{2} + 4 = 0$$

Muestra que el polinomio característico se puede descomponer de la siguiente forma.

$$(\lambda + 2)(\lambda + 1)(\lambda -1)(\lambda -2) = 0$$

En esta forma es claro que los valores propios del sistema son

$$\lambda_{1} = -2, \hspace{1cm} \lambda_{2} = -1, \hspace{1cm} \lambda_{3} = 1, \hspace{1cm} y \hspace{1cm} \lambda_{4} = 2$$

Todos reales y distintos. Determinemos los vectores propios para cada valor propio.

Caso 1: $\lambda_{1} = -2$.

Buscamos un vector $\mathbf{K}_{1} \neq \mathbf{0}$, tal que

$$(\mathbf{A} + 2 \mathbf{I}) \mathbf{K}_{1} = \mathbf{0}$$

Sustituimos.

$$\begin{pmatrix}
-1 + 2 & -1 & 1 & 1 \\
-3 & -4 + 2 & -3 & 6 \\
0 & -3 & -2 + 2 & 3 \\
-3 & -5 & -3 & 7 + 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
1 & -1 & 1 & 1 \\
-3 & -2 & -3 & 6 \\
0 & -3 & 0 & 3 \\
-3 & -5 & -3 & 9
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

Nuevamente es conveniente resolver el sistema usando algún método computacional, al hacerlo obtendremos que los valores correspondientes de las incógnitas son

$$k_{1} = 1, \hspace{1cm} k_{2} = 0, \hspace{1cm} k_{3} = -1, \hspace{1cm} y \hspace{1cm} k_{4} = 0$$

De manera que el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -1$

Sustituimos en la ecuación vectorial

$$(\mathbf{A} + 1 \mathbf{I}) \mathbf{K}_{2} = \mathbf{0}$$

$$\begin{pmatrix}
-1 + 1 & -1 & 1 & 1 \\
-3 & -4 + 1 & -3 & 6 \\
0 & -3 & -2 + 1 & 3 \\
-3 & -5 & -3 & 7 + 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 & -1 & 1 & 1 \\
-3 & -3 & -3 & 6 \\
0 & -3 & -1 & 3 \\
-3 & -5 & -3 & 8
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

Resolviendo el sistema obtenemos que el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix}$$

Caso 3: $\lambda_{3} = 1$

Sustituimos en la ecuación

$$(\mathbf{A} -1 \mathbf{I}) \mathbf{K}_{3} = \mathbf{0}$$

$$\begin{pmatrix}
-1 -1 & -1 & 1 & 1 \\
-3 & -4 -1 & -3 & 6 \\
0 & -3 & -2 -1 & 3 \\
-3 & -5 & -3 & 7 -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
-2 & -1 & 1 & 1 \\
-3 & -5 & -3 & 6 \\
0 & -3 & -3 & 3 \\
-3 & -5 & -3 & 6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

El resultado de resolver el sistema corresponde al tercer vector propio

$$\mathbf{K}_{3} = \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix}$$

Caso 4: $\lambda_{4} = 2$

Para concluir sustituimos en la ecuación

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K}_{4} = \mathbf{0}$$

$$\begin{pmatrix}
-1 -2 & -1 & 1 & 1 \\
-3 & -4 -2 & -3 & 6 \\
0 & -3 & -2 -2 & 3 \\
-3 & -5 & -3 & 7 -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
-3 & -1 & 1 & 1 \\
-3 & -6 & -3 & 6 \\
0 & -3 & -4 & 3 \\
-3 & -5 & -3 & 5
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

El cuarto y último vector propio es

$$\mathbf{K}_{4} = \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix}$$

Con estos resultados obtenemos que el conjunto fundamental de soluciones esta conformado por los siguientes vectores linealmente independientes.

$$S = \left\{ e^{-2t} \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix}, e^{-t} \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix}, e^{t} \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix}, 2^{2t} \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix} \right\}$$

Y por lo tanto, la solución general del sistema lineal es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix} e^{-2t} + c_{2} \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix} e^{-t} + c_{3} \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix} e^{t} + c_{4} \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix}e^{2t}$$

$\square$

Con esto hemos concluido esta entrada. Nos falta ver el caso en el que los valores propios son números complejos y el caso en el que hay valores propios repetidos, ambos casos resultan ser un poco más complicados e interesantes que este.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Demostrar formalmente el Teorema enunciado en esta entrada.
  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    6 & -3 \\ 2 & 1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    3 & 2 & 4 \\ 2 & 0 & 2 \\ 4 & 2 & 3
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -3 \\ -2 & 2
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ 5
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    3 & 1 & -2 \\ -1 & 2 & 1 \\ 4 & 1 & -3
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 4 \\ -7
    \end{pmatrix}$
  1. Considerar el siguiente sistema lineal homogéneo.

    $\mathbf{Y}^{\prime} = \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \mathbf{Y} = \mathbf{AY}$
  • Demostrar que la solución general del sistema lineal es

    $\mathbf{Y}(t) = c_{1} e^{2t} \begin{pmatrix} 1 \\ 1 \end{pmatrix} + c_{2} \begin{pmatrix} 1 \\ -1 \end{pmatrix}$
  • Determinar la matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$ del sistema lineal.
  • Una vez obtenida la matriz fundamental de soluciones determinar la exponencial de la matriz $\mathbf{A} t$ usando la expresión

    $e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0)$

    Comparar el resultado con el obtenido usando la definición. ¿Notas alguna diferencia?.

Más adelante…

En esta entrada desarrollamos el método de valores y vectores propios para resolver sistemas lineales homogéneos en el caso en el que los valores propios son todos reales y distintos.

En la siguiente entrada continuaremos con la segunda situación correspondiente al caso en el que los valores propios del sistema son números complejos. En este caso la forma de las soluciones serán distintas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Teoría de los Conjuntos I: Axioma de conjunto potencia

Por Gabriela Hernández Aguilar

Introducción

En esta nueva entrada recordaremos el concepto de contención y destacaremos su diferencia con el concepto de pertenencia. También abordaremos el axioma del conjunto potencia, a partir de este axioma podremos trabajar con los subconjuntos de un conjunto.

Definición de contención y algunas propiedades

Primero vamos a recordar la definición de contención.

Definición. Sean $A$ y $B$ conjuntos. Diremos que $A$ está contenido en $B$, en símbolos $A\subseteq B$, si para todo $x\in A$ se tiene $x\in B$.

Proposición. Sean $A$, $B$ y $C$ conjuntos. Las siguientes fórmulas son verdaderas:

  1. $\emptyset\subseteq A$.
  2. $A\subseteq A$.
  3. Si $A\subseteq B$ y $B\subseteq C$, entonces $A\subseteq C$.

Demostración.

  1. Para demostrar que $\emptyset\subseteq A$, observemos que para cualquier $x\in \emptyset$, se cumple que $x\in A$. Esto es cierto por vacuidad, pues no existe $x$ en $\emptyset$ que no pertenezca a $A$.
  2. Dado que para cualquier conjunto $A$, tenemos que $A=A$, entonces se cumple que $x\in A$ si y sólo si $x\in A$. En particular, si $x\in A$ entonces $x\in A$, esto es $A\subseteq A$.
  3. Supongamos que $A\subseteq B$ y $B\subseteq C$. Veamos que $A\subseteq C$.
    Sea $x\in A$, entonces, como $A\subseteq B$, por la definición de contención, se sigue que $x\in B$.
    Luego, como $x\in B$ y $B\subseteq C$, entonces $x\in C$. Por lo tanto, $A\subseteq C$.

$\square$

Con estos resultados podremos decir que el conjunto vacío es subconjunto de cualquier conjunto, hasta de él mismo, como lo verifica la segunda propiedad. Finalmente, con la propiedad tres diremos que la contención es transitiva.

Potencia de un conjunto

Axioma del conjunto potencia. Para cualquier conjunto $X$ existe un conjunto $S$ tal que $a\in S$ si y sólo si $a\subseteq X$.

Al igual que con los conjuntos que nos otorgan los axiomas anteriores, el conjunto $S$ del axioma de conjunto potencia es único. Para que practiques las ideas que hemos visto, esto quedará como ejercicio.

Definición. Sea $A$ un conjunto, al conjunto que obtenemos a partir del axioma del conjunto potencia le llamaremos el conjunto potencia de $A$ y lo denotaremos por $\mathcal{P}(A)$.

Ejemplos.

  1. Para el conjunto $\emptyset$, tenemos que $S=\set{\emptyset}$. Dado que $\emptyset\subseteq \emptyset$ y $\emptyset$ es el único conjunto que satisface estar contenido en $\emptyset$, entonces $S=\set{\emptyset}$.
  2. Para el conjunto $\set{\emptyset}$ tenemos que $S=\set{\emptyset, \set{\emptyset}}$. En efecto, como $\emptyset\subseteq \set{\emptyset}$ y $\set{\emptyset}\subseteq\set{\emptyset}$ y son los únicos que satisfacen la propiedad de estar contenidos en $\set{\emptyset}$, entonces $S=\set{\emptyset, \set{\emptyset}}$.
  3. Ahora, para el conjunto $\set{\emptyset, \set{\emptyset}}$ tenemos que $\emptyset\subseteq \set{\emptyset, \set{\emptyset}}$, $\set{\emptyset}\subseteq \set{\emptyset, \set{\emptyset}}$, $\set{\set{\emptyset}}\subseteq \set{\emptyset, \set{\emptyset}}$ y $\set{\emptyset, \set{\emptyset}}\subseteq \set{\emptyset, \set{\emptyset}}$ tenemos que $\set{\emptyset, \set{\emptyset},\set{\set{\emptyset}}, \set{\emptyset, \set{\emptyset}}}\subseteq S$.
    En la tarea moral deberás probar que $\emptyset, \set{\emptyset},\set{\set{\emptyset}}, \set{\emptyset, \set{\emptyset}}$ son los únicos subconjuntos de $\set{\emptyset, \set{\emptyset}}$, y por lo tanto $S=\set{\emptyset, \set{\emptyset},\set{\set{\emptyset}}, \set{\emptyset, \set{\emptyset}}}$.

$\square$

Propiedades del conjunto potencia

Proposición. Sean $A$ y $B$ conjuntos, las siguientes fórmulas son ciertas:
a) Si $A\subseteq B$, entonces $\mathcal{P}(A)\subseteq \mathcal{P}(B)$,
b) $A\subseteq B$ implica que $\bigcup A\subseteq \bigcup B$,
c) $\bigcup\mathcal{P}(A)= A$,
d) $\mathcal{P} (A)\cup\mathcal{P}(B)\subseteq \mathcal{P}(A\cup B)$.

Demostración.
a) Supongamos que $A\subseteq B$. Sea $x\in \mathcal{P}(A)$, por definición de potencia tenemos que $x\subseteq A$. Luego, como $A\subseteq B$ se sigue así por transitividad de la contención tenemos que $x\subseteq B$. Por lo tanto, $x\in\mathcal{P}(B)$.
Por lo tanto, $\mathcal{P}(A)\subseteq \mathcal{P}(B)$.

b) Supongamos que $A\subseteq B$. Sea $x\in \bigcup A$, se sigue por definición de unión que existe $y\in A$ tal que $x\in y$. Como $A\subseteq B$, entonces $y\in B$ y como $x\in y$, entonces $x\in \bigcup B$. Por lo tanto, $\bigcup A\subseteq \bigcup B$.

c) $\subseteq$] Tomemos $x\in \bigcup \mathcal{P}(A)$ y mostremos que $x\in A$. Que $x\in \bigcup\mathcal{P}(A)$ implica que existe $y\in \mathcal{P}(A)$ tal que $x\in y$. Por definición de conjunto potencia tenemos que $y\subseteq A$. De este modo, $x\in y\subseteq A$, de donde, $x\in A$ lo que prueba que $\bigcup \mathcal{P}(A)\subseteq A$.

$\supseteq$] Dado que $A\subseteq A$ entonces $A\in \mathcal{P}(A)$ para cualquier conjunto $A$. Por la última proposición de la entrada anterior, tenemos que si $A\in \mathcal{P}(A)$, entonces $A\subseteq \bigcup \mathcal{P}(A)$.

Por lo anterior tenemos que $A=\bigcup \mathcal{P}(A)$.

d) Sea $x\in \mathcal{P}(A)\cup\mathcal{P}(B)$. Se sigue que $x\in \mathcal{P}(A)$ o $x\in \mathcal{P}(B)$. Evaluemos los dos casos:
– Si $x\in\mathcal{P}(A)$, entonces $x\subseteq A$ y como $A\subseteq A\cup B$, por transitividad se sigue que $x\subseteq A\cup B$ y así, $x\in \mathcal{P}(A\cup B)$.
– Si $x\in\mathcal{P}(B)$, entonces $x\subseteq B$ y como $B\subseteq A\cup B$, entonces por transitividad $x\subseteq A\cup B$ y así, $x\in \mathcal{P}(A\cup B)$.
Concluimos que $\mathcal{P}(A)\cup\mathcal{P}(B)\subseteq \mathcal{P}(A\cup B)$.

$\square$

Tarea moral

Los siguientes ejercicios te ayudarán a distinguir la diferencia entre pertenencia y contención. Así mismo comenzarás a plantear algunos contraejemplos para probar la falsedad de algunos enunciados sobre el conjunto potencia:

  • Demuestra que los únicos subconjuntos de $\set{\emptyset}$ son $\emptyset$ y $\set{\emptyset}$.
  • Demuestra que $\emptyset, \set{\emptyset},\set{\set{\emptyset}}, \set{\emptyset, \set{\emptyset}}$ son los únicos subconjuntos de $\set{\emptyset, \set{\emptyset}}$.
  • Di si el siguiente enunciado es verdadero o falso: Si $A\in B$ y $B\in C$, entonces $A\in C$. (Argumenta tu respuesta).
  • Calcula $\mathcal{P}(\set{\emptyset,\set{\emptyset},\set{\emptyset,\set{\emptyset}}})$.
  • Argumenta por qué para cualquier conjunto $A$, se tiene que $\mathcal{P}(A)\not=\emptyset$.
  • Da un contraejemplo para ver que $\mathcal{P} (A)\cup\mathcal{P}(B)=\mathcal{P}(A\cup B)$ es falso.
  • Da un contraejemplo para ver que $\mathcal{P}(\bigcup A)= A$ es falso.
  • Demuestra que $\mathcal{P}(\emptyset)=\set{\emptyset}$.
  • Demuestra que el conjunto potencia garantizado por el axioma del conjunto potencia es único.

Más adelante…

En la siguiente entrada haremos uso de los conceptos que hemos visto hasta ahora, demostraremos algunos resultados sobre unión y definiremos nuevas operaciones entre conjuntos las cuales serán unión, intersección y diferencia. Estas operaciones nos otorgarán más resultados y estudiaremos algunas de sus propiedades.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Cálculo Diferencial e Integral II: Funciones hiperbólicas

Por Miguel Ángel Rodríguez García

Introducción

En esta sección veremos unas funciones cuyas definiciones se basan en la función exponencial, a estas funciones se les conoce como funciones hiperbólicas, el nombre de hipérbolas se basa en que estas funciones cumplen la relación con la hipérbola:

$$x^{2}-y^{2}=1 \tag{1}$$

Funciones hiperbólicas

Recordemos que la relación $(1)$ es la ecuación de una hipérbola equilátera, por lo cual las asíntotas son perpendiculares. Definimos las funciones de seno hiperbólico y coseno hiperbólico como:

$$\sinh(x)=\frac{e^{x}-e^{-x}}{2} \tag{2}$$

$$\cosh(x)=\frac{e^{x}+e^{-x}}{2} \tag{3}$$

De estas dos funciones podemos definir las siguientes funciones:

$$\tanh(x)=\frac{\sinh(x)}{\cosh(x)}$$

$$\coth(x)=\frac{\cosh(x)}{\sinh(x)}$$

$$sech(x)=\frac{1}{\cosh(x)}$$

$$csch(x)=\frac{1}{\sinh(x)}$$

Notemos que estas funciones hiperbólicas llevan el nombre de las funciones trigonométricas y es que estas funciones trigonométricas tienen características similares a las funciones trigonométricas.

Veamos que las funciones hiperbólicas $\sinh(x)$ y $\cosh(x)$ cumplen la relación de una hiperbóla dada por la relación $(1)$:

$$\cosh^{2}(x)-\sinh^{2}(x)=\left ( \frac{e^{x}+e^{-x}}{2} \right )^{2}-\left ( \frac{e^{x}-e^{-x}}{2} \right )^{2}$$

$$=\frac{e^{2x}+2e^{x}e^{-x}+e^{-2x}}{4}+\frac{-e^{2x}+2e^{x}e^{-x}-e^{-2x}}{4}=\frac{2+2}{4}=1$$

$\space$

Figura 1: Grafica de las funciones $\sinh(x)$ y $\cosh(x)$.

La función seno hiperbólico también cumple con ser una función impar, veamos:

$$\sinh(-x)=\frac{e^{-x}-e^{-(-x)}}{2}=\frac{e^{-x}-e^{x}}{2}=-\frac{e^{x}-e^{-x}}{2}=-\sinh(x)$$

Análogamente, se puede demostrar que las siguientes funciones son funciones impares: $\coth(x)$ y $csch(x)$, y las siguientes funciones son pares: $\cosh(x)$, $\tanh(x)$ y $sech(x)$.

Algunas relaciones importantes de estas funciones son las siguientes:

  • $$e^{x}=\cosh(x)+\sinh(x)$$
  • $$e^{-x}=\cosh(x)-\sinh(x)$$

Es fácil demostrar las relaciones anteriores por definición $(2)$ y $(3)$.

Otra propiedad es la siguiente:

  • $$\sinh(x\pm y)=\sinh(x)\cosh(y)\pm \cosh(x)\sinh(y)$$

Demostración:

Por definición, tenemos que:

$$\sinh(x\pm y)=\frac{e^{x\pm y}-e^{-x\mp y}}{2}=\frac{e^{x}e^{\pm y}-e^{-x}e^{\mp y}}{2}$$

Por las relaciones anteriores se tiene que:

$$\frac{e^{x}e^{\pm y}-e^{-x}e^{\mp y}}{2} =\frac{(\cosh(x)+\sinh(x))(\cosh( y)\pm \sinh(y))-(\cosh(x)-\sinh(x))(\cosh(y)\mp \sinh(y))}{2}=$$

$$\frac{\cosh(x)\cosh(y)\pm \cosh(x)\sinh(y)+\sinh(x)\cosh(y)\pm \sinh(x)\sinh(y)-\cosh(x)\cosh(y)\pm \cosh(x)\sinh( y)}{2}$$

$$\frac{+(\sinh(x)\cosh(y)\mp \sinh(x)\sinh( y)}{2}$$

Dependiendo del signo, lo podemos reescribir como:

$$=\frac{2\sinh(x)\cosh( y)\pm 2\cosh(x)\sinh(y)}{2}=\sinh(x)\cosh(y)\pm \cosh(x)\sinh( y)$$

$\square$

La propiedad para la función $\cosh(x)$ viene dada como:

  • $$\cosh(x\pm y)=\cosh(x)\cosh(x)\pm \sinh(x)\sinh(x)$$

De las relaciones anteriores se puede demostrar que:

  • $$\cosh(2x)=\cosh^{2}(x)+\sinh^{2}(x)$$
  • $$sinh(2x)=2\cosh(x)+\sinh(x)$$

La derivación e integración de estas funciones es sencillo, veamos la siguiente tabla:

$$\frac{d}{dx}\sinh(x)=\cosh(x)$$
$$\frac{d}{dx}\cosh(x)=\sinh(x)$$
$$\frac{d}{dx}\tanh(x)=sech(x)$$
$$\frac{d}{dx}\coth(x)=csch(x)$$
$$\frac{d}{dx}sech(x)=-sech(x)\tanh(x)$$
$$\frac{d}{dx}csch(x)=-csch(x)\coth(x)$$
Tabla 1: Derivada de las funciones hiperbólicas.

Notemos que las derivadas son similares a las derivadas de las funciones trigonométricas, al ser la derivada una función inversa de la integral entonces las integrales son similares a las funciones trigonométricas, veamos la siguiente tabla:

$$\int \sinh(x)=\cosh(x)+c$$
$$\int \cosh(x)=\sinh(x)+c$$
$$\int \tanh(x)=log(\cosh(x))+c$$
$$\int \coth(x)=log(\sinh(x))+c$$
$$\int sech(x)=2\tan^{-1}\left ( \tanh(\frac{x}{2}) \right )+c$$
$$\int csch(x)=log\left ( \tanh(\frac{x}{2}) \right )$$
Tabla 2: Integrales de las funciones hiperbólicas.

Funciones hiperbólicas inversas

Análogamente a las funciones trigonométricas, se definen las funciones hiperbólicas inversas como:

  1. $$\sinh^{-1}(x)=arcsinh(x)=ln\left ( x+\sqrt{x^{2}+1} \right )$$
  2. $$\cosh^{-1}(x)=arccosh(x)=ln\left ( x+\sqrt{x^{2}-1} \right )$$
  3. $$\tanh^{-1}(x)=arctanh(x)=\frac{1}{2}ln\left ( \frac{1+x}{1-x} \right )$$
  4. $$\coth^{-1}(x)=arccoth(x)=\frac{1}{2}ln\left ( \frac{x+1}{x-1} \right )$$
  5. $$sech^{-1}(x)=arcsech(x)=ln\left ( \frac{1+\sqrt{1-x^{2}}}{x} \right )$$
  6. $$csch^{-1}(x)=arccsch(x)=ln\left ( \frac{1}{x}+\sqrt{\frac{1}{x^{2}}+1} \right )$$

La demostración para la función hiperbólica inversa den $\sinh(x)$ es como sigue:

Sea $y=arcsinh(x) \Rightarrow \sinh(y)=x$

Utilizamos la relación $(1)$, por lo que:

$$\cosh^{2}(y)=1+\sinh^{2}(y)=1+x^{2}$$

$$\Rightarrow \cosh(y)=\sqrt{1+x^{2}}$$

Sumando en ambos lados de la igualdad para obtener la exponencial, se tiene que:

$$e^{y}=\cosh(y)+\sinh(y)=\sqrt{1+x^{2}}+x$$

$$y=arcsinh(x)=ln\left ( \sqrt{1+x^{2}}+x \right )$$

$\square$

La idea para las demostrar las demás funciones hiperbólicas inversas es la misma.

Tarea moral

Los siguientes ejercicios no son para evaluación pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionado con el tema visto.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Demuestre la siguiente identidad: $\tanh^{2}(x)+sech^{2}(x)=1$.
  2. Demuestre que la función hiperbólica $\cosh(x)$ es una función impar.
  3. Demuestre que $\cosh(x\pm y)=\cosh(x)\cosh(x)\pm \sinh(x)\sinh(x)$.
  4. Demuestre que $\frac{d}{dx}csch(x)=-csch(x)\coth(x)$.
  5. Demuestre que $\int \tanh(x)=log(\cosh(x))+c$.

Más adelante…

En esta sección vimos las funciones hiperbólicas que cumplen con la ecuación de una hipérbola equilátera, así como, algunas propiedades tales como sus derivadas e integrales, también vimos que algunas de las propiedades de estas funciones son similares a las funciones trigonométricas, en la siguiente sección veremos una introducción a varias variables.

Entradas relacionadas

Cálculo Diferencial e Integral II: Longitud de arco en coordenadas polares

Por Miguel Ángel Rodríguez García

Introducción

En la sección anterior vimos como calcular el área de una curva que está acotada por una curva y el área entre dos curvas en coordenadas polares, en esta sección veremos como calcular la longitud de arco de una curva en coordenadas polares, la idea de calcular de la longitud es la misma para calcular la longitud de una curva en coordenadas cartesianas, en esta ocasión, lo haremos en coordenadas polares, pero para esto veamos un teorema para la longitud de arco para las curvas paramétricas.

Longitud de arco para curvas paramétricas

Teorema. Si una curva $C$ se describe mediante las ecuaciones paramétricas $x=f(t)$ y $y=g(t)$, con $\alpha \leq t \leq \beta$, donde $f’$ y $g’$ son continuas en el intervalo $[\alpha, \beta]$, entonces la longitud de $C$ que es recorrida una sola vez cuando $t$ aumenta desde $\alpha$ hasta $\beta$, se calcula como:

$$L=\int_{\alpha}^{\beta} \sqrt{\left ( \frac{dx}{dt} \right )^{2}+\left ( \frac{dy}{dt}\right )^{2}}dt$$

Demostración:

Sea $C$ la curva en un intervalo $[\alpha, \beta]$, se divide este intervalo en $n$ subintervalos $t_{0}, \space t_{1},…., \space t_{n}$ con longitud $\Delta t$. Aproximamos la curva $C$ con polígonos con vértices $P_{0}, \space, P_{1}, \space, …., P_{n}$, como se muestra en la figura $(1)$.

Figura 1: Aproximación de polígonos (líneas negras) a una curva $C$ (curva roja).

Si el número de polígonos tiende a infinito, es decir, $n \to \infty$, entonces:

$$L=\lim_{n \to \infty} \sum_{i=1}^{n}|P_{i-1}-P_{i}|$$

Aplicamos el teorema de valor medio a $f$ en el intervalo $[t_{i-1},t_{i}]$, encontramos un número $t^{*}_{i}$ tal que:

$$f(t_{i})-f(t_{i-1})=f'(t^{*}_{i})(t_{i}-t_{i-1})$$

Lo podemos reescribir en términos de deltas como:

$$\Delta x_{i}=f'(t^{*}_{i})\Delta t$$

Análogamente, hacemos lo mismo para $g(t)$, aplicando el teorema del valor medio encontrando un número $t^{**}_{i}$ tal que:

$$\Delta y_{i}=g'(t^{**}_{i})\Delta t$$

Por lo que la longitud la podemos escribir como:

$$L= \lim_{n \to \infty }\sum_{i=1}^{n} |P_{i-1}-P_{i}|=\lim_{n \to \infty }\sum_{i=1}^{n} \sqrt{(\Delta x)^{2}+(\Delta y)^{2}}$$

$$=\lim_{n \to \infty }\sum_{i=1}^{n}\sqrt{(f'(t^{*}_{i})\Delta t)^{2}+(g'(t^{**}_{i})\Delta t)^{2}}=\lim_{n \to \infty }\sum_{i=1}^{n}\sqrt{(f'(t^{*}_{i}))^{2}+(g'(t^{**}_{i}))^{2}}\Delta t$$

Si $f’$ y $g’$ son continuas, entonces el límite de la suma es el mismo que si $t^{*}_{i}$ y $t^{**}_{i}$ fueran iguales, por lo que:

$$L=\int_{\alpha}^{\beta}\sqrt{\left [ f'(t) \right ]^{2}+\left [ g'(t) \right ]^{2}}dt$$

En notación de Leibniz tenemos que:

$$L=\int_{\alpha}^{\beta} \sqrt{\left ( \frac{dx}{dt} \right )^{2}+\left ( \frac{dy}{dt}\right )^{2}}dt \tag{1}$$

$\square$

Este teorema nos servirá para calcular la longitud de una curva en coordenadas polares.

Longitud de arco en coordenadas polares

Sea una curva polar dada por $r=f(\theta)$, en un intervalo $a \leq \theta \leq b$, podemos escribir las ecuaciones paramétricas como:

$$x=r\cos(\theta)=f(\theta)\cos(\theta) \hspace{2cm} y=r\sin(\theta)=f(\theta)\sin(\theta)$$

Derivamos respecto a $\theta$ las dos anteriores ecuaciones, por lo que:

$$\frac{dx}{d\theta}=\frac{dr}{d\theta}\cos(\theta)-r\sin(\theta) \hspace{2cm} \frac{dy}{d\theta}=\frac{dr}{d\theta}\sin(\theta)+r\cos(\theta)$$

Elevando al cuadrado, y sumando las derivadas, obtenemos:

$$\left ( \frac{dx}{d\theta} \right )^{2}+\left ( \frac{dy}{d\theta} \right )^{2}=\left (\frac{dr}{d\theta}\cos(\theta)-r\sin(\theta) \right )^{2}+\left (\frac{dr}{d\theta}\sin(\theta)+r\cos(\theta) \right )^{2}$$

$$=\left (\frac{dr}{d\theta}\right )^{2}\cos^{2}(\theta)-2\frac{dr}{d\theta}\cos(\theta)r\sin(\theta)+r^{2}\sin^{2}(\theta)+\left (\frac{dr}{d\theta}\right )^{2}\sin^{2}(\theta)+2\frac{dr}{d\theta}\sin(\theta)r\cos(\theta)+r^{2}\cos^{2}(\theta)$$

Utilizando que $\sin^{2}(\theta)+\cos^{2}(\theta)=1$, entonces:

$$\left ( \frac{dx}{d\theta} \right )^{2}+\left ( \frac{dy}{d\theta} \right )^{2}=\left (\frac{dr}{d\theta}\right )^{2}+r^{2}$$

Utilizando la relación $(1)$, suponiendo que $f’$ es continua, entonces la longitud de una curva polar está dada como:

$$L=\int_{a}^{b} \sqrt{ r^{2}+\left ( \frac{dr}{d\theta}\right )^{2}}d\theta$$

Ejemplo

  • Encontrar la longitud del cardioide dado como: $r=1-\cos(\theta)$

En este caso, tenemos que:

$$r^{2}+\left ( \frac{dr}{d\theta}\right )^{2}=(1-\cos(\theta))^{2}+\sin^{2}(\theta)=1-2\cos(\theta)+\cos^{2}(\theta)+\sin^{2}(\theta)=2-2\cos(\theta)$$

Así la longitud de arco es:

$$L=\int_{0}^{2\pi} \sqrt{2-2\cos(\theta)}d\theta=\int_{0}^{2\pi} \sqrt{4\sin^{2}(\frac{\theta}{2})}d\theta=\int_{0}^{2\pi} \sqrt{4\sin^{2}(\frac{\theta}{2})}d\theta$$

$$=2\int_{0}^{2\pi}\sin(\frac{\theta}{2})d\theta=\left [ -4\cos(\frac{\theta}{2}) \right ]\bigg|^{2\pi}_{0}=4+4=8$$

Tarea moral

Los siguientes ejercicios no son para evaluación, pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionados con el tema visto.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentre la longitud de la curva polar dada como $r=3\sin(\theta)$, $0 \leq \theta \leq \frac{\pi}{3}$.
  2. Encuentre la longitud de la curva polar dada como $r=e^{2\theta)$, $0 \leq \theta \leq 2\pi$.
  3. Encuentre la longitud de la curva polar dada como $r=\theta^{2}$, $0 \leq \theta \leq 2\pi$.
  4. Encuentre la longitud de la curva polar de un pétalo de rosa dada como $r=\cos(2\theta)$.
  5. Encuentre la longitud de la curva polar de un cardiode dado como $r=a(1+\cos(\theta))$, $a > 0$.

Más adelante…

En esta sección vimos un teorema que nos dice como calcular la longitud de una curva dada por dos curvas paramétricas en general, aplicando este teorema, vimos que se puede utilizar para poder calcular la longitud de una curva en coordenadas polares. En la siguiente sección veremos las funciones hiperbólicas.

Entradas relacionadas