Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios complejos

Por Omar González Franco

Un matemático que no es también algo de poeta
nunca será un matemático completo.
– Karl Weierstrass

Introducción

Ya vimos cómo obtener la solución general de sistemas lineales homogéneos con coeficientes constantes en el caso en el que los valores propios son todos reales y distintos. En esta entrada desarrollaremos el caso en el que los valores propios son complejos.

Valores propios complejos

Vimos que para un sistema lineal

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{1} \tag{1}$$

con $\mathbf{A}$ una matriz de $n \times n$ con componentes reales

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

siempre se puede encontrar una solución de la forma

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t} \label{3} \tag{3}$$

Ahora sabemos que $\lambda$ y $\mathbf{K}$ corresponden a un valor y vector propio respectivamente. Como los valores propios se obtienen de encontrar las raíces del polinomio característico, entonces es posible que los valores propios sean números complejos, digamos de la forma

$$\lambda = \alpha + i \beta \label{4} \tag{4}$$

Con $\alpha$ y $\beta$ reales. Veremos más adelante que este tipo de valores propios generarán también vectores propios con componentes complejos que podremos escribir como

$$\mathbf{K} = \mathbf{U} + i \mathbf{V} \label{5} \tag{5}$$

Con estos resultados la solución (\ref{3}) se puede escribir como

$$\mathbf{Y}(t) = \begin{pmatrix}
u_{1} + i v_{1} \\ u_{2} + i v_{2} \\ \vdots \\ u_{n} + i v_{n}
\end{pmatrix}e^{(\alpha + i \beta)t} = (\mathbf{U} + i \mathbf{V}) e^{(\alpha + i \beta)t} \label{6} \tag{6}$$

Un resultado interesante es que los valores y vectores propios conjugados de (\ref{4}) y (\ref{5}) también son valores y vectores propios de la misma matriz $\mathbf{A}$. Demostremos este hecho.

Recordemos que estamos denotando con $M_{n \times n}$ al conjunto de todas las matrices cuadradas de $n \times n$ con componentes reales y constantes.

Demostración: Por hipótesis $\lambda$ es un valor propio de $\mathbf{A}$, lo que significa que se cumple la relación

$$\mathbf{AK} = \lambda \mathbf{K} \label{7} \tag{7}$$

Con $\mathbf{K}$ el vector propio asociado a $\lambda$. Si tomamos el conjugado de la ecuación anterior, tenemos

$$\overline{\mathbf{AK}} = \overline{\lambda \mathbf{K}}$$

o bien,

$$\mathbf{\bar{A}} \mathbf{\bar{K}} = \bar{\lambda} \mathbf{\bar{K}} \label{8} \tag{8}$$

Pero como $\mathbf{A} \in M_{n \times n}$, es decir, $\mathbf{A}$ es una matriz con componentes reales constantes, entonces $\mathbf{\overline{A}} = \mathbf{A}$. La ecuación (\ref{8}) queda como

$$\mathbf{A} \mathbf{\overline{K}} = \bar{\lambda} \mathbf{\overline{K}} \label{9} \tag{9}$$

Lo que muestra que $\overline{\lambda}$ es también un valor propio de $\mathbf{A}$ y el vector propio asociado es $\mathbf{\overline{K}}$.

$\square$

Como $\lambda$ y $\overline{\lambda}$ son valores propios, con vectores propios asociados $\mathbf{{K}}$ y $\mathbf{\overline{K}}$ respectivamente, de la misma matriz $\mathbf{A}$, por el último teorema de la entrada correspondiente podemos deducir que la solución conjugada de (\ref{6})

$$\mathbf{\overline{Y}}(t) = \begin{pmatrix}
u_{1} -i v_{1} \\ u_{2} -i v_{2} \\ \vdots \\ u_{n} -i v_{n}
\end{pmatrix}e^{(\alpha -i \beta)t} = (\mathbf{U} -i \mathbf{V}) e^{(\alpha -i \beta)t} \label{10} \tag{10}$$

es también una solución del sistema lineal (\ref{1}) y además las soluciones (\ref{6}) y (\ref{10}) son linealmente independientes por el mismo teorema.

A continuación enunciamos un teorema que establece que una solución como (\ref{6}) da lugar a dos soluciones con valores reales.

Demostración: Supongamos que la solución del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$ es de la forma

$$\mathbf{Y} = \mathbf{W}_{1} + i \mathbf{W}_{2} \label{11} \tag{11}$$

Donde $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son vectores con componentes reales.

Queremos probar que

$$\mathbf{W}_{1} = Re \{ \mathbf{Y} \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2} = Im \{ \mathbf{Y} \}$$

también son soluciones del sistema lineal.

Por una lado, como $\mathbf{Y}$ es solución, entonces

$$\mathbf{Y}^{\prime} = \mathbf{AY} = \mathbf{A} (\mathbf{W}_{1} + i \mathbf{W}_{2}) = \mathbf{AW}_{1} + i \mathbf{AW}_{2} \label{12} \tag{12}$$

Por otro lado, notemos que

$$\mathbf{Y}^{\prime} = (\mathbf{W}_{1} + i \mathbf{W}_{2})^{\prime} = \mathbf{W}_{1}^{\prime} + i \mathbf{W}_{2}^{\prime} \label{13} \tag{13}$$

De (\ref{12}) y (\ref{13}), se tiene que

$$\mathbf{W}_{1}^{\prime} + i \mathbf{W}_{2}^{\prime} = \mathbf{AW}_{1} + i \mathbf{AW}_{2} \label{14} \tag{14}$$

Igualando las partes reales e imaginarias de (\ref{14}), se obtiene

$$\mathbf{W}_{1}^{\prime} = \mathbf{AW}_{1} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}^{\prime} = \mathbf{AW}_{2}$$

Lo que muestra que las funciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son soluciones con valores reales del sistema lineal (\ref{1}).

$\square$

Ahora que conocemos este resultado veamos que forma tienen las funciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$.

Demostración: Sabemos que una solución del sistema lineal (\ref{1}), en el caso en el que el valor y el vector propio son complejos, es

$$\mathbf{Y}(t) = e^{(\alpha + i \beta)t} (\mathbf{U} + i \mathbf{V})$$

Esta función la podemos escribir como

$$\mathbf{Y}(t) = e^{\alpha t} e^{i \beta t} \mathbf{U} + i e^{\alpha t} e^{i \beta t} \mathbf{V} \label{17} \tag{17}$$

Usando la identidad de Euler

$$e^{i \beta t} = \cos(\beta t) + i \sin(\beta t) \label{18} \tag{18}$$

podemos escribir la función (\ref{17}) como

\begin{align*}
\mathbf{Y} &= e^{\alpha t} [\cos(\beta t) + i \sin(\beta t)] \mathbf{U} + i e^{\alpha t}[\cos(\beta t) + i \sin(\beta t)] \mathbf{V} \\
&= e^{\alpha t} [\mathbf{U} \cos(\beta t) + i \mathbf{U} \sin(\beta t)] + i e^{\alpha t}[\mathbf{V} \cos(\beta t) + i \mathbf{V} \sin(\beta t)]
\end{align*}

Si reescribimos este resultado en una parte real y una imaginaria se tiene lo siguiente.

$$\mathbf{Y} = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] + i e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{19} \tag{19}$$

En esta forma podemos definir

$$\mathbf{W}_{1} = Re \{ \mathbf{Y} \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2} = Im \{ \mathbf{Y} \}$$

entonces,

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)]$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)]$$

Por el teorema anterior concluimos que ambas son soluciones del sistema lineal (\ref{1}). Para mostrar que son soluciones linealmente independientes probemos que se cumple

$$c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) = 0 \label{20} \tag{20}$$

sólo si $c_{1} = c_{2} = 0$. Para ello consideremos la solución

$$\mathbf{Y} = \mathbf{W}_{1} + i \mathbf{W}_{2}$$

Por el primer teorema visto sabemos que el conjugado de la función anterior es también una solución del sistema.

$$\mathbf{\overline{Y}} = \mathbf{W}_{1} -i \mathbf{W}_{2} \label{21} \tag{21}$$

Y además ambas soluciones son linealmente independientes, lo que significa que si se satisface la ecuación

$$C_{1} \mathbf{Y} + C_{2} \mathbf{\overline{Y}} = 0 \label{22} \tag{22}$$

es porque $C_{1} = C_{2} = 0$.

Sustituyamos $\mathbf{Y}$ y $\mathbf{\overline{Y}}$ en (\ref{22}).

$$C_{1} [\mathbf{W}_{1} + i \mathbf{W}_{2}] + C_{2} [\mathbf{W}_{1} -i \mathbf{W}_{2}] = 0$$

Factorizando $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$, se tiene

$$(C_{1} + C_{2}) \mathbf{W}_{1} + i(C_{1} -C_{2}) \mathbf{W}_{2} = 0 \label{23} \tag{23}$$

Si definimos

$$c_{1} = C_{1} + C_{2} \hspace{1cm} y \hspace{1cm} c_{2} = i(C_{1} -C_{2})$$

podemos escribir

$$c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) = 0$$

Pero como $C_{1} = C_{2} = 0$, entonces

$$C_{1} + C_{2} = 0 \hspace{1cm} y \hspace{1cm} C_{1} -C_{2} = 0$$

es decir, $c_{1} = c_{2} = 0$, lo que muestra que las soluciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son linealmente independientes.

$\square$

Solución general de un sistema lineal con valores propios complejos

Nosotros ya sabemos que todos los vectores propios de una matriz $\mathbf{A}$, reales o complejos, son linealmente independientes, entonces un conjunto fundamental de soluciones de (\ref{1}) consiste de soluciones de la forma (\ref{15}) y (\ref{16}) en el caso en el que se obtienen valores propios complejos y soluciones de la forma (\ref{3}) cuando los valores propios son reales.

Por ejemplo, supongamos que $\lambda_{1} = \alpha + i \beta$, $\lambda_{2} = \alpha -i \beta$ son valores propios complejos de un sistema lineal y que $\lambda_{3}, \lambda_{4}, \cdots, \lambda_{n}$ son valores propios reales distintos del mismo sistema lineal. Los correspondientes vectores propios serían $\mathbf{K}_{1} = \mathbf{U} + i \mathbf{V}$, $\mathbf{K}_{2} = \mathbf{U} -i \mathbf{V}$, $\mathbf{K}_{3}, \mathbf{K}_{4}, \cdots, \mathbf{K}_{n}$. Entonces la solución general del sistema lineal será

$$\mathbf{Y}(t) = c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) + c_{3} e^{\lambda_{3} t} \mathbf{K}_{3} + c_{4} e^{\lambda_{4} t} \mathbf{K}_{4} + \cdots + c_{n} e^{\lambda_{n} t} \mathbf{K}_{n} \label{24} \tag{24}$$

Donde $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$ son los vectores dados en (\ref{15}) y (\ref{16}), respectivamente.

Es importante mencionar que esta teoría se aplica sólo para el caso en que la matriz (\ref{2}) es una matriz con componentes reales.

Para concluir con esta entrada realicemos un ejemplo.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 1 & 1
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
1 \\ 1 \\ 1
\end{pmatrix}$$

Solución: En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 1 & 1
\end{pmatrix}$$

La ecuación característica la obtenemos de calcular el determinante

$$\begin{vmatrix}
1 -\lambda & 0 & 0 \\ 0 & 1- \lambda & -1 \\ 0 & 1 & 1 -\lambda
\end{vmatrix} = 0$$

De donde se obtiene que

$$(1 -\lambda)^{3} + (1 -\lambda) = (1 -\lambda)(\lambda^{2} -2 \lambda + 2) = 0$$

Al resolver para $\lambda$ se obtienen las siguientes tres raíces.

$$\lambda_{1} = 1, \hspace{1cm} \lambda_{2} = 1 + i \hspace{1cm} y \hspace{1cm} \lambda_{3} = 1 -i$$

Estos valores corresponden a los valores propios de la matriz del sistema. Determinemos los vectores correspondientes.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K}_{1} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -1 \mathbf{I}) \mathbf{K}_{1} = \mathbf{0}$$

$$\begin{pmatrix}
1 -1 & 0 & 0 \\ 0 & 1 -1 & -1 \\ 0 & 1 & 1 -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & -1 \\ 0 & 1 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

Es claro que $k_{2} = k_{3} = 0$ y $k_{1}$ al ser libre lo elegimos como $k_{1} = 1$, entonces el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 1 + i$.

Buscamos un vector $\mathbf{K}_{2}$ no nulo, tal que

$$(\mathbf{A} -(1 + i) \mathbf{I}) \mathbf{K}_{2} = \mathbf{0}$$

$$\begin{pmatrix}
1 -(1 + i) & 0 & 0 \\ 0 & 1 -(1 + i) & -1 \\ 0 & 1 & 1 -(1 + i)
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
-i & 0 & 0 \\ 0 & -i & -1 \\ 0 & 1 & -i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-i k_{1} &= 0 \\
-i k_{2} -k_{3} &= 0 \\
k_{2} -i k_{3} &= 0
\end{align*}

De la primera ecuación se obtiene que $k_{1} = 0$, y de la segunda o tercera se obtiene que $k_{2} = i k_{3}$. Elegimos $k_{3} = 1$, así $k_{2} = i$, entonces el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix}$$

Este vector al ser complejo lo podemos escribir como

$$\mathbf{K}_{2} = \mathbf{U} + i \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \label{25} \tag{25}$$

Caso 3: $\lambda_{3} = 1 -i$.

Este caso, como ya vimos en la teoría, corresponde al conjugado del caso anterior, así que el vector propio para este caso es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ -i \\ 1
\end{pmatrix}$$

que también se puede escribir como

$$\mathbf{K}_{3} = \mathbf{U} -i \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} -i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \label{26} \tag{26}$$

Por lo tanto, una forma de la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix} + c_{3} e^{(1 -i)t} \begin{pmatrix}
0 \\ -i \\ 1
\end{pmatrix} \label{27} \tag{27}$$

Sin embargo, es conveniente tener la solución real dada en (\ref{24}). De los resultados (\ref{25}) y (\ref{26}) sabemos que

$$\mathbf{U} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{V} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}$$

Si sustituimos en (\ref{15}) y (\ref{16}) con $\alpha = \beta = 1$, obtenemos lo siguiente.

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} \label{28} \tag{28}$$

Por su puesto, lo ideal es no memorizar las ecuaciones (\ref{15}) y (\ref{16}). Lo que se debe de hacer es tomar el caso en el que el vector propio es complejo, en este caso $\lambda_{2} = 1 + i$ y el vector propio correspondiente $\mathbf{K}_{2} = \begin{pmatrix} 0 \\ i \\ 1 \end{pmatrix}$, tal que una solución del sistema es

$$\mathbf{Y}_{2}(t) = e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix}$$

y usamos la identidad de Euler (\ref{18}).

\begin{align*}
e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix} &= e^{t} [\cos(t) + i \sin(t)] \left[ \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} -\sin(t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + i \sin(t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \cos(t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + i e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix}
\end{align*}

De donde podemos definir las funciones anteriores (\ref{28}).

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix}$$

Por lo tanto, de acuerdo a (\ref{24}), la solución general $\mathbf{Y}(t)$ del sistema lineal homogéneo dado debe tener la forma

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + c_{3} e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} \label{29} \tag{29}$$

Apliquemos los valores iniciales. Tomando $t = 0$, se ve que

$$\mathbf{Y}(0) = \begin{pmatrix}
1 \\ 1 \\ 1
\end{pmatrix} = c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} = \begin{pmatrix}
c_{1} \\ c_{3} \\ c_{2}
\end{pmatrix}$$

De modo que, $c_{1} = c_{2} = c_{3} = 1$. Por lo tanto, la solución particular del problema de valores iniciales es

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} = e^{t} \begin{pmatrix}
1 \\ \cos(t) -\sin(t) \\ \cos(t) + \sin(t)
\end{pmatrix} \label{30} \tag{30}$$

$\square$

Hemos concluido esta entrada. En la siguiente revisaremos el último caso que corresponde a la situación en la que tenemos valores propios que se repiten, es decir, que tienen multiplicidad $r > 1$.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 2 \\ -1 & -1
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 0 & 1 \\ 0 & 1 & -1 \\ -2 & 0 & -1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -7 & 6 & -6 \\ -9 & 5 & -9 \\ 0 & -1 & -1
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 0 & 2 \\ 1 & -1 & 0 \\ -2 & -1 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ -1 \\ -2
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 2 & 0 & 0 \\ -2 & 0 & 0 & 0 \\ 0 & 0 & 0 & -3 \\ 0 & 0 & 3 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1 \\ 1 \\ 0
    \end{pmatrix}$

Más adelante…

Ya conocemos la forma de las soluciones generales de sistemas lineales homogéneos en los que los valores propios de la matriz del sistema son reales y distintos y en los que son números complejos. El caso en el que son repetidos se presentará en la siguiente entrada.

Cuando los valores propios son repetidos el método se puede complicar un poco, sin embargo existe una alternativa bastante ingeniosa que nos permite obtener $n$ soluciones linealmente independientes de un sistema lineal de $n$ ecuaciones. ¡Dicha alternativa involucra la utilidad de la exponencial de una matriz $e^{\mathbf{A} t}$!.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Moderna I: Misma Estructura Cíclica, Permutación Conjugada y Polinomio de Vandermonde

Por Cecilia del Carmen Villatoro Ramos

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

Anteriormente en nuestro curso, definimos una caracterización única para las permutaciones, aprendimos que la factorización completa es única salvo por el orden de los factores. Ahora, podemos analizar a los ciclos que aparecen en dicha factorización completa.

La unicidad de la factorización completa nos asegura que la cantidad de ciclos que la conforman y la longitud de éstos no van a cambiar sin importar la factorización que escojamos. Estudiar estas propiedades de la factorización completa motiva la definición de estructura cíclica y de permutación conjugada, dos definiciones centrales de esta entrada.

Además de la factorización completa, existen otras maneras de descomponer a las permutaciones. Intuitivamente, podemos pensar a las permutaciones como reacomodos, entonces es posible llegar a cualquier acomodo intercambiando elementos de dos en dos, es decir podemos reacomodar los números de $1$ a $n$ como queramos mediante intercambios dos a dos.

Se verá que toda permutación se descompone siempre como un producto de una cantidad par de intercambios, o siempre con una cantidad impar de intercambios. Para ello seguiremos el enfoque presentado en el libro de Herstein, al igual que en el libro de Avella, Mendoza, Sáenz y Souto, y en el libro de Dummit mencionados en la bibliografía, en los que se introduce un polinomio en varias indeterminadas llamado el polinomio de Vandermonde.

Misma Estructura Cíclica

Recordemos que toda permutación se puede factorizar en una factorización completa y que toda factorización completa es única salvo por el orden de sus productos. Entonces la cantidad de ciclos y su longitud no va a cambiar, independientemente de la factorizacoón completa que escojamos. Esto motiva la siguiente definición.

Definición. Sean $\alpha, \beta \in S_n$. Decimos que $\alpha$ y $\beta$ tienen la misma estructura cíclica si su factorización completa tiene el mismo número de $r-$ciclos para toda $r \in \z^+$.

Ejemplo.

En $S_9$, tomemos $\alpha$ y $\beta$ como sigue

\begin{align*}
\alpha &= (2 \; 4 \; 7 \; 9)(1 \; 3)(5 \; 6)(8)\\
\beta &= (2 \; 4)(1 \; 5 \; 8 \; 9)(3 \; 7)(6).
\end{align*}

Claramente, $\alpha$ y $\beta$ tienen la misma estructura cíclica, ya que ambas están formadas por un $4-$ciclo, dos transposiciones y un uno ciclo.

Permutación Conjugada

Definición. Sean $\alpha, \beta \in S_n$. Decimos que $\beta$ es conjugada de $\alpha$ si existe $\gamma \in S_n$ tal que $\beta = \gamma \alpha \gamma^{-1}$.

Ejemplo.

Tomemos $\gamma = (1 \; 2 \; 3)$, entonces $\gamma = (1\;2\;4)$ y $\alpha = (3 \; 5 \; 6 \; 8)$. Entonces podemos calcular a $\beta$ como sigue,

\begin{align*}
\gamma\alpha\gamma^{-1} &= (1 \; 2 \; 3)(3 \; 5 \; 6 \; 8)(1 \; 3 \; 2) \\
& = (1 \; 5 \; 6 \; 8) = \beta.
\end{align*}

Así, $\beta = (1 \; 5 \; 6 \; 8)$ es conjugada de $(1 \; 5 \; 6 \; 8) = \alpha$.

Podemos observar que si consideramos la relación en $S_n$ dada por $\alpha \sim \beta$ si y sólo si $\alpha$ es conjugada de $\beta$, es una relación de equivalencia. Aquí no lo demostraremos, pero queda como tarea moral. Aunque no es evidente en primera instancia, el hecho de que dos permutaciones sean conjugadas puede analizarse a partir de la estructura cíclica que tienen. En la tarea moral hay ejercicios relacionados con ello.

¿A qué nos referimos con reacomodos?

Vimos que toda permutación se puede descomponer en ciclos disjuntos y, bajo condiciones específicas, esta descomposición es única salvo por orden de factores. Sin embargo, hay otras maneras de descomponer a una permutación, las podemos pensar a las permutaciones como reacomodos. Es claro que podemos llegar a cualquier reacomodo intercambiando los elementos de 2 en 2.

A continuación, ilustramos esto con un ejemplo.

Tomemos $\sigma = (1 \; 2 \; 3 \; 4 \; 5)$, en esta permutación los números $1,2,3,4$ y $5$ cambian ya que el $1$ va a dar a $2$, el $2$ al $3$, etc., así que si reacomodamos los números $1,2,3,4,5$ de acuerdo a lo que nos indica $\sigma,$ en vez la lista $1\;2\;3\;4\;5$ tendremos ahora la lista $2\;3\;4,5\;1.$ Entonces nos preguntamos, ¿cómo podemos llegar de la lista $1\;2\;3\;4\;5$ a la lista $2\;3\;4\;5\;1$ sólo mediante intercambios dos a dos?

Primero, observemos que lo único que tenemos que hacer es pasar el 1 hasta el final. Luego, tomemos en cuenta que nuestra propuesta es intercambiar los elementos de dos en dos. Así, el proceso es el siguiente:

Referencia visual del reacomodo.
  1. Intercambiamos 1 y 2, así nuestra lista quedaría $2 \; 1 \; 3 \; 4 \; 5.$ Observemos que el 2 ya queda en la posición deseada.
  2. Sobre el resultado anterior, intercambiamos 1 y 3. Hasta el momento tenemos el reacomodo $2 \; 3 \; 1 \; 4 \; 5$.
  3. Ahora, nos toca intercambiar 1 y 4. Así obtenemos $2 \; 3 \; 4 \; 1 \;5$
  4. Por último, nos queda acomodar el último número, así que intercambiamos 1 y 5.

Al final, llegamos al reacomodo buscado. Esto nos indica que para permutar los números $1,2,3,4$ y $5$ de acuerdo a $\sigma$ basta con intercambiar el uno con el dos, luego el uno con el tres, después el uno con el cuatro y finalmente el uno con el cinco. En otras palabras, la permutación sigma se obtiene de aplicar sucesivamente las transposiciones $(1 \; 2)$, $(1 \; 3)$, $(1 \; 4)$ y $(1 \; 5)$. Debido a que escribimos la composición de permutaciones de derecha a izquierda, nuestra sigma quedaría de la siguiente manera:

$\sigma = (1 \; 2 \; 3 \; 4 \; 5) = (1 \; 5) (1 \; 4) (1 \; 3) (1 \; 2).$

Este ejemplo nos ilustra cómo podemos descomponer un ciclo como producto de transposiciones. Probaremos esto en el caso general, y dado que toda permutación es un producto de ciclos y cada ciclo se puede descomponer en producto de transposiciones, entonces podremos concluir que toda permutación es un producto de transposiciones.

Teorema. La siguiente igualdad de conjuntos se cumple,

$S_n = \left< \{\tau \in S_n | \tau \text{ es una transposición} \} \right>$.

Demostración.

Como toda permutación es un producto de ciclos, basta ver que todo ciclo es un producto de transposiciones. Así,

\begin{align*}
(i_1 \; \cdots \; i_r) = (i_1 \; i_r) \cdots (i_1\; i_3)(i_1 \; i_2).
\end{align*}

Por lo tanto $S_n = \left< \{ \tau \in S_n | \tau \text{ es una transposición} \}\right>$.

$\square$

El polinomio de Vandermonde

Hemos probado que toda permutación se puede expresar como un producto de transposiciones, esto es importante porque las transposiciones son permutaciones muy sencillas, sin embargo estas descomposiciones no son únicas, pueden cambiar los factores que aparecen, su orden e incluso en el número de factores que presentan. A pesar de ello siempre tienen un número par o siempre un número impar de transposiciones. Con el fin probar este resultado introduciremos un polinomio con distintas indeterminadas que permutaremos usando permutaciones, para lo cual consideraremos polinomios en varias indeterminadas, que serán permutadas por los elementos del grupo simétrico.

Definición. Sea $P(x_1, \dots, x_n)$ un polinomio en las indeterminadas $x_1, \dots, x_n$ con coeficientes enteros y $\alpha \in S_n$. El polinomio $\alpha P$ se define como

\begin{align*}
\alpha P(x_1,\dots,x_n) = P(x_{\alpha(1)},\dots,x_{\alpha(n)}).
\end{align*}

Ejemplo.

Consideremos el polinomio $P(x_1,x_2,x_3,x_4,x_5) =-3x_1x_2+x_3x_5^2+x_1x_2x_3x_4x_5$ y $\alpha =(1\, 2\, 3)(4\, 5)$. Entonces

\begin{align*}
\alpha P(x_1,x_2,x_3,x_4) = &(1\, 2\, 3)(4\, 5) P(x_1,x_2,x_3,x_4) \\
=&-3x_{\alpha(1)}x_{\alpha(2)}+x_{\alpha(3)}x_{\alpha(5)}^2+x_{\alpha(1)}x_{\alpha(2)}x_{\alpha(3)}x_{\alpha(4)}x_{\alpha(5)}\\=&-3x_2x_3+x_1x_4^2+x_2x_3x_1x_5x_4.\end{align*}

Definición. El polinomio de Vandermonde en los indeterminadas $x_1, \dots, x_n$ con coeficientes enteros es

\begin{align*}
V(x_1,\dots,x_n) = \prod_{1 \leq i < j \leq n}(x_i – x_j).
\end{align*}

Dado $\alpha \in S_n$, el $\alpha-$polinomio de Vandermonde es $\alpha P$, es decir:

\begin{align*}
\alpha \; V(x_1, \dots, x_n) = \prod_{1 \leq i < j \leq n}(x_{\alpha(i)} – x_{\alpha(j)}).
\end{align*}

Ejemplo.

\begin{align*}
V(x_1,x_2,x_3,x_4) = & (x_1 – x_2)(x_1 – x_3)(x_1 – x_4) \\
& (x_2 – x_3) (x_2 – x_4)(x_3-x_4).
\end{align*}

Calculemos ahora $(2 \; 4) \, V(x_1,x_2,x_3,x_4)$. Observemos que los únicos factores de $V$ que cambian son aquellos donde aparece el subíndice $2$ o el $4$, y éstos se intercambian, por ejemplo el factor $ (x_1 – x_2)$ cambiará al factor $ (x_1 – x_4)$. Así

\begin{align*}
(2 \; 4) \, V(x_1,x_2,x_3,x_4) = &(x_1 – x_4)(x_1 – x_3)(x_1-x_2)\\
&(x_4-x_3)(x_4 – x_2)(x_3-x_2) \\
= & \,- V(x_1,x_2,x_3,x_4).
\end{align*}

Observación 1. Dado que cada factor del polinomio de Vandermonde se queda igual o cambia de signo, sólo pueden suceder dos cosas, $\alpha V = V$ ó $\alpha V = – V$ para todo $\alpha \in S_n$, de acuerdo a si hay un número impar de cambios de signo o si hay un número par de cambio de signo.

Observación 2. Sea $\alpha\in S_n$. Tenemos que $ \alpha (- V) =-\alpha V$.

Observación 3. Sean $\alpha, \beta \in S_n$. Tenemos que $ \alpha (\beta V) =(\alpha\beta)V$.

Demostración.

Sea $\alpha \in S_n$. Tenemos que:

\begin{align*}\alpha (\beta V(x_1, \dots, x_n))=&\alpha V(x_{\beta(1)}, \dots, x_{\beta(n)})= V(x_{\alpha(\beta(1))}, \dots, x_{\alpha(\beta(n))})\\=&V(x_{(\alpha\beta)(1)}, \dots, x_{(\alpha\beta)(n)})=(\alpha\beta)V(x_1, \dots, x_n).\end{align*}

$\square$

Vandermonde y las Transposiciones

Veamos cuál es el efecto que tienen dos permutaciones sobre un polinomio. Primero analizaremos qué efecto tienen las transposiciones en el polinomio de Vandermonde. Seguiremos para ello la idea del libro de Dummit que se menciona en la bibliografía, veremos primero qué efecto tiene la transposición $(1\; 2)$, y con ello entenderemos qué efecto tienen el resto de las transposiciones.

Lema. Sea $\tau \in S_n$ una transposición. Entonces $\tau V = -V$.

Demostración.

Caso 1 $\tau=(1\; 2)$

Al aplicar $\tau$ a $V$ los factores $x_i-x_j$ con $i,j\notin \{1,2\}$ se preservan, mientras que el factor $x_1-x_2$ cambia a $x_2-x_1$ provocando un cambio de signo. Por otro lado los factores $x_1-x_j$ con $j\in\{3,\dots ,n\}$ y los factores $x_2-x_j$ con $j\in\{3,\dots ,n\}$ no producen cambios de signo. Concluimos entonces que sólo un factor produce un cambio de signo y así $(1\; 2) V=-V.$

Caso 2 $\tau\neq(1\; 2)$, es decir $\tau =(1\; l)$ con $l\in\{3,\dots ,n\}$, o $\tau =(2\; l)$ con $j\in\{3,\dots ,n\}$, o bien $\tau =(k\; l)$ con $k,j\notin\{1,2\}.$

Notemos que \begin{align*}(2\; l)(1\; 2)(2\; l)&=(1\, l)\text{ , para } l\in\{3,\dots ,n\},\\ (1\; l)(1\; 2)(1\; l)&=(2\, l)\text{ , para } l\in\{3,\dots ,n\},\\(1\; k)(2\; l)(1\; 2)(1\;k)(2\; l)&=(k\, l)\text{ , para } k,j\notin\{1,2\}.\end{align*} Así, siempre existe $\alpha \in S_n$ tal que $\alpha (1\; 2) \alpha =\tau$.

Si $\alpha V=V$, tenemos que $\tau V=(\alpha(1\; 2)\alpha)V=(\alpha ((1\; 2)(\alpha V)))=(\alpha ((1\; 2) V))=\alpha (-V)=-\alpha V=-V.$

Si $\alpha V=-V$, tenemos que $\tau V=(\alpha(1\; 2)\alpha)V=(\alpha ((1\; 2)(\alpha V)))=(\alpha ((1\; 2) (-V))=\alpha V=-V.$

$\square$

Teoremas importantes

Teorema. Sea $\alpha = \tau_1 \cdots \tau_r \in S_n$, $\tau_1, \dots, \tau_r$ transposiciones. Entonces

$\alpha V = (-1)^r \,V$.

Demostración. Por inducción sobre $r$.

Base de inducción: Supongamos que $r = 1$.
Entonces, desarrollando $\alpha V$ y usando el lema 1 obtenemos

\begin{align*}
\alpha V &= \tau_1 V\\
&= -V = (-1)^1 V & \text{Lema}
\end{align*}

Así, se cumple la proposición para al caso base.

Ahora, sea $r > 1$.
Hipótesis de Inducción: Supongamos que el resultado se cumple para el producto de $r-1$ transposiciones.

P.D. $\alpha V = (-1)^r V$.

Desarrollando $\alpha V$ y usando el Lema 2, obtenemos:

\begin{align*}
\alpha V &= (\tau_1 \, \tau_2 \cdots \tau_r) V\\
&= ((\tau_1 \, \tau_2 \cdots \tau_{r-1})\tau_r) V & \text{Agrupamos}\\
&= (\tau_1 \cdots \tau_{r-1})(\tau_r V) &\text{Observación 3.}\\
&= (\tau_1 \cdots \tau_{r-1})(- V) &\text{Lema}\\&= -(\tau_1 \cdots \tau_{r-1}) V. &\end{align*}

Ahora, como $\tau_2 \cdots \tau_r$ tiene $r-1$ transposiciones, podemos aplicar la hipótesis de inducción y continuar con las igualdades.

\begin{align*}
-(\tau_2 \cdots \tau_r) V = -(-1)^{r-1} V = (-1)^r \,V.
\end{align*}

Así, demostramos lo deseado.

$\square$

Teorema. Sea $\alpha = \tau_1 \cdots \tau_r = \rho_1 \cdots \rho_t \in S_n$, con $\tau_1, \cdots, \tau_r$, $\rho_1, \cdots, \rho_t$ transposiciones. Entonces $r$ y $t$ tienen la misma paridad.

Demostración.
Por el teorema anterior, obtenemos:

\begin{align*}
\alpha V = (\rho_1 \cdots \rho_t) V = (-1)^t \,V.
\end{align*}

Por otro lado, por el teorema anterior también obtenemos:

\begin{align*}
\alpha V = (\tau_1 \cdots \tau_r) V = (-1)^r \,V.
\end{align*}

Entonces $(-1)^t V = (-1)^r V$. Por lo tanto $t$ y $r$ tienen la misma paridad.

$\square$

Tarea moral

  1. Prueba que la relación en $S_n$ dada por $\alpha \sim \beta$ si y sólo si $\beta$ es conjugada de $\alpha$, es una relación de equivalencia.
  2. Encuentra $\sigma\alpha\sigma^{-1}$ en cada inciso:
    1. $\alpha = ( 2 \; 3 \; 5), \; \sigma = (1\; 3 \; 5 \; 6)$.
    2. $\alpha = (5 \; 4 \; 3 \; 1), \; \sigma = (2 \; 4 \; 5 \; 7 \; 8)$.
    3. $\alpha = (1 \; 7 \; 5 \; 4 \; 2 \; 3), \; \sigma = (1 \; 2 \; 4 \; 6 \; 7)$.
  3. Sean $\alpha,\sigma \in S_n$ con $\sigma = (i_1\; i_2 \; \cdots \; i_r) \in S_n$ un $r-$ciclo.
  4. Considera $\alpha = (1 \; 9 \; 4)(10 \; 2 \; 8 \; 5 \; 3)(3 \; 5 \; 6 \; 8)(7 \; 2) \in S_{10}$.
    1. Escribe a $\alpha$ como un producto de transposiciones de al menos tres formas distintas y compara la cantidad de transposiciones que se usan en cada caso.
    2. Con lo anterior, determina quién es $\alpha V$.
  5. ¿Qué forma cíclica tiene $\alpha\sigma\alpha^{-1}$?
  6. ¿Cómo podemos describir a la permutación $\alpha\sigma\alpha^{-1}$ a partir de cómo son $\alpha$ y $\sigma$ sin necesidad de hacer paso a paso la composición? ¿puedes encontrar una fórmula que lo describa?

Más adelante…

Todavía nos quedan propiedades del polinomio de Vandermonde que estudiar. En la siguiente entrada profundizaremos en ellas. Por ejemplo, ¿existe una manera de determinar el signo que tendrá el $\alpha-$polinomio de Vandermonde? ¿Cómo se relaciona con la descomposición de la permutación $\alpha$? ¿Hay manera de relacionar las permutaciones que dan lugar a polinomios con el mismo signo? Éstas y otras preguntas las responderemos a continuación.

Entradas relacionadas

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios distintos

Por Omar González Franco

No debería haber algo como matemáticas aburridas.
– Edsger Dijkstra

Introducción

En la entrada anterior presentamos un breve repaso sobre valores y vectores propios de matrices y vimos cómo es que estas herramientas nos pueden ayudar a resolver sistemas de ecuaciones diferenciales de primer orden homogéneas con coeficientes constantes.

En dicha entrada vimos que para obtener los valores propios es necesario determinar la ecuación característica de la matriz, ésta ecuación resulta ser un polinomio de grado igual al número de ecuaciones que conformen al sistema lineal, así que si se trata de un sistema de $n$ ecuaciones, entonces el polinomio característico sera un polinomio de grado $n$, lo que significa que al resolver para la incógnita obtendremos $n$ raíces, es decir, $n$ valores propios. Ahora bien, sabemos que existen al menos tres casos que pueden ocurrir con dichas raíces y es que pueden ser reales y todas diferentes, pueden ser algunas repetidas o pueden ser incluso números complejos, para cada caso tendremos una forma particular de la solución general a tal sistema lineal.

Lo que desarrollaremos en las siguientes entradas será justamente estos tres casos. En esta entrada comenzaremos con el caso en el que los valores propios del sistema lineal son todos reales y distintos.

Recordemos que estamos intentando resolver un sistema lineal homogéneo con coeficientes constantes.

\begin{align*}
y_{1}^{\prime}(t) &= a_{11}y_{1} + a_{12}y_{2} + \cdots + a_{1n}y_{n} \\
y_{2}^{\prime}(t) &= a_{21}y_{1} + a_{22}y_{2} + \cdots + a_{2n}y_{n} \\
&\vdots \\
y_{n}^{\prime}(t) &= a_{n1}y_{1} + a_{n2}y_{2} + \cdots + a_{nn}y_{n} \label{1} \tag{1}
\end{align*}

Si $\mathbf{A}$ es la matriz de $n \times n$ con componentes constantes

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

Entonces el sistema lineal a resolver es

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{3} \tag{3}$$

Valores propios reales distintos

Con lo visto en la entrada anterior sabemos que si una matriz $\mathbf{A}$ de $n \times n$ tiene $n$ valores propios reales y distintos $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$, entonces siempre se puede encontrar un conjunto de $n$ vectores propios linealmente independientes $\mathbf{v}_{1}, \mathbf{v}_{2}, \cdots, \mathbf{v}_{n}$.

Por otro lado, con el último teorema visto en la entrada anterior sabemos que si

$$\mathbf{Y}_{1} = \mathbf{K}_{1}e^{\lambda_{1}t}, \hspace{1cm} \mathbf{Y}_{2} = \mathbf{K}_{2}e^{\lambda_{2}t}, \hspace{1cm} \cdots, \hspace{1cm} \mathbf{Y}_{n} = \mathbf{K}_{n}e^{\lambda_{n}t}$$

es un conjunto fundamental de soluciones de (\ref{3}) en el intervalo $(-\infty, \infty)$, entonces la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1} e^{\lambda_{1}t} + c_{2} \mathbf{K}_{2} e^{\lambda_{2}t} + \cdots + c_{n} \mathbf{K}_{n} e^{\lambda_{n}t} \label{4} \tag{4}$$

Donde $\lambda_{1}, \lambda_{2}, \cdots, \lambda_{n}$ son los valores propios y $\mathbf{K}_{1}, \mathbf{K}_{2}, \cdots, \mathbf{K}_{n}$ son los vectores propios asociados a cada valor propio. Notemos que en este teorema no se incluye la hipótesis de que los valores propios sean distintos. En esta entrada estamos interesados en resolver sistemas lineales en donde las raíces del polinomio característico sean todos reales y distintos, es decir, el caso en el que los valores propios del sistemas son distintos entre sí.

El siguiente resultado muestra cómo debe ser la solución general de un sistema lineal (\ref{3}) en el caso en el que los valores propios son reales y distintos.

La demostración es inmediata aplicando los resultados antes mencionados que son parte de dos teoremas vistos en la entrada anterior. De tarea moral Intenta escribir la demostración formalmente.

La diferencia entre (\ref{4}) y (\ref{5}) es que en ésta última solución ocurre que $\lambda_{i} \neq \lambda_{j}$ para $i \neq j$.

Este primer caso en realidad es muy sencillo así que concluiremos la entrada con tres ejemplos.

En la entrada en la que desarrollamos el método de eliminación de variables vimos que la solución general del sistema

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
t +1 \\ t + 1
\end{pmatrix} \label{6} \tag{6}$$

es

$$\mathbf{Y} = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t} -\begin{pmatrix}
\dfrac{1}{3} \\ \dfrac{1}{3}
\end{pmatrix}t + \begin{pmatrix}
\dfrac{1}{9} \\ \dfrac{16}{9}
\end{pmatrix} \label{7} \tag{7}$$

Lo que significa que la solución del caso homogéneo de (\ref{6})

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y} \label{8} \tag{8}$$

es

$$\mathbf{Y} = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t} \label{9} \tag{9}$$

Veamos si aplicando este método obtenemos el mismo resultado.

Recordemos que el polinomio característico se obtiene de calcular el determinante

$$|\mathbf{A} -\lambda \mathbf{I}| = 0 \label{10} \tag{10}$$

Una vez obtenido el polinomio se buscan las raíces para determinar los valores propios. Para cada valor propio se busca un vector $\mathbf{K} \neq \mathbf{0}$, tal que satisfaga la relación

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0} \label{11} \tag{11}$$

Los vectores obtenidos corresponderán a los vectores propios del sistema.

Finalmente se sustituyen estos resultados en la solución (\ref{5}), siempre y cuando los valores propios sean reales y distintos.

Ejemplo: Resolver el sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix} \mathbf{Y}$$

Solución: En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
4 & -1 \\ 2 & 1
\end{pmatrix}$$

Determinemos la ecuación característica de acuerdo a (\ref{10}).

$$\begin{vmatrix}
4 -\lambda & -1 \\ 2 & 1 -2
\end{vmatrix} = (4 -\lambda)(1 -\lambda) + 2 = 0$$

El polinomio característico es

$$\lambda^{2} -5 \lambda + 6 = 0$$

Resolviendo para $\lambda$ se obtiene que las raíces son $\lambda_{1} = 2$ y $\lambda_{2} = 3$, son reales y distintas. Para cada valor propio determinemos los vectores propios de acuerdo a (\ref{11}).

Caso 1: $\lambda_{1} = 2$.

$$\begin{pmatrix}
4 -2 & -1 \\ 2 & 1 -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
2 & -1 \\ 2 & -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
2k_{1} -k_{2} &= 0 \\
2k_{1} &= k_{2}
\end{align*}

Elegimos $k_{1} = 1$, entonces $k_{2} = 2$, así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 2
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 3$.

$$\begin{pmatrix}
4 -3 & -1 \\ 2 & 1 -3
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
1 & -1 \\ 2 & -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

La ecuación que se obtiene es

\begin{align*}
k_{1} -k_{2} &= 0 \\
k_{1} &= k_{2}
\end{align*}

Elegimos $k_{1} = 1$, entonces $k_{2} = 1$, así el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1
\end{pmatrix}$$

De acuerdo a (\ref{5}), la solución general es

$$\mathbf{Y}(t) = c_{1} \mathbf{K}_{1}e^{\lambda_{1}t} + c_{2} \mathbf{K}_{2}e^{\lambda_{2}t} $$

Sustituyendo los valores obtenidos tenemos que la solución general del sistema lineal homogéneo es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 2
\end{pmatrix} e^{2t} + c_{2} \begin{pmatrix}
1 \\ 1
\end{pmatrix}e^{3t}$$

Vemos que efectivamente corresponde a la solución (\ref{9}) obtenida con el método de eliminación de variables.

$\square$

Resolvamos ahora un problema con valores iniciales.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 12 \\ 3 & 1
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
0 \\ 1
\end{pmatrix}$$

Solución: La matriz $\mathbf{A}$ está dada por

$$\mathbf{A} = \begin{pmatrix}
1 & 12 \\ 3 & 1
\end{pmatrix}$$

La ecuación característica es

$$\begin{vmatrix}
1 -\lambda & 12 \\ 3 & 1 -\lambda
\end{vmatrix} = (1 -\lambda)^{2} -36 = 0$$

El polinomio característico es

\begin{align*}
\lambda^{2} -2 \lambda -35 &= 0 \\
(\lambda -7) (\lambda + 5) &= 0
\end{align*}

De donde es claro que $\lambda_{1} = 7$ y $\lambda_{2} = -5$. Determinemos los vectores propios.

Caso 1: $\lambda_{1} = 7$.

$$\begin{pmatrix}
1 -7 & 12 \\ 3 & 1 -7
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
-6 & 12 \\ 3 & -6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
-6 k_{1} + 12 k_{2} &= 0 \\
3 k_{1} -6 k_{2} &= 0
\end{align*}

De donde $k_{1} = 2k_{2}$. Elegimos $k_{2} = 1$, de manera que $k_{1} = 2$. Así el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
2 \\ 1
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -5$.

$$\begin{pmatrix}
1 + 5 & 12 \\ 3 & 1 + 5
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
6 & 12 \\ 3 & 6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0
\end{pmatrix}$$

Las ecuaciones que se obtienen son

\begin{align*}
6 k_{1} + 12 k_{2} &= 0 \\
3 k_{1} + 6 k_{2} &= 0
\end{align*}

De donde $k_{1} = -2k_{2}$. Elegimos $k_{2} = 1$, de manera que $k_{1} = -2$. Así el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
-2 \\ 1
\end{pmatrix}$$

Sustituyendo estos resultados en la solución general (\ref{5}), se obtiene

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{7t} + c_{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{-5t}$$

Apliquemos los valores iniciales para determinar el valor de las constantes $c_{1}$ y $c_{2}$.

$$\mathbf{Y}(0) = c_{1} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{0} + c_{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{0}$$

Reescribiendo.

$$\begin{pmatrix}
0 \\ 1
\end{pmatrix} = \begin{pmatrix}
2c_{1} \\ c_{1}
\end{pmatrix} + \begin{pmatrix}
-2c_{2} \\ c_{2}
\end{pmatrix} = \begin{pmatrix}
2c_{1} -2c_{2} \\ c_{1} + c_{2}
\end{pmatrix} $$

Las ecuaciones que se obtienen son

\begin{align*}
2c_{1} -2c_{2} &= 0 \\
c_{1} + c_{2} &= 1
\end{align*}

Resolviendo el sistema se obtiene que $c_{1} = \dfrac{1}{2}$ y $c_{2} = \dfrac{1}{2}$. Por lo tanto, la solución particular del sistema lineal es

$$\mathbf{Y}(t) = \dfrac{1}{2} \begin{pmatrix}
2 \\ 1
\end{pmatrix} e^{7t} + \dfrac{1}{2} \begin{pmatrix}
-2 \\ 1
\end{pmatrix} e^{-5t} = \begin{pmatrix}
e^{7t} -e^{-5t} \\ \dfrac{1}{2}e^{7t} + \dfrac{1}{2}e^{-5t}
\end{pmatrix}$$

$\square$

Para concluir con esta entrada, resolvamos un sistema lineal en el que la matriz $\mathbf{A}$ es de $4 \times 4$.

Ejemplo: Determinar la solución general del siguiente sistema lineal homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-1 & -1 & 1 & 1 \\
-3 & -4 & -3 & 6 \\
0 & -3 & -2 & 3 \\
-3 & -5 & -3 & 7
\end{pmatrix} \mathbf{Y}$$

Solución: La ecuación característica se obtiene de hacer el siguiente determinante.

$$\begin{vmatrix}
-1 -\lambda & -1 & 1 & 1 \\
-3 & -4 -\lambda & -3 & 6 \\
0 & -3 & -2 -\lambda & 3 \\
-3 & -5 & -3 & 7 -\lambda
\end{vmatrix} = 0$$

No es de nuestro interés mostrar todos los pasos del determinante, incluso es conveniente hacer uso de algún método computacional para resolverlo. El resultado que se obtiene de calcular el determinante es

$$\lambda^{4} -5 \lambda^{2} + 4 = 0$$

Muestra que el polinomio característico se puede descomponer de la siguiente forma.

$$(\lambda + 2)(\lambda + 1)(\lambda -1)(\lambda -2) = 0$$

En esta forma es claro que los valores propios del sistema son

$$\lambda_{1} = -2, \hspace{1cm} \lambda_{2} = -1, \hspace{1cm} \lambda_{3} = 1, \hspace{1cm} y \hspace{1cm} \lambda_{4} = 2$$

Todos reales y distintos. Determinemos los vectores propios para cada valor propio.

Caso 1: $\lambda_{1} = -2$.

Buscamos un vector $\mathbf{K}_{1} \neq \mathbf{0}$, tal que

$$(\mathbf{A} + 2 \mathbf{I}) \mathbf{K}_{1} = \mathbf{0}$$

Sustituimos.

$$\begin{pmatrix}
-1 + 2 & -1 & 1 & 1 \\
-3 & -4 + 2 & -3 & 6 \\
0 & -3 & -2 + 2 & 3 \\
-3 & -5 & -3 & 7 + 2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
1 & -1 & 1 & 1 \\
-3 & -2 & -3 & 6 \\
0 & -3 & 0 & 3 \\
-3 & -5 & -3 & 9
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

Nuevamente es conveniente resolver el sistema usando algún método computacional, al hacerlo obtendremos que los valores correspondientes de las incógnitas son

$$k_{1} = 1, \hspace{1cm} k_{2} = 0, \hspace{1cm} k_{3} = -1, \hspace{1cm} y \hspace{1cm} k_{4} = 0$$

De manera que el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix}$$

Caso 2: $\lambda_{2} = -1$

Sustituimos en la ecuación vectorial

$$(\mathbf{A} + 1 \mathbf{I}) \mathbf{K}_{2} = \mathbf{0}$$

$$\begin{pmatrix}
-1 + 1 & -1 & 1 & 1 \\
-3 & -4 + 1 & -3 & 6 \\
0 & -3 & -2 + 1 & 3 \\
-3 & -5 & -3 & 7 + 1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 & -1 & 1 & 1 \\
-3 & -3 & -3 & 6 \\
0 & -3 & -1 & 3 \\
-3 & -5 & -3 & 8
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

Resolviendo el sistema obtenemos que el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix}$$

Caso 3: $\lambda_{3} = 1$

Sustituimos en la ecuación

$$(\mathbf{A} -1 \mathbf{I}) \mathbf{K}_{3} = \mathbf{0}$$

$$\begin{pmatrix}
-1 -1 & -1 & 1 & 1 \\
-3 & -4 -1 & -3 & 6 \\
0 & -3 & -2 -1 & 3 \\
-3 & -5 & -3 & 7 -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
-2 & -1 & 1 & 1 \\
-3 & -5 & -3 & 6 \\
0 & -3 & -3 & 3 \\
-3 & -5 & -3 & 6
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

El resultado de resolver el sistema corresponde al tercer vector propio

$$\mathbf{K}_{3} = \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix}$$

Caso 4: $\lambda_{4} = 2$

Para concluir sustituimos en la ecuación

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K}_{4} = \mathbf{0}$$

$$\begin{pmatrix}
-1 -2 & -1 & 1 & 1 \\
-3 & -4 -2 & -3 & 6 \\
0 & -3 & -2 -2 & 3 \\
-3 & -5 & -3 & 7 -2
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
-3 & -1 & 1 & 1 \\
-3 & -6 & -3 & 6 \\
0 & -3 & -4 & 3 \\
-3 & -5 & -3 & 5
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3} \\ k_{4}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0 \\ 0
\end{pmatrix}$$

El cuarto y último vector propio es

$$\mathbf{K}_{4} = \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix}$$

Con estos resultados obtenemos que el conjunto fundamental de soluciones esta conformado por los siguientes vectores linealmente independientes.

$$S = \left\{ e^{-2t} \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix}, e^{-t} \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix}, e^{t} \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix}, 2^{2t} \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix} \right\}$$

Y por lo tanto, la solución general del sistema lineal es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ 0 \\ -1 \\ 0
\end{pmatrix} e^{-2t} + c_{2} \begin{pmatrix}
1 \\ 1 \\ 0 \\ 1
\end{pmatrix} e^{-t} + c_{3} \begin{pmatrix}
1 \\ 0 \\ 1 \\ 1
\end{pmatrix} e^{t} + c_{4} \begin{pmatrix}
0 \\ 1 \\ 0 \\ 1
\end{pmatrix}e^{2t}$$

$\square$

Con esto hemos concluido esta entrada. Nos falta ver el caso en el que los valores propios son números complejos y el caso en el que hay valores propios repetidos, ambos casos resultan ser un poco más complicados e interesantes que este.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Demostrar formalmente el Teorema enunciado en esta entrada.
  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    6 & -3 \\ 2 & 1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    3 & 2 & 4 \\ 2 & 0 & 2 \\ 4 & 2 & 3
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & -3 \\ -2 & 2
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ 5
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    3 & 1 & -2 \\ -1 & 2 & 1 \\ 4 & 1 & -3
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 4 \\ -7
    \end{pmatrix}$
  1. Considerar el siguiente sistema lineal homogéneo.

    $\mathbf{Y}^{\prime} = \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \mathbf{Y} = \mathbf{AY}$
  • Demostrar que la solución general del sistema lineal es

    $\mathbf{Y}(t) = c_{1} e^{2t} \begin{pmatrix} 1 \\ 1 \end{pmatrix} + c_{2} \begin{pmatrix} 1 \\ -1 \end{pmatrix}$
  • Determinar la matriz fundamental de soluciones $\hat{\mathbf{Y}}(t)$ del sistema lineal.
  • Una vez obtenida la matriz fundamental de soluciones determinar la exponencial de la matriz $\mathbf{A} t$ usando la expresión

    $e^{\mathbf{A} t} = \hat{\mathbf{Y}}(t) \hat{\mathbf{Y}}^{-1}(0)$

    Comparar el resultado con el obtenido usando la definición. ¿Notas alguna diferencia?.

Más adelante…

En esta entrada desarrollamos el método de valores y vectores propios para resolver sistemas lineales homogéneos en el caso en el que los valores propios son todos reales y distintos.

En la siguiente entrada continuaremos con la segunda situación correspondiente al caso en el que los valores propios del sistema son números complejos. En este caso la forma de las soluciones serán distintas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Teoría de los Conjuntos I: Axioma de conjunto potencia

Por Gabriela Hernández Aguilar

Introducción

En esta nueva entrada recordaremos el concepto de contención y destacaremos su diferencia con el concepto de pertenencia. También abordaremos el axioma del conjunto potencia, a partir de este axioma podremos trabajar con los subconjuntos de un conjunto.

Definición de contención y algunas propiedades

Primero vamos a recordar la definición de contención.

Definición. Sean $A$ y $B$ conjuntos. Diremos que $A$ está contenido en $B$, en símbolos $A\subseteq B$, si para todo $x\in A$ se tiene $x\in B$.

Proposición. Sean $A$, $B$ y $C$ conjuntos. Muestra que los siguientes resultados son verdaderos:

  1. $\emptyset\subseteq A$.
  2. $A\subseteq A$.
  3. Si $A\subseteq B$ y $B\subseteq C$, entonces $A\subseteq C$.

Demostración.

  1. Para demostrar que $\emptyset\subseteq A$, observemos que para cualquier $x\in \emptyset$, se cumple que $x\in A$. Esto es cierto por vacuidad, pues no existe $x$ en $\emptyset$ que no pertenezca a $A$.
  2. Dado que para cualquier conjunto $A$, tenemos que $A=A$, entonces se cumple que $x\in A$ si y sólo si $x\in A$. En particular, si $x\in A$ entonces $x\in A$, esto es $A\subseteq A$.
  3. Supongamos que $A\subseteq B$ y $B\subseteq C$. Veamos que $A\subseteq C$.
    Sea $x\in A$, entonces, como $A\subseteq B$, por la definición de contención, se sigue que $x\in B$.
    Luego, como $x\in B$ y $B\subseteq C$, entonces $x\in C$. Por lo tanto, $A\subseteq C$.

$\square$

Con estos resultados podremos decir que el conjunto vacío es subconjunto de cualquier conjunto, hasta de él mismo, como lo verifica la segunda propiedad. Finalmente, con la propiedad tres diremos que la contención es transitiva.

Potencia de un conjunto

Axioma del conjunto potencia. Para cualquier conjunto $X$ existe un conjunto $S$ tal que $a\in S$ si y sólo si $a\subseteq X$.

Al igual que con los conjuntos que nos otorgan los axiomas anteriores, el conjunto $S$ del axioma de conjunto potencia es único. Para que practiques las ideas que hemos visto, esto quedará como ejercicio.

Definición. Sea $A$ un conjunto, al conjunto que obtenemos a partir del axioma del conjunto potencia le llamaremos el conjunto potencia de $A$ y lo denotaremos por $\mathcal{P}(A)$.

Ejemplos.

  1. Consideremos al conjunto $\emptyset$, existe $S=\set{\emptyset}$ tal que $\emptyset\in S$ pues $\emptyset\subseteq \emptyset$, además este conjunto no tiene más elementos debido a que el único subconjunto de $\emptyset$ es él mismo.
  2. Para el conjunto $\set{\emptyset}$ tenemos que $S=\set{\emptyset, \set{\emptyset}}$. En efecto, como $\emptyset\subseteq \set{\emptyset}$ y $\set{\emptyset}\subseteq\set{\emptyset}$ y son los únicos que lo satisfacen, entonces $S=\set{\emptyset, \set{\emptyset}}$.
  3. Ahora, para el conjunto $\set{\emptyset, \set{\emptyset}}$ tenemos que $\emptyset\subseteq \set{\emptyset, \set{\emptyset}}$, $\set{\emptyset}\subseteq \set{\emptyset, \set{\emptyset}}$, $\set{\set{\emptyset}}\subseteq \set{\emptyset, \set{\emptyset}}$ y $\set{\emptyset, \set{\emptyset}}\subseteq \set{\emptyset, \set{\emptyset}}$ tenemos que $S= \set{\emptyset, \set{\emptyset},\set{\set{\emptyset}}, \set{\emptyset, \set{\emptyset}}}$.

$\square$

Propiedades del conjunto potencia

Proposición. Sean $A$ y $B$ conjuntos, prueba que los siguientes resultados son ciertos:
a) Si $A\subseteq B$, entonces $\mathcal{P}(A)\subseteq \mathcal{P}(B)$,
b) $A\subseteq B$ implica que $\bigcup A\subseteq \bigcup B$,
c) $\bigcup\mathcal{P}(A)= A$,
d) $\mathcal{P} (A)\cup\mathcal{P}(B)\subseteq \mathcal{P}(A\cup B)$.

Demostración.
a) Supongamos que $A\subseteq B$. Sea $x\in \mathcal{P}(A)$, por definición de potencia tenemos que $x\subseteq A$. Luego, como $A\subseteq B$ se sigue así por transitividad de la contención tenemos que $x\subseteq B$.Por lo tanto, $x\in\mathcal{P}(B)$.
Por lo tanto, $\mathcal{P}(A)\subseteq \mathcal{P}(B)$.

b) Supongamos que $A\subseteq B$. Sea $x\in \bigcup A$, se sigue por definición de unión que existe $y\in A$ tal que $x\in y$. Como $A\subseteq B$, entonces $y\in B$ y como $x\in y$, entonces $x\in \bigcup B$. Por lo tanto, $\bigcup A\subseteq \bigcup B$.

c) $\subseteq$] Tomemos $x\in \bigcup \mathcal{P}(A)$ y mostremos que $x\in A$. Que $x\in \bigcup\mathcal{P}(A)$ implica que existe $y\in \mathcal{P}(A)$ tal que $x\in y$. Por definición de conjunto potencia tenemos que $y\subseteq A$. De este modo, $x\in y\subseteq A$, de donde, $x\in A$ lo que prueba que $\bigcup \mathcal{P}(A)\subseteq A$.

$\supseteq$] Dado que $A\subseteq A$ entonces $A\in \mathcal{P}(A)$ para cualquier conjunto $A$. Por la última proposición de la entrada anterior, tenemos que si $A\in \mathcal{P}(A)$, entonces $A\subseteq \bigcup \mathcal{P}(A)$.

Por lo anterior tenemos que $A=\bigcup \mathcal{P}(A)$.

d) Sea $x\in \mathcal{P}(A)\cup\mathcal{P}(B)$. Se sigue que $x\in \mathcal{P}(A)$ o $x\in \mathcal{P}(B)$. Evaluemos los dos casos:
– Si $x\in\mathcal{P}(A)$ entonces $x\subseteq A$ y como $A\subseteq A\cup B$, por transitividad se sigue que $x\subseteq A\cup B$ y así, $x\in \mathcal{P}(A\cup B)$.
– El caso en el que $x\in\mathcal{P}(B)$ entonces $x\subseteq B$ y como $B\subseteq A\cup B$, entonces por transitividad $x\subseteq A\cup B$ y así, $x\in \mathcal{P}(A\cup B)$.
Concluimos que $\mathcal{P}(A)\cup\mathcal{P}(B)\subseteq \mathcal{P}(A\cup B)$.

$\square$

Tarea moral

Los siguientes ejercicios te ayudarán a distinguir la diferencia entre pertenencia y contención. Así mismo comenzarás a plantear algunos contraejemplos para probar la falsedad de algunos enunciados sobre el conjunto potencia:

  • Demuestra que los únicos subconjuntos de $\set{\emptyset}$ son $\emptyset$ y $\set{\emptyset}$.
  • Di si el siguiente enunciado es verdadero o falso: Si $A\in B$ y $B\in C$, entonces $A\in C$. (Argumenta tu respuesta).
  • Calcula $\mathcal{P}(\set{\emptyset,\set{\emptyset},\set{\emptyset,\set{\emptyset}}})$.
  • Argumenta por qué para cualquier conjunto $A$, se tiene que $\mathcal{P}(A)\not=\emptyset$.
  • Da un contraejemplo para ver que $\mathcal{P}(\bigcup A)= A$ es falso.
  • Demuestra que $\mathcal{P}(\emptyset)=\set{\emptyset}$.
  • Demuestra que el conjunto potencia garantizado por el axioma del conjunto potencia es único.

Más adelante…

En la siguiente entrada haremos uso de los conceptos que hemos visto hasta ahora, demostraremos algunos resultados sobre unión y definiremos nuevas operaciones entre conjuntos las cuales serán unión, intersección y diferencia. Estas operaciones nos otorgarán más resultados y estudiaremos algunas de sus propiedades.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Cálculo Diferencial e Integral II: Funciones hiperbólicas

Por Miguel Ángel Rodríguez García

Introducción

En esta sección veremos unas funciones cuyas definiciones se basan en la función exponencial, a estas funciones se les conoce como funciones hiperbólicas, el nombre de hipérbolas se basa en que estas funciones cumplen la relación con la hipérbola:

$$x^{2}-y^{2}=1 \tag{1}$$

Funciones hiperbólicas

Recordemos que la relación $(1)$ es la ecuación de una hipérbola equilátera, por lo cual las asíntotas son perpendiculares. Definimos las funciones de seno hiperbólico y coseno hiperbólico como:

$$\sinh(x)=\frac{e^{x}-e^{-x}}{2} \tag{2}$$

$$\cosh(x)=\frac{e^{x}+e^{-x}}{2} \tag{3}$$

De estas dos funciones podemos definir las siguientes funciones:

$$\tanh(x)=\frac{\sinh(x)}{\cosh(x)}$$

$$\coth(x)=\frac{\cosh(x)}{\sinh(x)}$$

$$sech(x)=\frac{1}{\cosh(x)}$$

$$csch(x)=\frac{1}{\sinh(x)}$$

Notemos que estas funciones hiperbólicas llevan el nombre de las funciones trigonométricas y es que estas funciones trigonométricas tienen características similares a las funciones trigonométricas.

Veamos que las funciones hiperbólicas $\sinh(x)$ y $\cosh(x)$ cumplen la relación de una hiperbóla dada por la relación $(1)$:

$$\cosh^{2}(x)-\sinh^{2}(x)=\left ( \frac{e^{x}+e^{-x}}{2} \right )^{2}-\left ( \frac{e^{x}-e^{-x}}{2} \right )^{2}$$

$$=\frac{e^{2x}+2e^{x}e^{-x}+e^{-2x}}{4}+\frac{-e^{2x}+2e^{x}e^{-x}-e^{-2x}}{4}=\frac{2+2}{4}=1$$

$\space$

Figura 1: Grafica de las funciones $\sinh(x)$ y $\cosh(x)$.

La función seno hiperbólico también cumple con ser una función impar, veamos:

$$\sinh(-x)=\frac{e^{-x}-e^{-(-x)}}{2}=\frac{e^{-x}-e^{x}}{2}=-\frac{e^{x}-e^{-x}}{2}=-\sinh(x)$$

Análogamente, se puede demostrar que las siguientes funciones son funciones impares: $\coth(x)$ y $csch(x)$, y las siguientes funciones son pares: $\cosh(x)$, $\tanh(x)$ y $sech(x)$.

Algunas relaciones importantes de estas funciones son las siguientes:

  • $$e^{x}=\cosh(x)+\sinh(x)$$
  • $$e^{-x}=\cosh(x)-\sinh(x)$$

Es fácil demostrar las relaciones anteriores por definición $(2)$ y $(3)$.

Otra propiedad es la siguiente:

  • $$\sinh(x\pm y)=\sinh(x)\cosh(y)\pm \cosh(x)\sinh(y)$$

Demostración:

Por definición, tenemos que:

$$\sinh(x\pm y)=\frac{e^{x\pm y}-e^{-x\mp y}}{2}=\frac{e^{x}e^{\pm y}-e^{-x}e^{\mp y}}{2}$$

Por las relaciones anteriores se tiene que:

$$\frac{e^{x}e^{\pm y}-e^{-x}e^{\mp y}}{2} =\frac{(\cosh(x)+\sinh(x))(\cosh( y)\pm \sinh(y))-(\cosh(x)-\sinh(x))(\cosh(y)\mp \sinh(y))}{2}=$$

$$\frac{\cosh(x)\cosh(y)\pm \cosh(x)\sinh(y)+\sinh(x)\cosh(y)\pm \sinh(x)\sinh(y)-\cosh(x)\cosh(y)\pm \cosh(x)\sinh( y)}{2}$$

$$\frac{+(\sinh(x)\cosh(y)\mp \sinh(x)\sinh( y)}{2}$$

Dependiendo del signo, lo podemos reescribir como:

$$=\frac{2\sinh(x)\cosh( y)\pm 2\cosh(x)\sinh(y)}{2}=\sinh(x)\cosh(y)\pm \cosh(x)\sinh( y)$$

$\square$

La propiedad para la función $\cosh(x)$ viene dada como:

  • $$\cosh(x\pm y)=\cosh(x)\cosh(x)\pm \sinh(x)\sinh(x)$$

De las relaciones anteriores se puede demostrar que:

  • $$\cosh(2x)=\cosh^{2}(x)+\sinh^{2}(x)$$
  • $$sinh(2x)=2\cosh(x)+\sinh(x)$$

La derivación e integración de estas funciones es sencillo, veamos la siguiente tabla:

$$\frac{d}{dx}\sinh(x)=\cosh(x)$$
$$\frac{d}{dx}\cosh(x)=\sinh(x)$$
$$\frac{d}{dx}\tanh(x)=sech(x)$$
$$\frac{d}{dx}\coth(x)=csch(x)$$
$$\frac{d}{dx}sech(x)=-sech(x)\tanh(x)$$
$$\frac{d}{dx}csch(x)=-csch(x)\coth(x)$$
Tabla 1: Derivada de las funciones hiperbólicas.

Notemos que las derivadas son similares a las derivadas de las funciones trigonométricas, al ser la derivada una función inversa de la integral entonces las integrales son similares a las funciones trigonométricas, veamos la siguiente tabla:

$$\int \sinh(x)=\cosh(x)+c$$
$$\int \cosh(x)=\sinh(x)+c$$
$$\int \tanh(x)=log(\cosh(x))+c$$
$$\int \coth(x)=log(\sinh(x))+c$$
$$\int sech(x)=2\tan^{-1}\left ( \tanh(\frac{x}{2}) \right )+c$$
$$\int csch(x)=log\left ( \tanh(\frac{x}{2}) \right )$$
Tabla 2: Integrales de las funciones hiperbólicas.

Funciones hiperbólicas inversas

Análogamente a las funciones trigonométricas, se definen las funciones hiperbólicas inversas como:

  1. $$\sinh^{-1}(x)=arcsinh(x)=ln\left ( x+\sqrt{x^{2}+1} \right )$$
  2. $$\cosh^{-1}(x)=arccosh(x)=ln\left ( x+\sqrt{x^{2}-1} \right )$$
  3. $$\tanh^{-1}(x)=arctanh(x)=\frac{1}{2}ln\left ( \frac{1+x}{1-x} \right )$$
  4. $$\coth^{-1}(x)=arccoth(x)=\frac{1}{2}ln\left ( \frac{x+1}{x-1} \right )$$
  5. $$sech^{-1}(x)=arcsech(x)=ln\left ( \frac{1+\sqrt{1-x^{2}}}{x} \right )$$
  6. $$csch^{-1}(x)=arccsch(x)=ln\left ( \frac{1}{x}+\sqrt{\frac{1}{x^{2}}+1} \right )$$

La demostración para la función hiperbólica inversa den $\sinh(x)$ es como sigue:

Sea $y=arcsinh(x) \Rightarrow \sinh(y)=x$

Utilizamos la relación $(1)$, por lo que:

$$\cosh^{2}(y)=1+\sinh^{2}(y)=1+x^{2}$$

$$\Rightarrow \cosh(y)=\sqrt{1+x^{2}}$$

Sumando en ambos lados de la igualdad para obtener la exponencial, se tiene que:

$$e^{y}=\cosh(y)+\sinh(y)=\sqrt{1+x^{2}}+x$$

$$y=arcsinh(x)=ln\left ( \sqrt{1+x^{2}}+x \right )$$

$\square$

La idea para las demostrar las demás funciones hiperbólicas inversas es la misma.

Tarea moral

Los siguientes ejercicios no son para evaluación pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionado con el tema visto.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Demuestre la siguiente identidad: $\tanh^{2}(x)+sech^{2}(x)=1$.
  2. Demuestre que la función hiperbólica $\cosh(x)$ es una función impar.
  3. Demuestre que $\cosh(x\pm y)=\cosh(x)\cosh(x)\pm \sinh(x)\sinh(x)$.
  4. Demuestre que $\frac{d}{dx}csch(x)=-csch(x)\coth(x)$.
  5. Demuestre que $\int \tanh(x)=log(\cosh(x))+c$.

Más adelante…

En esta sección vimos las funciones hiperbólicas que cumplen con la ecuación de una hipérbola equilátera, así como, algunas propiedades tales como sus derivadas e integrales, también vimos que algunas de las propiedades de estas funciones son similares a las funciones trigonométricas, en la siguiente sección veremos una introducción a varias variables.

Entradas relacionadas