Álgebra Lineal II: Espacios hermitianos y bases ortogonales complejas

Por Diego Ligani Rodríguez Trejo

En la entrada anterior nos dedicamos a revisar una serie de resultados relacionados con bases ortogonales, ortonormales y el proceso de Gram-Schmidt, como ya habrás notado la forma de operar de este curso indica que terminemos revisando estos conceptos aplicados a espacios vectoriales complejos, veremos rápidamente las demostraciones que sean idénticas al caso real para enfocarnos un poco más a las que tengan cambios importantes.

Como es de esperarse de la entrada final, juntaremos la gran parte de los conceptos vistos en esta unidad y los resultados vistos en las últimas dos entradas, pero ahora enfocándonos en espacios hermitianos, de los que daremos también su definición.

Bases ortonormales complejas

Definición

Sea $V$ un espacio vectorial complejo, diremos que $V$ es un espacio hermitiano si $V$ es de dimensión finita y con un producto interno hermitiano $\langle , \rangle$, es decir, una forma sesquilineal hermitiana $\langle , \rangle : V \times V \rightarrow \mathbb{C}$ tal que $\langle x, x \rangle > 0$ para cualquier vector $x$ no cero.

Con esto diremos que dos vectores son ortogonales en $V$ si $\langle x, y \rangle =0$-

Las definiciones de familia y base ortogonal/ortonormal son análogas al caso real.

En adelante consideremos a $V$ un espacio hermitiano.

Ejemplo

Si $V= \mathbb{C}^n$ su base canónica $\{ e_1, \cdots , e_n \}$ es una base ortonormal y $\{ 2e_1, \cdots , 2e_n \}$ es una base ortogonal. Además, con el producto interno canónico
\begin{align*} \langle x, y \rangle= \sum_{i=1}^n\overline{x_i}y_i\end{align*}
V es un espacio hermitiano.

Como en la entrada anterior, nuestra primera proposición será:

Proposición

Sea $V$, cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ de vectores no cero es linealmente independiente.

Demostración

Sean $\{v_1, \cdots , v_n\}$ y $\{\alpha_1, \cdots , \alpha_n\}$ tal que
\begin{align*} 0=v=\sum_{i=1}^n \alpha_nv_n\end{align*}
Tomando $j$ tal que $1 \leq j \leq n$, calculando $\langle v, v_j \rangle$ tenemos que esto es $0$ ya que $v=0$ además utilizando la linealidad conjugada en la primera entrada
tenemos que
\begin{align*}0=\langle v, v_j \rangle=\sum_{i=1}^n \overline{\alpha_i}\langle v_i, v_j \rangle \end{align*}
Notemos que por la ortogonalidad $\langle v_i, v_j \rangle=0$ excepto cuando $i=j$, utilizando esto
\begin{align*}0=\langle v, v_j \rangle= \overline{\alpha_j}\langle v_j, v_j \rangle \end{align*}
Además, sabemos que $\langle v_j, v_j \rangle > 0$ por como definimos el producto interno, en particular esto implica que $\langle v_j, v_j \rangle \neq 0$ por lo que
\begin{align*} \overline{\alpha_j} = 0 \end{align*}
Lo que implica a su vez que $\alpha_j=0$, repitiendo este proceso para cada $\alpha_i$ obtendremos la independencia lineal.

$\square$

Más aún, si $n=dim(V)$ y tenemos $\beta$ una familia ortonormal de $n$ vectores no nulos contenida en $V$ esta es linealmente independiente, lo que a su vez implica que es una base de $V$, incluso más, como $\beta$ ya era ortonormal tenemos que $\beta$ es una base ortonormal.

Un par de detalles que es importante notar, este resultado no nos asegura la existencia de una base ortonormal en algún espacio, simplemente nos brinda un camino para encontrarla (encontrar un conjunto de vectores ortonormales con $dim(V)$ elementos).

Proposición

Sea $V$, $\beta = \{u_1, \cdots , u_n\} $ una base ortonormal y $x=\sum_{i=1}^nu_ix_i$, $y=\sum_{i=1}^nu_iy_i$ dos vectores en $V$, prueba que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n\overline{x_i}y_i. \end{align*}
Demostración
Calculemos directamente $\langle x,y \rangle$,
\begin{align*} \langle x,y \rangle =\langle \sum_{i=1}^n x_iu_i, y \rangle \end{align*}
Utilizando que $\langle , \rangle$ es lineal conjugada en la primera entrada
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i} \langle u_i, y \rangle \end{align*}
Haciendo un proceso análogo en la segunda entrada
\begin{align*} \langle x,y \rangle =\sum_{i,j=1}^n \overline{x_i}y_j \langle u_i, u_j \rangle \end{align*}
Ahora, utilizando la ortogonalidad, el producto $\langle u_i, u_j \rangle$ será cero excepto cuando $i=j$ por lo que
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i \langle u_i, u_i \rangle \end{align*}
Finalmente, utilizando la normalidad, tenemos que $\langle u_i, u_i \rangle=||u_i||^2=1 $ por lo tanto
\begin{align*} \langle x,y \rangle =\sum_{i=1}^n \overline{x_i}y_i. \end{align*}

$\square$

Este último resultado es una motivación más para encontrar bases ortonormales, así enfoquémonos en esa búsqueda, siguiendo el camino del caso real, demos un análogo al teorema de Gram-Schmidt.

Proposición (Teorema de Gram-Schmidt)

Sean $v_1,v_2,\cdots,v_d$ vectores linealmente independientes en $V$ un espacio vectorial complejo (no necesariamente de dimensión finita), con producto interior $\langle \cdot , \cdot \rangle$. Existe una única familia de vectores ortonormales $e_1,e_2,\ldots,e_d$ en $V$ tales que para todo $k=1,2, \ldots, d$
\begin{align*} span(e_1,e_2,\cdots,e_k)&=span(v_1,v_2,\cdots,v_k). \end{align*}
La demostración detallada la puedes encontrar aquí (Proceso de Gram-Schmidt) por lo que no la revisaremos, algo que si vale la pena observar es que el teorema tiene dos diferencias con la versión anterior.

Primero, nuestra versión está escrita para un espacio vectorial complejo, pero para nuestra suerte la demostración anterior no requiere ninguna propiedad de los números reales que no posean los complejos, también una gran diferencia es que nuestra versión puede parecer un tanto más débil al remover que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$, esto sucede debido a que no podemos traspasar el mismo orden que teníamos en los reales al conjunto de los complejos que recordemos es el contradominio de $\langle , \rangle$.

Mencionando esto vale la pena preguntar, ¿Por qué cuando se definió espacio hermitiano hablamos de orden entonces? ¿Podrías dar una versión de este teorema únicamente para espacios hermitianos donde aún tengamos que $\langle e_k,v_k \rangle > 0$ para cualquier $k \in \{1, \cdots, d\}$?

Concluyamos esta sección con uno de los resultados más importantes y que curiosamente será nada más que un corolario.

Proposición

Todo espacio hermitiano tiene una base ortonormal.

Bases ortonormales y ortogonalidad

Empecemos revisando que si tomamos un conjunto ortonormal podemos obtener una base ortonormal a partir de este.

Proposición

Sea $\beta$ una familia ortonormal del $V$ esta puede ser completada a una base ortonormal de $V$.

Demostración

Ya que $\beta$ es una familia ortonormal, en particular es ortogonal, esto nos asegura por la primer proposición de esta entrada que es linealmente independiente, sabemos que $span(\beta) \subset V$ (si fueran iguales entonces $\beta$ ya sería una base ortonormal por lo que no sería necesario completarla) de esta manera sabemos que existe $x \in V$ tal que $x \in V \setminus span(\beta)$ a su vez esto sucede si y solo si $\beta_1= \{x\} \cup \beta$ es linealmente independiente.

Nuevamente, si $V \setminus \beta_1 = \emptyset$ tenemos entonces que $\beta_1$ ya es una base, finalmente el proceso de Gram-Schmidt nos arroja una base ortonormal $\beta_1’$y eligiendo a $x$ como el último vector a ortonormalizar nos asegura que el proceso no afectará a los vectores de $\beta$ ya que estos ya eran ortonormales desde el principio, con esto $\beta_1’$ es la completación que buscábamos.

Si en cambio tenemos que existe $y \in V \setminus \beta_1$ ortonormalicemos como arriba y repitamos el proceso, nombrando $\beta_2=\{y\} \cup \beta_1$.

Notemos que este proceso es finito, ya que lo tendremos que repetir a lo más $dim(V)-|\beta|$ veces, ya que al hacerlo terminaríamos encontrando un conjunto ortonormal con $dim(V)$ vectores, lo que sabemos que es una base de $V$.

De esta manera, repitiendo este proceso la cantidad necesaria de veces, tenemos que $\beta_k’$ es la completación buscada (con $k=dim(V)-|\beta|$).

$\square$

Cabe observar que, con un par de argumentos extra (como garantizar la existencia de algún conjunto ortonormal), esta proposición sirve para probar el corolario previo.

Finalicemos con un resultado acerca de ortogonalidad.

Proposición

Sea $W$ un subespacio de $V$ y $\{w_1, \cdots, w_k \}$ una base ortonormal de este entonces
\begin{align*} W \oplus W^{\perp} =V. \end{align*}
Demostración

Comencemos tomando a $\{w_1, \cdots, w_k \}$ que sabemos es un conjunto ortonormal, por la proposición anterior tenemos que este puede ser completado a una base ortonormal de $V$ sea esta $\{w_1, \cdots, w_k, \cdots w_n \}$ y dada esta tenemos que para cualquier $v \in V$
\begin{align*} v= \sum_{i=1}^nv_iw_i.\end{align*}
Por otro lado, definamos la siguiente función $P: V \rightarrow V$ como sigue
\begin{align*} P(v)= \sum_{j=1}^k\langle v, w_j \rangle w_j \end{align*}
Primero probemos que $P(v) \in W$ para todo $v \in V$, para esto fijemos a $j$ y veamos que pasa con $\langle v, w_j \rangle w_j$. Por lo discutido en el párrafo anterior sabemos que $v= \sum_{i=1}^nv_iw_i$ así
\begin{align*}\langle v, w_j \rangle w_j = \langle \sum_{i=1}^nv_iw_i , w_j \rangle w_j \end{align*}
Utilizando la linealidad en la primer entrada tenemos que
\begin{align*}\langle v, w_j \rangle w_j = \sum_{i=1}^n \overline{v_i} \langle w_i , w_j \rangle w_j \end{align*}
Más aún recordar que $\{w_1, \cdots, w_k, \cdots w_n \}$ es ortonormal nos arroja que $\langle w_i, w_j \rangle =0 $ si $i \neq j$ y $\langle w_i, w_j \rangle =1 $ en caso contrario, por lo que
\begin{align*}\langle v, w_j \rangle w_j = \overline{v_j} w_j \end{align*}
Con esto, sustituyendo en $P(v)$
\begin{align*} P(v)= \sum_{j=1}^k v_j w_j \end{align*}
Que notemos es una combinación lineal de $\{w_1, \cdots, w_k \}$ por lo que es un elemento de $W$-

Continuando un poco aparte, veamos que sucede con $\langle w_j, v-P(v)\rangle $ para cualquier $w_j \in \{w_1, \cdots, w_k \}$ y cualquier $v \in V$
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, v \rangle – \langle w_j, P(v)\rangle \end{align*}
Utilizando lo hecho arriba, tenemos que
\begin{align*} \langle w_j, v-P(v)\rangle = \langle w_j, \sum_{i=1}^nw_iv_i \rangle – \langle w_j, \sum_{j=1}^kw_jv_j\rangle \end{align*}
De nuevo utilizando la ortonormalidad en ambos productos concluimos que
\begin{align*} \langle w_j, v-P(v)\rangle = v_j – v_j =0. \end{align*}
Por lo que $v-P(v)$ es ortogonal a cada $w_j \in \{w_1, \cdots, w_k \}$ lo que a su vez nos arroja que $v-P(v) \in W^{\perp}$ ya que al ser ortogonal a toto $w_j \in \{w_1, \cdots, w_k \}$, entonces $v-P(v)$ es ortogonal a todo elemento de $W$.
Finalmente, tenemos que para cualquier $v \in V$
\begin{align*} v= P(v) + ( v- P(v) )\end{align*}
Con $P(v) \in W $ y $v- P(v) \in W^{\perp}$ de donde se sigue que
\begin{align*} V = W + W^{\perp}. \end{align*}
Más aún en entradas anteriores hemos mostrado que $W \cap W^{\perp} = \{0\}$.

Por lo tanto
\begin{align*} V = W \oplus W^{\perp}. \end{align*}

$\square$

Más adelante

Finalmente con esta entrada concluimos la segunda unidad de nuestro curso, podemos ver que el análisis de formas bilineales y cuadráticas y sus análogos complejos, formas sesquilineales y hermitianas dio paso a una gran cantidad de teoría bastante interesante y en particular da origen a un tema sumamente importante que es el producto interno y esto a su vez nos permitió generalizar propiedades que ya teníamos esta vez a espacios vectoriales complejos.

Sin embargo, algo en lo que no abundamos fue el comportamiento de matrices adjuntas ( transpuestas conjugadas ) ni en el comportamiento de sus matrices asociadas, de esto nos encargaremos en la siguiente entrada, que a su vez es el inicio de la siguiente unidad en este curso.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Con la notación de la segunda proposición, demuestra que
    \begin{align*} ||x||^2 = \sum_{i=1}^n |x_i|^2.\end{align*}
  2. Por que al definir espacio hermitiano mencionamos $\langle x,x \rangle >0$ si aunque $\langle x,x \rangle \in \mathbb{C}$.
  3. Escribe con todo detalle la prueba del teorema de Gram-Schmidt y el algoritmo para espacios vectoriales complejos.
  4. Sea $\mathbb{C}^3$ un espacio vectorial sobre $\mathbb{C}$ con el producto interno canónico, prueba que es un espacio hermitiano y aplica el proceso de Gram-Schmidt al conjunto $\{ (i, 0, 1), (-1, i, 1), (0, -1, i+1) \}$.
  5. En otra literatura podrías encontrar forma sesquilineal definida de manera que la primera entrada es lineal y la segunda debe ser lineal conjugada, ¿Esto afecta los resultados obtenidos en esta unidad? ¿Podrías desarrollar la misma teoría utilizando esta definición alterna?

Entradas relacionadas

Cálculo Diferencial e Integral I: Operaciones con sucesiones convergentes

Por Juan Manuel Naranjo Jurado

Introducción

Después de haber revisado la definición de sucesión convergente y haber calculado el límite de varias sucesiones, es momento de probar algunos resultados que nos permitan conocer qué sucede con las operaciones entre sucesiones convergentes. En esta entrada, demostraremos que la suma y el producto de sucesiones convergentes dan lugar a nuevas sucesiones que convergen a la suma y el producto de los límites respectivamente.

Suma de sucesiones convergentes

Daremos inicio con la prueba de que la suma sucesiones convergentes también converge y lo hace a la suma de los límites correspondientes.

Proposición. Sean $\{a_n \}$ y $\{ b_n \}$ dos sucesiones tales que
$$\lim_{n \to \infty} a_n = L \text{ y } \lim_{n \to \infty} b_n = M.$$
Entonces se tiene
$$\lim_{n \to \infty} (a_n + b_n) = L + M.$$

Demostración.

Empleando la definición de sucesión convergente, lo que debemos demostrar es que para todo $\varepsilon > 0$, existe $n_0 \in \mathbb{N}$ tal que para todo $n \geq n_0$ se satisface que $|(a_n + b_n) – (L + M) |< \varepsilon$.

Iniciamos la prueba dando un valor arbitrario para épsilon. Sea $\varepsilon > 0$.

Notemos que es posible agrupar los términos de tal forma que la expresión quede acotada por $L$ y $M$, como se muestra a continuación:

$$|(a_n + b_n) – (L + M) | = |(a_n – L ) + (b_n – M) | \leq |a_n – L| + |b_n – M|. \tag{1}$$

Además, por hipótesis, ambas sucesiones son convergentes, es decir,
$$\lim_{n \to \infty} a_n = L \text{ y } \lim_{n \to \infty} b_n = M.$$

Por tanto, podemos tomar un valor arbitrario positivo, en este caso consideremos $\frac{\varepsilon}{2} > 0$, de tal forma que para este valor existe $n_1 \in \mathbb{N}$ tal que para todo $n \geq n_1$, se cumple $$|a_n – L | < \frac{\varepsilon}{2}. \tag{2}$$ 

Análogamente, existe $n_2 \in \mathbb{N}$ tal que para todo $n \geq n_2$, se cumple $$|b_n – M | < \frac{\varepsilon}{2}. \tag{3}$$

Consideremos $n_0 = max\{n_1, n_2 \}$. De esta forma, si $n \geq n_0$, se tiene que $n \geq n_1$ y $n \geq n_2$. Por tanto, si $n \geq n_0$, también se cumplen (2) y (3). Entonces

\begin{align*}
|(a_n + b_n) – (L+M)|& \leq |a_n – L| + |b_n – M| \text{, por (1)} \\
& < \frac{\varepsilon}{2} + \frac{\varepsilon}{2} \text{, por (2) y (3)} \\
& = \varepsilon.
\end{align*}

$$\therefore |(a_n + b_n) – (L + M) | < \varepsilon.$$

$$\therefore \lim_{n \to \infty} (a_n + b_n) = L + M.$$

$\square$

A continuación probaremos qué sucede cuando se multiplica una sucesión por un valor real constante.

Proposición. Sea $\{ a_n \}$ una sucesión en $\mathbb{R}$ y $k \in \mathbb{R}$, $k$ fijo, entonces 

$$\lim_{n \to \infty} k \cdot a_n = k \cdot L.$$

Demostración.

Sea $\varepsilon > 0$. Notemos 

$$ |k \cdot a_n – k \cdot L| = |k(a_n – L)| = |k||a_n – L |.$$

Para el caso de $k=0$, la sucesión $\{k \cdot a_n\}$ se convierte en una sucesión constante donde todos sus términos son cero. Así, consideremos $k \neq 0$ y $\frac{\varepsilon}{|k|} > 0 $. Como $$\lim_{n \to \infty} a_n = L,$$ existe $n_0 \in \mathbb{N}$ tal que para todo $n \geq n_0$ se tiene que

\begin{gather*}
& |a_n – L | < \frac{\varepsilon}{|k|}. \\ \\
\Leftrightarrow & |k||a_n – L| < \varepsilon. \\ \\
\therefore & |k \cdot a_n – k \cdot L| = |k||a_n – L | < \varepsilon.
\end{gather*}

$$\therefore |k \cdot a_n – k \cdot L| < \varepsilon.$$

$$\lim_{n \to \infty} k \cdot a_n = k \cdot L.$$

$\square$

Haciendo uso de las dos proposiciones anteriores, podemos probar fácilmente que la diferencia de dos sucesiones convergentes converge a la diferencia de sus límites.

Corolario. Sean $\{a_n \}$ y $\{ b_n \}$ dos sucesiones tales que
$$\lim_{n \to \infty} a_n = L \text{ y } \lim_{n \to \infty} b_n = M.$$
Entonces se tiene
$$\lim_{n \to \infty} (a_n – b_n) = L – M.$$

Demostración.

\begin{align*}
\lim_{n \to \infty} (a_n – b_n) & = \lim_{n \to \infty} (a_n +(- 1 \cdot b_n)) \\
& = \lim_{n \to \infty} a_n +\lim_{n \to \infty} (- 1 \cdot b_n) \\
& = L + (-1 \cdot M) \\
& = L – M.
\end{align*}

$$\therefore \lim_{n \to \infty} (a_n – b_n) = L – M.$$

$\square$

Sucesiones acotadas

Antes de revisar qué sucede con el producto de sucesiones, estudiaremos el concepto de sucesión acotada, lo que significa que existe un número real $M > 0$ que «encierra» a la sucesión. Es decir, existe un intervalo en el cual todos los términos de la sucesión quedan contenidos. De forma ilustrativa, se muestra la gráfica de la sucesión $\left\lbrace \frac{3}{1+(n-10)^2}-1 \right\rbrace$. De la que más adelante, probaremos su convergencia.

La definición formal se presenta a continuación.

Definición. Se dice que una sucesión $\{a_n \}$ de números reales está acotada si existe un número real $M > 0$ tal que $|a_n| \leq M$ para todo $n \in \mathbb{N}.$

Proposición. Sea $\{ a_n \}$ una sucesión en $\mathbb{R}$. Si $\{ a_n \}$ es convergente, es decir, si existe $L \in \mathbb{R}$ tal que $$\lim_{n \to \infty} a_n = L,$$ entonces $\{ a_n \}$ está acotada. 

Demostración.

Sea $\varepsilon = 1$, como $\{ a_n \}$ converge, entonces existe $n_0 \in \mathbb{N}$ tal que para todo $n \geq n_0$ se tiene que $|a_n – L| < 1$. Además, sabemos que $|a_n| – |L| \leq |a_n – L | < 1$, de lo cual se sigue que

$$|a_n| < 1 + |L| \quad \forall n \geq n_0.$$ 

Notemos que hasta ahora la cota que tenemos es útil únicamente para $n \geq n_0$. Para los primeros $n_0 – 1$ elementos de la sucesión, consideremos $\hat{M} = max \{ |a_1|, |a_2|, …, |a_{n_0-1}| \}$. Así, la cota para toda nuestra sucesión será $M = max \{ \hat{M}, 1 + |L| \}$.

Si $1 \leq n \leq n_0 – 1$, entonces $$|a_n| \leq \hat{M} \leq M \Rightarrow |a_n| \leq M. \tag{1}$$

Por otro lado, si $n \geq n_0$, entonces $$|a_n| \leq 1 + |L| \leq M \Rightarrow |a_n| \leq M. \tag{2}$$

Por (1) y (2), se sigue que para todo $n \in \mathbb{N}$ se tiene que $|a_n| \leq M$. De lo que se concluye que la sucesión $\{a_n\}$ está acotada.

$\square$

Observación. Criterio de no convergencia: Dado que toda sucesión convergente está acotada, entonces, por contrapuesta, si una sucesión no está acotada no puede ser convergente.

Ahora que hemos probado la proposición anterior, podríamos preguntarnos si el regreso es cierto, es decir, ¿toda sucesión acotada converge? La respuesta es no y, de hecho, el contraejemplo lo revisamos en una entrada anterior: $\{ (-1)^n \}$. Se demostró que es una sucesión no convergente y está acotada por $1$.

Producto de sucesiones convergentes

Después de conocer el concepto de sucesión acotado, estamos listos para probar que el producto de sucesiones convergentes converge al producto de sus límites.

Proposición. Sean $\{a_n \}$ y $\{ b_n \}$ dos sucesiones tales que
$$\lim_{n \to \infty} a_n = L \text{ y } \lim_{n \to \infty} b_n = M.$$
Entonces se tiene
$$\lim_{n \to \infty} (a_n \cdot b_n) = L \cdot M.$$

Demostración.

Sea $\varepsilon > 0$.

Con la finalidad de factorizar y obtener expresiones en términos de las sucesiones individuales, sumaremos un cero, $a_nM-a_nM$, a la expresión $|a_n b_n – LM|$.

\begin{align*}
|a_n b_n – LM| & = |a_n b_n – a_n M + a_n M – LM| \\
& \leq |a_n (b_n – M)| + M (a_n – L)| \\
& = |a_n | |b_n – M| + |M| |a_n – L|.
\end{align*}

Además, como $\{a_n\}$ es convergente, entonces está acotada, es decir, existe $J > 0$ tal que para todo $n \in \mathbb{N}$, entonces $|a_n| \leq J$. De la expresión anterior se sigue

\begin{align*}
|a_n b_n – LM| & \leq |a_n | |b_n – M| + |M| |a_n – L| \\
& \leq J|b_n – M| + |M| |a_n – L| \text{, pues } J > 0. \\
\end{align*}

$$\therefore |a_n b_n – LM| \leq J|b_n – M| + |M| |a_n – L|. \tag{1}$$

Consideremos $K = max\{J, |M| \}$. De $(1)$ se sigue que

$$|a_n b_n – LM| \leq K|b_n – M| + K|a_n – L|. \tag{2}$$

Consideremos $\frac{\varepsilon}{2K} > 0$.

\begin{gather*}
\text{Como } \lim_{n \to \infty} a_n = L \text{, existe } n_1 \in \mathbb{N}, \text{ tal que } \forall n \geq n_1, |a_n-L| < \frac{\varepsilon}{2K}. \\

\text{Como } \lim_{n \to \infty} b_n = M \text{, existe } n_2 \in \mathbb{N}, \text{ tal que } \forall n \geq n_2, |b_n-L| < \frac{\varepsilon}{2K}.
\end{gather*}

Tomemos $n_0 = max\{n_1, n_2\}$. Si $n \geq n_0$, entonces $n \geq n_1$, $n \geq n_2$ y junto con $(2)$ se sigue que

\begin{align*}
|a_n b_n – LM| & \leq K|b_n – M| + K|a_n – L| \\
& < K \left( \frac{\varepsilon}{2K} \right) + K \left( \frac{\varepsilon}{2K} \right) \\
& = \varepsilon.
\end{align*}

$$\therefore |a_n b_n – LM| < \varepsilon.$$

$$\therefore \lim_{n \to \infty} (a_n \cdot b_n) = L \cdot M.$$

$\square$

A continuación, revisaremos un par de ejemplos donde se usan las propiedades que se demostraron en la entrada.

Ejemplo 1. Encuentra el siguiente límite $$\lim_{n \to \infty} -\frac{3}{n^2} + 1.$$

En la entrada anterior, probamos que $$\lim_{n \to \infty} \frac{1}{n} = 0.$$

Además, $$- \frac{3}{n^2}+1 = -3 \cdot \frac{1}{n} \cdot \frac{1}{n} + 1.$$

Empleando la expresión anterior y haciendo uso de las propiedades demostradas, tenemos

\begin{align*}
\lim_{n \to \infty} -\frac{3}{n^2} + 1 & = \lim_{n \to \infty} -3 \cdot \frac{1}{n} \cdot \frac{1}{n} + 1\\
& = -3 \cdot 0 \cdot 0 + 1\\
& = 1.
\end{align*}

$$\therefore \lim_{n \to \infty} -\frac{3}{n^2} + 1 = 1.$$

Ejemplo 2. Encuentra el siguiente límite $$\lim_{n \to \infty} 2n-2\sqrt{n^2+n}+1.$$

Factorizando la expresión anterior, obtenemos que
\begin{align*}
2n-2\sqrt{n^2+n}+1 & = (n+1) – 2 \sqrt{n}\sqrt{n+1}+ n \\
&= \left( \sqrt{n+1}-\sqrt{n}\right)^2 \\
& = \left( \sqrt{n+1}-\sqrt{n}\right) \left( \sqrt{n+1}-\sqrt{n}\right).
\end{align*}

En la entrada anterior, probamos que $$\lim_{n \to \infty} \left( \sqrt{n+1}-\sqrt{n}\right) = 0.$$

De esta forma, se tiene que

\begin{align*}
\lim_{n \to \infty} 2n-2\sqrt{n^2+n}+1 & = \lim_{n \to \infty} \left( \sqrt{n+1}-\sqrt{n}\right) \left( \sqrt{n+1}-\sqrt{n}\right) \\
& = 0 \cdot 0 \\
& = 0.
\end{align*}

$$\therefore \lim_{n \to \infty} 2n-2\sqrt{n^2+n}+1 = 0.$$

Más adelante…

En la siguiente entrada revisaremos el caso de la división entre sucesiones convergentes. Complementaremos nuestro estudio revisando una categoría especial de sucesiones llamadas monótonas, y probaremos diversas propiedades de las mismas.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Prueba que si $\{a_n \}$ y $\{b_n \}$ son dos sucesiones tales $\{ a_n \}$ y $\{a_n+b_n\}$ convergen, entonces $\{b_n \}$ también converge.
  • Prueba que si $\{a_n \}$ y $\{b_n \}$ son dos sucesiones tales $\{ a_n \}$ converge a $L \neq 0$ y $\{a_n \cdot b_n\}$ converge, entonces $\{b_n \}$ también converge.
  • Usando las proposiciones demostradas en esta entrada, encuentra el límite de las siguientes sucesiones:
    • $\{ c \cdot \frac{1}{n} \}$, con $c \in \mathbb{R}.$
    • $\{ \frac{10}{n} – 7\}.$
    • $\{ \frac{2n^2-n}{n^2} \cdot \left( \frac{10}{n} – 7 \right) \}.$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral I: Sucesiones de números reales

Por Juan Manuel Naranjo Jurado

Introducción

En la unidad anterior se revisó el concepto de función, sus características y diversas clasificaciones, los conocimientos adquiridos nos ayudarán a dar inicio a esta nueva unidad referente a un tipo especial de funciones que tienen como domino los números naturales y codominio los números reales, éstas son llamadas sucesiones.

En esta entrada nos enfocaremos en entender la definición y estudiar algunos ejemplos que nos permitan familiarizarnos de forma adecuada con este nuevo concepto.

Sucesiones

Es probable que recuerdes ejercicios del tipo «Encuentra el siguiente término de la sucesión 1.1, 4.2, 9.3, 16.4, __, 36.6». Para resolver estos problemas, hacíamos uso de nuestra creatividad con el fin de poder encontrar el patrón que nos permitiera generar cada uno de los números y, para lograrlo, resultaba fundamental establecer una especie de orden: el primer término, luego el segundo, seguido del tercero, etc. En nuestro ejemplo tenemos lo siguiente:

Primer término: 1.1.
Segundo término: 4.2.
Tercer término: 9.3.
Cuarto término: 16.4.
Quinto término: __.
Sexto término: 36.6.

Considerando esto, es que podíamos notar que la sucesión está determinada por $n^2 + \frac{n}{10}$ donde $n$ hace referencia al término $n$-ésimo. Finalmente, calculábamos el término faltante, en nuestro caso el quinto, que sería $5^2+\frac{5}{10} = 25.5$. Sin embargo, ahora estudiaremos las sucesiones desde una perspectiva distinta donde conoceremos desde un inicio esta regla de asignación que nos permite generar la sucesión y más bien nos importará determinar las características que ésta posea.

Definición. Una sucesión de números reales o sucesión en $\RR$ es una función $f$ definida en el conjunto de los números naturales $\mathbb{N}$ con codominio en los reales $\RR$, es decir, $f: \mathbb{N} \to \RR$.

Dada una sucesión $f: \mathbb{N} \to \RR$, los términos de la misma se obtendrán evaluando la función $f$ en elementos de su dominio. Es decir, el primer término de la sucesión es $f(1) = a_1$, el segundo $f(2)=a_2$, y así sucesivamente. De esta manera, identificamos al $n$-ésimo término mediante $a_n$ y denotamos a la sucesión en sí como $\{ a_n \}$.

Es importante destacar que en la definición especificamos que estamos hablando de una sucesión de números reales, pues, en principio, podemos definir funciones de $\mathbb{N}$ a cualquier otro conjunto $A$, sin embargo, en este curso sólo trataremos el caso donde tal conjunto $A$ es el conjunto de los números reales.

Retomando el ejemplo anterior y considerando la definición dada, podemos ser más formales y establecer que la anterior sucesión es una función $f: \mathbb{N} \to \RR$ donde $f(n) = n^2 + \frac{n}{10}$, o bien, podemos denotarla simplemente como $\{ n^2 + \frac{n}{10} \}$.

De esta forma, el primer término de nuestro ejemplo es $a_1 = 1^2+\frac{1}{10} =1.1$, el segundo término es $a_2 = 2^2+\frac{2}{10} =4.2$ y así sucesivamente. De forma más general, el $n$-ésimo término de la sucesión es $a_n = n^2 + \frac{n}{10}$. A continuación mostramos la gráfica de la sucesión:

Ejemplos de sucesiones

Ahora revisaremos algunos ejemplos de sucesiones.

Ejemplo 1. Sea $c \in \mathbb{R}$, la sucesión $\{a_n \}$ generada por $a_n = c$ para todo $n \in \mathbb{N}$, la llamamos sucesión constante. Así, la sucesión constante siempre toma el mismo valor y es de la forma $$\{ c, c, \ldots, c, \ldots \}.$$

Ejemplo 2. La sucesión $\{a_n\}$ generada por $a_n = 2n$ es la sucesión de los números pares positivos. Donde sus términos son $$\{ 2, 4, 6, \ldots, 2k, \ldots \}.$$

Ejemplo 3. Sea $\{a_n\}$ la sucesión generada por $a_n = (-1)^n$. Los términos de la sucesión son $$\{ -1,1,-1,\ldots, -1^k, \ldots \}.$$

Ejemplo 4. Sea $\{a_n\}$ la sucesión generada por $a_n =\frac{1}{n}$. De esta forma, sus términos son $$\left\{ 1, \frac{1}{2}, \frac{1}{3}, \ldots, \frac{1}{k}, \ldots \right\}.$$

Ejemplo 5. Sea $\{a_n\}$ la sucesión generada por $a_n = 2^n$. Con lo cual sus términos son $$\{ 2, 4, 8, 16, \ldots, 2^k \ldots \}.$$

Ejemplo 6. Una de las sucesiones más famosas es la sucesión de Fibonacci $\{f_n\}$ la cual se define de forma inductiva, es decir, cada término se define con base en los anteriores.

\begin{align*}
f_1 & = 1, \\
f_2 & = 1, \\
f_{n+1} & = f_{n-1}+f_{n} \quad \forall n \geq 3.
\end{align*}

A modo ilustrativo, calcularemos los primeros 5 elementos de la sucesión $\{f_n\}$.
$$f_1 = 1, \quad f_2 = 1, \quad f_3 = 1+1 = 2, \quad f_4 = 1+2 = 3, \quad f_5 = 2+3 = 5.$$

Ejemplo 7. Sea $\{a_n\}$ una sucesión definida inductivamente de la siguiente forma:

\begin{align*}
a_1 & = 1, \\
a_n & = n \cdot a_{n-1} \quad \forall n \geq 2.
\end{align*}

De esta forma, los primeros 5 términos de la sucesión son $$\{ 1, 2, 6, 24, 120 \}.$$

Al $n$-ésimo término de esta sucesión se le denota comúnmente como $n!$ y su valor está dado por $$n! = n \cdot (n-1) \cdot (n-2) \cdot \ldots \cdot 2 \cdot 1.$$ Adicionalmente, se define $0! = 1$.

Operaciones con sucesiones

Las reglas de la suma, la resta, el producto y el cociente de funciones particularmente aplican a las sucesiones, pues éstas también son funciones. Considerando esto, dadas dos sucesiones $\{a_n\}$, $\{b_n\}$ y si $c \in \mathbb{R}$, definimos:

  1. La suma: $\{a_n\} + \{b_n\} = \{a_n + b_n\}.$
  2. La resta: $\{a_n\} – \{b_n\} = \{a_n – b_n\}.$
  3. La multiplicación: $\{a_n\} \cdot \{b_n\} = \{a_n \cdot b_n\}.$
  4. La multiplicación por un escalar: $ c \cdot \{a_n\} = \{ c \cdot a_n \}.$
  5. El cociente: Si además $b_n \neq 0$ para todo $n \in \mathbb{N}$, entonces $$\frac{ \{a_n\} }{ \{b_n\} } = \left\{ \frac{a_n}{b_n} \right\}.$$

A continuación veremos algunos ejemplos.

Ejemplo 8. Sean $\{ a_n \} = \{ n^2 \}$ y $\{ b_n \}= \{ \frac{n}{10} \}$, entonces $\{a_n\} + \{b_n\} = \{ n^2 + \frac{n}{10} \}$. Denotamos a la sucesión generada como $\{ c_n \} = \{ n^2 + \frac{n}{10} \}$. A continuación se calculan los primeros tres términos:

\begin{align*}
c_1 =1^2 + \frac{1}{10} = 1.1, \\ \\
c_2 =2^2 + \frac{2}{10} = 4.2, \\ \\
c_3 =3^2 + \frac{3}{10} = 9.3.
\end{align*}
Así, los términos de la sucesión son: $$\left\{ 1.1, 4.2, 9.3, \ldots, k^2 + \frac{k}{10}, \ldots \right\}.$$

Ejemplo 9. Sean $\{ a_n \} = \{ n \} $ y $\{ b_n \}= \{ n+1 \}$, entonces $\{a_n\} – \{b_n\} = \{ -1 \}$. Denotamos a la sucesión generada como $\{ c_n \} = \{ -1 \}$. Los primeros tres términos son:

\begin{align*}
c_1 = -1, \\ \\
c_2 = -1, \\ \\
c_3 = -1.
\end{align*}
Así, los términos de la sucesión son: $$\{ -1, -1, -1, \ldots, -1, \ldots \}.$$

Ejemplo 10. Sean $\{ a_n \} = \{n-1\} $ y $\{ b_n \}= \{n+1\}$, entonces $\{a_n\} \cdot \{b_n\} = \{n^2-1\}$. Denotamos a la sucesión generada como $\{ c_n \} = \{n^2-1\}$. Los primeros tres términos son:

\begin{align*}
c_1 = 1^2-1 = 0, \\ \\
c_2 = 2^2-1 = 3, \\ \\
c_3 = 3^2-1 = 8.
\end{align*}
Así, los términos de la sucesión son: $$\{ 0, 3, 8, \ldots, k^2-1, \ldots \}.$$

Ejemplo 11. Sean $c = 5 $ y $\{ a_n \}= \{n \}$, entonces $5 \cdot \{a_n\} = \{5n\}$. Denotamos a la sucesión generada como $\{ c_n \} = \{5n\}$. Los primeros tres términos son:

\begin{align*}
c_1 = 5(1) = 5, \\ \\
c_2 = 5(2) = 10, \\ \\
c_3 = 5(3) = 15.
\end{align*}
Así, los términos de la sucesión son: $$\{ 5, 10, 15, \ldots, 5k, \ldots \}.$$

Ejemplo 12. Sean $\{ a_n \} = \{ n \} $ y $\{ b_n \}= \{ (-1)^n \}$, entonces $\frac{ \{a_n\} }{ \{b_n\}} = \left\{ \frac{ n }{ (-1)^n } \right\}$. Denotamos a la sucesión generada como $\{ c_n \} = \left\{ \frac{ n }{ (-1)^n } \right\}$. Los primeros tres términos son:

\begin{align*}
c_1 = \frac{1}{(-1)^1} = -1, \\ \\
c_2 = \frac{2}{(-1)^2} = 2, \\ \\
c_3 = \frac{3}{(-1)^3} = -3.
\end{align*}
Así, los términos de la sucesión son: $$\left\{-1, 2, -3, \ldots, \frac{k}{(-1)^k}, \ldots \right\}.$$

Más adelante…

En la siguiente entrada se hará la revisión del concepto de sucesión convergente. Para este propósito, revisaremos la definición de límite aplicado a sucesiones, que será clave para el estudio de todos los temas subsecuentes en el curso dado que es el antecesor de la definición del límite de una función.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Considera la sucesión de Fibonacci definida en esta entrada. Encuentra $f_8$.
  • Consideremos las sucesiones $\{ a_n \}$ y $\{b_n\}$ donde $a_n = n^2-5n+10$ y $b_n = \frac{1}{n}$. Determina los primeros 8 términos de las siguientes sucesiones:
    • $\{ a_n \} \cdot \{b_n\}.$
    • $\{ a_n \} + \{b_n\}.$
    • $\frac{\{ a_n \}}{\{b_n\}}.$
    • $8 \cdot \{ a_n \} – 10 \cdot \{ \frac{1}{b_n}\}.$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales I – Videos: Ecuaciones lineales homogéneas de segundo orden con coeficientes constantes

Por Eduardo Vera Rosales

Introducción

Al comienzo de la segunda unidad, revisamos las propiedades más importantes de las ecuaciones lineales homogéneas de segundo orden. En particular, vimos que para encontrar la solución general basta con encontrar dos soluciones particulares que sean linealmente independientes, y la combinación lineal de estas será la solución general a la ecuación.

Pondremos en práctica lo aprendido anteriormente para resolver ecuaciones lineales homogéneas de segundo orden con coeficientes constantes, es decir, de la forma $$a\frac{d^{2}y}{dt^{2}}+b\frac{dy}{dt}+cy=0$$ donde $a$, $b$ y $c$ son constantes y $a \neq 0$. Observaremos que las soluciones deben ser de la forma $e^{rt}$, y si hallamos los valores de $r$ que satisfagan la ecuación diferencial, entonces podremos encontrar la solución general.

Finalmente analizaremos tres distintos casos que se presentan cuando buscamos la solución general a la ecuación diferencial, los cuales dependen de la ecuación $$ar^{2}+br+c=0$$ que aparece durante el desarrollo de la solución. Por supuesto, estos casos dependerán de las raíces de dicha ecuación.

Ecuaciones lineales homogéneas de segundo orden con coeficientes constantes. Raíces reales diferentes

Analizamos cómo deben ser las soluciones a la ecuación $$a\frac{d^{2}y}{dt^{2}}+b\frac{dy}{dt}+cy=0$$ y suponiendo que $y_{0}(t)=e^{rt}$ es una solución, hallamos la solución general a la ecuación. En particular, revisamos el caso cuando las dos raíces de la ecuación $$ar^{2}+br+c=0$$ son reales y distintas, y resolvemos un ejemplo.

Raíces reales repetidas

En este video revisamos el caso cuando las dos raíces de la ecuación $$ar^{2}+br+c=0$$ son iguales, y resolvemos un ejemplo para mostrar lo desarrollado.

Raíces complejas

En el último video de esta entrada revisamos el caso cuando las dos raíces de la ecuación $$ar^{2}+br+c=0$$ son complejas, vemos que las soluciones complejas se comportan de manera similar a las soluciones con valores reales, y como buscamos soluciones reales, transformamos la solución compleja en una real.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Resuelve el problema de valor inicial $$\frac{d^{2}y}{dt^{2}}-6\frac{dy}{dt}+y=0; \,\,\,\,\,\, y(0)=1, \frac{dy}{dt}(0)=0.$$
  • Prueba que $\{e^{rt}, te^{rt}\}$ es un conjunto linealmente independiente. Por tanto, para el caso cuando $$ar^{2}+br+c=0$$ tiene raíces repetidas, la solución general a la ecuación $$a\frac{d^{2}y}{dt^{2}}+b\frac{dy}{dt}+cy=0$$ efectivamente es la que se muestra en el video correspondiente.
  • Resuelve el problema de condición inicial $$\frac{d^{2}y}{dt^{2}}+2\frac{dy}{dt}+y=0; \,\,\,\,\, y(0)=1, \frac{dy}{dt}(0)=0.$$
  • Prueba que si $r_{1}=w + iz$ y $r_{2}=w – iz$, entonces $\{e^{r_{1}t}, e^{r_{2}t}\}$ es un conjunto linealmente independiente. Por tanto, para el caso cuando $$ar^{2}+br+c=0$$ tiene raíces complejas, la solución general a la ecuación $$a\frac{d^{2}y}{dt^{2}}+b\frac{dy}{dt}+cy=0$$ es la combinación lineal de estas dos funciones.
  • Prueba que $$W[e^{wt}\cos{zt}, e^{wt}\sin{zt}]\neq 0$$ para el caso del ejercicio anterior, y por tanto la combinación lineal de estas dos funciones es la solución general a la ecuación diferencial.
  • Resuelve el problema de condición inicial $$\frac{d^{2}y}{dt^{2}}+\frac{dy}{dt}+2y=0; \,\,\,\,\, y(0)=1, \frac{dy}{dt}(0)=0.$$

Más adelante

En la siguiente entrada comenzaremos a estudiar el caso no homogéneo de las ecuaciones lineales de segundo orden, es decir, ecuaciones de la forma $$\frac{d^{2}y}{dt^{2}}+p(t)\frac{dy}{dt}+q(t)y=g(t)$$ donde la función $g$ no es la constante cero.

En particular, resolveremos este tipo de ecuaciones por el método de variación de parámetros, que es análogo al método de variación de parámetros para resolver ecuaciones no lineales de primer orden.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Ecuaciones Diferenciales l: Ecuación de Bernoulli y ecuación de Riccati

Por Omar González Franco

“Obvio” es la palabra más peligrosa del mundo en matemáticas.
– E. T. Bell

Introducción

Con esta entrada concluiremos el desarrollo de métodos de resolución de ecuaciones diferenciales de primer orden.

Presentaremos dos ecuaciones diferenciales no lineales más, conocidas como ecuación diferencial de Bernoulli y ecuación diferencial de Riccati en honor a sus formuladores Jacob Bernoulli y Jacopo Francesco Riccati, respectivamente.

Ecuación diferencial de Bernoulli

La ecuación diferencial de Bernoulli es una ecuación diferencial ordinaria de primer orden formulada por Jacob Bernoulli en el siglo XVll.

Si a la ecuación de Bernoulli la dividimos por la función $a_{1}(x) \neq 0$, obtenemos

$$\dfrac{dy}{dx} + \dfrac{a_{0}(x)}{a_{1}(x)} y = \dfrac{g(x)}{a_{1}(x)} y^{n}$$

Definimos las siguientes funciones.

$$P(x)=\dfrac{a_{0}(x)}{a_{1}(x)} \hspace{1cm} y \hspace{1cm} Q(x)=\dfrac{g(x)}{a_{1}(x)} \label{2} \tag{2}$$

Entonces una ecuación de Bernoulli se puede reescribir como

$$\dfrac{dy}{dx} + P(x) y = Q(x) y^{n} \label{3} \tag{3}$$

La ecuación (\ref{3}) es también una definición común de ecuación de Bernoulli.

Notemos que si $n = 0$, la ecuación de Bernoulli se reduce a una ecuación diferencial lineal no homogénea.

$$\dfrac{dy}{dx} + P(x) y = Q(x) \label{4} \tag{4}$$

Y si $n = 1$, la ecuación de Bernoulli se reduce a una ecuación diferencial lineal homogénea.

\begin{align*}
\dfrac{dy}{dx} + P(x) y &= Q(x) y \\
\dfrac{dy}{dx} + [P(x) -Q(x)] y &= 0 \\
\end{align*}

Si definimos

$$R(x) = P(x) -Q(x)$$

entonces

$$\dfrac{dy}{dx} + R(x) y = 0 \label{5} \tag{5}$$

Las ecuaciones (\ref{4}) y (\ref{5}) ya las sabemos resolver.

Nuestro objetivo será resolver la ecuación de Bernoulli para el caso en el que $n \neq 0$ y $n \neq 1$.

Una propiedad de las ecuaciones de Bernoulli es que la sustitución

$$u(x) = y^{1 -n} \label{6} \tag{6}$$

la convierte en una ecuación lineal, de tal manera que podremos resolverla usando algún método de resolución visto para ecuaciones diferenciales lineales.

Consideremos la ecuación de Bernoulli en la forma (\ref{3}).

$$\dfrac{dy}{dx} + P(x) y = Q(x) y^{n}$$

Dividimos toda la ecuación por $y^{n} \neq 0$.

$$\dfrac{1}{y^{n}} \dfrac{dy}{dx} + P(x) y^{1-n} = Q(x) \label{7} \tag{7}$$

La derivada de la función (\ref{6}) es

$$\dfrac{du}{dx} = (1 -n) y^{-n} \dfrac{dy}{dx} = (1 -n) \dfrac{1}{y^{n}} \dfrac{dy}{dx}$$

de donde,

$$\dfrac{1}{y^{n}} \dfrac{dy}{dx} = \dfrac{1}{1 -n} \dfrac{du}{dx} \label{8} \tag{8}$$

Sustituyamos (\ref{6}) y (\ref{8}) en la ecuación (\ref{7}).

$$\dfrac{1}{1-n} \dfrac{du}{dx} + P(x)u = Q(x) \label{9} \tag{9}$$

Multipliquemos por $1 -n$ en ambos lados de la ecuación.

$$\dfrac{du}{dx} + (1 -n)P(x)u = (1 -n)Q(x)$$

Definimos las funciones

$$R(x) = (1 -n)P(x) \hspace{1cm} y \hspace{1cm} S(x) = (1 -n)Q(x)$$

En términos de estas funciones la ecuación (\ref{9}) se puede escribir de la siguiente forma.

$$\dfrac{du}{dx} + R(x)u = S(x) \label{10} \tag{10}$$

Este resultado corresponde a una ecuación diferencial lineal de primer orden no homogénea y, por tanto, puede ser resuelta aplicando el algoritmo descrito para resolver ecuaciones diferenciales lineales.

Los pasos que se recomiendan seguir para resolver una ecuación diferencial de Bernoulli se presentan a continuación.

Método para resolver ecuaciones de Bernoulli

  1. El primer paso es escribir a la ecuación de Bernoulli en la forma (\ref{3}).
  1. Dividimos toda la ecuación por $y^{n}$ y consideramos el cambio de variable $u = y^{1 -n}$, así como la respectiva derivada $$\dfrac{du}{dx} = (1 -n)\dfrac{1}{y^{n}} \dfrac{dy}{dx}$$
  1. Sustituimos $$y^{1 -n} = u \hspace{1cm} y \hspace{1cm} \dfrac{1}{y^{n}} \dfrac{dy}{dx} = \dfrac{1}{1 -n}\dfrac{du}{dx}$$ en la ecuación resultante del paso anterior y haciendo un poco de álgebra podremos reducir la ecuación de Bernoulli en una ecuación lineal de primer orden no homogénea.
  1. Resolvemos la ecuación resultante usando el método de resolución de ecuaciones diferenciales lineales lo que nos permitirá obtener la función $u(x)$.
  1. Regresamos a la variable original para obtener finalmente la solución $y(x)$.

Realicemos un ejemplo en el que apliquemos estos pasos.

Ejemplo: Resolver la ecuación de Bernoulli

$$3(1 + x^{2}) \dfrac{dy}{dx} = 2xy (y^{3} -1)$$

Solución: El primer paso es escribir la ecuación de Bernoulli en la forma (\ref{3}).

\begin{align*}
3(1 + x^{2}) \dfrac{dy}{dx} &= 2xy (y^{3} -1) \\
\dfrac{dy}{dx} & =\dfrac{2xy (y^{3} -1)}{3(1 + x^{2})} \\
\dfrac{dy}{dx} &= \dfrac{2xy^{4}}{3(1 + x^{2})} -\dfrac{2xy}{3(1 + x^{2})} \\
\dfrac{dy}{dx} + \left( \dfrac{2x}{3(1 + x^{2})} \right) y &= \left( \dfrac{2x}{3(1 + x^{2})} \right) y^{4}
\end{align*}

La última relación muestra a la ecuación en la forma (\ref{3}) con $n = 4$, ahora dividamos toda la ecuación por $y^{4}$.

$$\dfrac{1}{y^{4}} \dfrac{dy}{dx} + \left( \dfrac{2x}{3(1+x^{2})} \right) y^{-3} = \dfrac{2x}{3(1 + x^{2})} \label{11} \tag{11}$$

Consideremos la sustitución

$$u = y^{1 -n} = y^{1 -4} = y^{-3} = \dfrac{1}{y^{3}}$$

y

$$\dfrac{du}{dx} = -3 y^{-4} \dfrac{dy}{dx}$$

De donde,

$$\dfrac{1}{y^{4}} \dfrac{dy}{dx} = -\dfrac{1}{3} \dfrac{du}{dx} \hspace{1cm} y \hspace{1cm} y^{-3} = u$$

Sustituimos estos resultados en la ecuación (\ref{11}).

\begin{align*}
-\dfrac{1}{3} \dfrac{du}{dx} + \left( \dfrac{2x}{3(1 + x^{2})} \right) u &= \dfrac{2x}{3(1 + x^{2})} \\
\dfrac{du}{dx} +\left( -\dfrac{2x}{1 + x^{2}} \right) u &= -\dfrac{2x}{1 + x^{2}} \label{12} \tag{12}
\end{align*}

La última ecuación es una expresión en la forma (\ref{10}). Con esto hemos logrado reducir la ecuación de Bernoulli en una ecuación diferencial lineal de primer orden no homogénea.

Establecemos las siguientes funciones.

$$R(x) = -\dfrac{2x}{1 + x^{2}} \hspace{1cm} y \hspace{1cm} S(x) = -\dfrac{2x}{1 + x^{2}}$$

A partir de aquí aplicamos el método de resolución de ecuaciones diferenciales lineales.

La ecuación ya se encuentra en su forma canónica. Determinemos el factor integrante dado por

$$\mu (x) = e^{\int {R(x)dx}} \label{13} \tag{13}$$

Resolvamos la integral del exponente omitiendo la constante de integración.

\begin{align*}
\int {R(x)dx} &= -\int \dfrac{2x}{1 + x^{2}} dx \\
&= -\ln|1 + x^{2}|
\end{align*}

Por lo tanto,

$$\mu (x) = e^{-\ln|1 + x^{2}|} = \dfrac{1}{1+x^{2}}$$

Multipliquemos a la ecuación (\ref{12}) por el factor integrante.

$$\dfrac{1}{1 + x^{2}} \dfrac{du}{dx} -\dfrac{1}{1 + x^{2}} \left( \dfrac{2x}{1 + x^{2}} \right) u = -\dfrac{1}{1 + x^{2}} \left( \dfrac{2x}{1 + x^{2}} \right)$$

Identificamos que el lado izquierdo de la ecuación es la derivada del producto del factor integrante $\mu(x)$ por la función $u(x)$, de esta manera

$$\dfrac{d}{dx} \left( \dfrac{u}{1 + x^{2}} \right) = -\dfrac{2x}{(1 + x^{2})^{2}}$$

Integramos ambos lados de la ecuación con respecto a $x$. Por tratarse del último paso sí consideramos a la constante de integración.

$$\int \dfrac{d}{dx} \left( \dfrac{u}{1 + x^{2}} \right) dx = -\int \dfrac{2x}{(1 + x^{2})^{2}} dx$$

En el lado izquierdo aplicamos el teorema fundamental del cálculo y en el lado derecho consideramos la sustitución $a(x) = 1 + x^{2}$ para resolver la integral. El resultado que se obtiene es

\begin{align*}
\dfrac{u}{1 + x^{2}} &= \dfrac{1}{1 + x^{2}} + c \\
u &= 1 + (1 + x^{2})c \\
\end{align*}

Regresamos a la variable original $u = y^{-3}$.

$$\dfrac{1}{y^{3}} = 1 + (1 + x^{2})c$$

Por lo tanto, la solución general (implícita) de la ecuación diferencial de Bernoulli

$$3(1 + x^{2}) \dfrac{dy}{dx} = 2xy (y^{3} -1)$$

es

$$y^{3}(x) = \dfrac{1}{1 + (1 + x^{2}) c}$$

$\square$

Ahora revisemos la ecuación de Riccati.

Ecuación diferencial de Riccati

La ecuación de Riccati es una ecuación diferencial ordinara no lineal de primer orden, inventada y desarrollada en el siglo XVlll por el matemático italiano Jacopo Francesco Riccati.

Resolver la ecuación de Riccati requiere del conocimiento previo de una solución particular de la ecuación, llamemos a dicha solución $\hat{y}(x)$. Si hacemos la sustitución

$$y(x) = \hat{y}(x) + u(x) \label{15} \tag{15}$$

La ecuación de Riccati adquiere la forma de una ecuación de Bernoulli, de tarea moral comprueba este hecho. Ya vimos que para resolver una ecuación de Bernoulli debemos reducirla a una ecuación lineal no homogénea, así que veamos directamente cómo reducir una ecuación de Riccati a una ecuación lineal no homogénea.

Sea $\hat{y}(x)$ una solución particular de la ecuación de Riccati y consideremos la sustitución

$$y(x) = \hat{y}(x) + \dfrac{1}{u(x)} \label{16} \tag{16}$$

Derivemos esta ecuación.

$$\dfrac{dy}{dx} = \dfrac{d\hat{y}}{dx} -\dfrac{1}{u^{2}} \dfrac{du}{dx} \label{17} \tag{17}$$

Como $\hat{y}(x)$ es una solución de la ecuación de Riccati, entonces satisface la ecuación diferencial.

$$\dfrac{d\hat{y}}{dx} = q_{0}(x) + q_{1}(x) \hat{y} + q_{2}(x) \hat{y}^{2} \label{18} \tag{18}$$

Sustituyendo (\ref{18}) en (\ref{17}) obtenemos la siguiente ecuación.

$$\dfrac{dy}{dx} = q_{0}(x) + q_{1}(x) \hat{y} + q_{2}(x) \hat{y}^{2} -\dfrac{1}{u^{2}} \dfrac{du}{dx} \label{19} \tag{19}$$

Ahora podemos igualar la ecuación (\ref{19}) con la ecuación de Riccati (\ref{14}).

\begin{align*}
q_{0}(x) + q_{1}(x) y +q_{2}(x) y^{2} &= q_{0}(x) + q_{1}(x) \hat{y} + q_{2}(x) \hat{y}^{2} -\dfrac{1}{u^{2}} \dfrac{du}{dx} \\
q_{1}(x) y +q_{2}(x) y^{2} &= q_{1}(x) \hat{y} + q_{2}(x) \hat{y}^{2} -\dfrac{1}{u^{2}} \dfrac{du}{dx} \\
\dfrac{1}{u^{2}} \dfrac{du}{dx} &= q_{1}(x) \hat{y} -q_{1}(x) y + q_{2}(x) \hat{y}^{2} -q_{2}(x) y^{2} \\
\dfrac{1}{u^{2}} \dfrac{du}{dx} &= q_{1}(x)(\hat{y} -y) + q_{2}(x)(\hat{y}^{2} -y^{2})
\end{align*}

En la última relación sustituimos la función (\ref{16}).

\begin{align*}
\dfrac{1}{u^{2}} \dfrac{du}{dx} &= q_{1}(x) \left[ \hat{y} -\left( \hat{y} + \dfrac{1}{u} \right) \right] + q_{2}(x) \left [ \hat{y}^{2} -\left( \hat{y} + \dfrac{1}{u} \right) ^{2} \right ] \\
&= q_{1}(x) \left( \hat{y} -\hat{y} -\dfrac{1}{u} \right) + q_{2}(x) \left( \hat{y}^{2} -\hat{y}^{2} -2 \hat{y} \dfrac{1}{u} -\dfrac{1}{u^{2}} \right) \\
&= q_{1}(x) \left( -\dfrac{1}{u} \right ) + q_{2}(x) \left( -2\dfrac{\hat{y}}{u} -\dfrac{1}{u^{2}} \right) \\
&= -\dfrac{q_{1}(x)}{u} -2 q_{2}(x) \dfrac{\hat{y}}{u} -\dfrac{q_{2}(x)}{u^{2}}
\end{align*}

Esto es,

$$\dfrac{1}{u^{2}} \dfrac{du}{dx} = -\dfrac{q_{1}(x)}{u} -2 q_{2}(x) \dfrac{\hat{y}}{u} -\dfrac{q_{2}(x)}{u^{2}}$$

Multipliquemos ambos lados de la ecuación por $u^{2}$.

\begin{align*}
\dfrac{du}{dx} &= -q_{1}(x)u -2q_{2}(x) \hat{y} u -q_{2}(x) \\
\dfrac{du}{dx} &= -\left( q_{1}(x) + 2q_{2}(x) \hat{y} \right) u -q_{2}(x)
\end{align*}

Vemos que

$$\dfrac{du}{dx} + \left( q_{1}(x) + 2q_{2}(x) \hat{y} \right) u = -q_{2}(x) \label{20} \tag{20}$$

Definamos las funciones

$$R(x) = q_{1}(x) + 2q_{2}(x) \hat{y}(x) \hspace{1cm} y \hspace{1cm} S(x) = -q_{2}(x)$$

Por lo tanto, la ecuación (\ref{20}) queda de la siguiente forma.

$$\dfrac{du}{dx} + R(x) u = S(x) \label{21} \tag{21}$$

Queda demostrado que la sustitución (\ref{16}) convierte a la ecuación de Riccati en una ecuación diferencial lineal y, por tanto, puede ser resuelta con el método de resolución de ecuaciones lineales.

Como es usual, enunciemos la serie de pasos que se recomienda seguir para resolver las ecuaciones diferenciales de Riccati.

Método para resolver ecuaciones de Riccati

  1. El primer paso es escribir a la ecuación de Riccati en la forma (\ref{14}) y estar seguros de que conocemos previamente una solución particular $\hat{y}(x)$ de la ecuación.
  1. Como queremos reducir la ecuación de Riccati en una ecuación lineal no homogénea consideramos la sustitución $$y(x) = \hat{y}(x) + \dfrac{1}{u(x)}$$ con $\hat{y}(x)$ la solución particular dada.

    Si se deseara reducirla a una ecuación de Bernoulli se hace la sustitución $$y(x) = \hat{y}(x) + u(x)$$
  1. Debido a que $\hat{y}(x)$ es solución de la ecuación de Riccati, el siguiente paso es derivar la sustitución $y = \hat{y} + \dfrac{1}{u}$ y en el resultado sustituir $\dfrac{d\hat{y}}{dx}$ por la ecuación de Riccati para la solución particular, esto es

$$\dfrac{dy}{dx} = \dfrac{d\hat{y}}{dx} -\dfrac{1}{u^{2}} \dfrac{du}{dx} = \left[ q_{1}(x) + q_{2}(x) \hat{y} + q_{3}(x) \hat{y}^{2} \right] -\dfrac{1}{u^{2}} \dfrac{du}{dx}$$

  1. Igualamos la ecuación anterior con la ecuación de Riccati original en la forma (\ref{14}) y hacemos la sustitución $$y(x) = \hat{y}(x) + \dfrac{1}{u(x)}$$
  1. Hecho lo anterior y haciendo un poco de álgebra podremos reducir la ecuación de Riccati en una ecuación lineal de primer orden y así aplicar el método de resolución para este tipo de ecuaciones.
  1. Una vez obtenida la función $u(x)$ la sustituimos en $y(x)$ para obtener la solución deseada.

Realicemos un ejemplo para poner en practica este método.

Ejemplo: Resolver la ecuación de Riccati

$$\dfrac{dy}{dx} = -\dfrac{4}{x^{2}} -\dfrac{y}{x} + y^{2}$$

dada la solución particular $\hat{y} = \dfrac{2}{x}$.

Solución: La ecuación diferencial prácticamente se encuentra en la forma de la ecuación (\ref{14}), sólo para que sea claro escribimos

$$\dfrac{dy}{dx} = \left( -\dfrac{4}{x^{2}} \right) + \left( -\dfrac{1}{x} \right) y + y^{2}$$

Comencemos por verificar que la solución particular dada efectivamente satisface la ecuación de Riccati. Por un lado,

$$\dfrac{d \hat{y}}{dx} = -\dfrac{2}{x^{2}}$$

Por otro lado,

\begin{align*}
-\dfrac{4}{x^{2}} -\dfrac{\hat{y}}{x} + \hat{y}^{2} &= -\dfrac{4}{x^{2}} -\dfrac{1}{x} \left( \dfrac{2}{x} \right) + \left( \dfrac{2}{x} \right)^{2} \\
&= -\dfrac{4}{x^{2}} -\dfrac{2}{x^{2}} + \dfrac{4}{x^{2}} \\
&= -\dfrac{2}{x^{2}}
\end{align*}

En efecto,

$$\dfrac{d \hat{y}}{dx} = -\dfrac{4}{x^{2}} -\dfrac{\hat{y}}{x} + \hat{y}^{2} = -\dfrac{2}{x^{2}}$$

El siguiente paso es hacer la sustitución (\ref{16}).

$$y(x) = \hat{y}(x) + \dfrac{1}{u(x)} = \dfrac{2}{x} + \dfrac{1}{u}$$

De acuerdo a (\ref{19}), tenemos

$$\dfrac{dy}{dx} = -\dfrac{4}{x^{2}} -\dfrac{1}{x} \left( \dfrac{2}{x} \right) + \left( \dfrac{2}{x} \right)^{2} -\dfrac{1}{u^{2}} \dfrac{du}{dx}$$

Igualemos este resultado con la ecuación de Riccati original.

\begin{align*}
-\dfrac{4}{x^{2}} -\dfrac{y}{x} + y^{2} &= -\dfrac{4}{x^{2}} -\dfrac{2}{x^{2}} + \dfrac{4}{x^{2}} -\dfrac{1}{u^{2}} \dfrac{du}{dx} \\
-\dfrac{y}{x} + y^{2} &= \dfrac{2}{x^{2}} -\dfrac{1}{u^{2}} \dfrac{du}{dx} \\
\dfrac{1}{u^{2}} \dfrac{du}{dx} &= \dfrac{2}{x^{2}} + \dfrac{y}{x} -y^{2}
\end{align*}

En la última ecuación sustituimos $y = \dfrac{2}{x} + \dfrac{1}{u}$.

\begin{align*}
\dfrac{1}{u^{2}} \dfrac{du}{dx} &= \dfrac{2}{x^{2}} + \dfrac{1}{x} \left( \dfrac{2}{x} + \dfrac{1}{u} \right) -\left( \dfrac{2}{x} + \dfrac{1}{u} \right)^{2} \\
&= \dfrac{2}{x^{2}} + \dfrac{2}{x^{2}} + \dfrac{1}{xu} -\left( \dfrac{4}{x^{2}} + \dfrac{4}{xu} + \dfrac{1}{u^{2}} \right) \\
&= \dfrac{4}{x^{2}} + \dfrac{1}{xu} -\dfrac{4}{x^{2}} -\dfrac{4}{xu} -\dfrac{1}{u^{2}} \\
&= -\dfrac{3}{xu} -\dfrac{1}{u^{2}} \\
\end{align*}

De donde,

$$\dfrac{du}{dx} + \dfrac{3}{x}u = -1$$

Esta expresión tiene la forma de una ecuación diferencial lineal (\ref{21}), de donde podemos determinar que

$$R(x) = \dfrac{3}{x} \hspace{1cm} y \hspace{1cm} S(x) = -1$$

La ecuación de Riccati ha sido reducida a una ecuación lineal no homogénea, ahora apliquemos el método de resolución de ecuaciones diferenciales lineales.

Calculemos el factor integrante $\mu(x) = e^{\int R(x)dx}$.

$$\int {R(x)dx} = \int {\dfrac{3}{x}dx} = 3\ln|x|$$

El factor integrante es

$$\mu (x) = e^{3 \ln|x|} = x^{3}$$

Multipliquemos la ecuación diferencial por el factor integrante.

\begin{align*}
x^{3} \dfrac{du}{dx} + x^{3} \left( \dfrac{3}{x} \right ) u &= -x^{3} \\
x^{3} \dfrac{du}{dx} + 3x^{2}u &= -x^{3}
\end{align*}

Identificamos que el lado izquierdo de la ecuación corresponde a la derivada del producto entre el factor integrante $\mu(x)$ y la función $u(x)$, entonces

$$\dfrac{d}{dx} \left( x^{3}u \right) = -x^{3}$$

Integramos ambos lados de la ecuación con respecto a $x$.

\begin{align*}
\int {\dfrac{d}{dx} \left( x^{3}u \right) dx} &= \int {-x^{3}dx} \\
x^{3}u &= -\dfrac{x^{4}}{4} + c \\
u(x) &= -\dfrac{x}{4} + \dfrac{c}{x^{3}}
\end{align*}

Ya determinamos el valor de $u(x)$, ahora sólo lo sustituimos en la función $y = \dfrac{2}{x} + \dfrac{1}{u}$.

Por lo tanto, la solución general de la ecuación de Bernoulli

$$\dfrac{dy}{dx} = -\dfrac{4}{x^{2}} -\dfrac{y}{x} + y^{2}$$

es

$$y(x) = \dfrac{2}{x} + \dfrac{1}{\dfrac{c}{x^{3}} -\dfrac{x}{4}} = \dfrac{2}{x} + \dfrac{4x^{3}}{4c -x^{4}}$$

$\square$

Hemos concluido con el estudio de las ecuaciones diferenciales de primer orden.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver las siguientes ecuaciones de Bernoulli.
  • $\dfrac{dy}{dx} + \dfrac{1}{x}y = \dfrac{2}{3}x^{4}y^{4}$
  • $3x \dfrac{dy}{dx} -2y = x^{3}y^{-2}$
  • $x^{2} \dfrac{dy}{dx} -2xy = 3y^{4} \hspace{0.8cm}$ con la condición inicial $\hspace{0.5cm} y(1) = \dfrac{1}{2}$
  1. Resolver las siguientes ecuaciones de Riccati.
  • $x^{3} \dfrac{dy}{dx} = x^{4}y^{2} -2x^{2}y -1 \hspace{0.8cm}$ con solución particular $\hspace{0.5cm} \hat{y} = \dfrac{1}{x^{2}}$
  • $\dfrac{dy}{dx} = xy^{2} + y + \dfrac{1}{x^{2}} \hspace{0.8cm}$ con solución particular $\hspace{0.5cm} \hat{y} = -\dfrac{1}{x}$
  1. Demostrar que la sustitución $$y(x) = \hat{y}(x) + u(x)$$ convierte a una ecuación de Riccati en una ecuación de Bernoulli. $\hat{y}(x)$ es una solución particular de la ecuación de Riccati.

Más adelante…

Con esta entrada concluimos el estudio de las ecuaciones diferenciales de primer orden, a lo largo de la unidad vimos una descripción cualitativa y posteriormente una descripción analítica en la que desarrollamos varios métodos para resolver ecuaciones diferenciales de primer orden tanto lineales como no lineales.

Antes de pasar a la siguiente unidad y comenzar con el estudio de las ecuaciones diferenciales de segundo orden, es importante hacer un estudio con mayor detalle sobre el teorema de existencia y unicidad ya que es este teorema el que justifica toda la teoría que hemos desarrollado a lo largo de la unidad.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»