Archivo de la etiqueta: Operadores diferenciales

Variable Compleja I: Consecuencias de las ecuaciones de Cauchy-Riemann

Por Pedro Rivera Herrera

Introducción

En las entradas anteriores hemos determinado condiciones necesarias y suficientes para garantizar la analicidad de una función compleja. En particular hemos deducido las ecuaciones de C-R y hemos visto que dichas condiciones nos permiten caracterizar por completo la diferenciabilidad en el sentido complejo. Además, a través de dichas ecuaciones hemos probado que la diferenciabilidad en el sentido real de una función vectorial de dos variables no es equivalente a la diferenciabilidad de una función compleja, por lo que debe ser claro que no toda función vectorial de dos variables resultará ser una función analítica.

En esta entrada abordaremos algunos resultados que son consecuencia directa de las ecuaciones de C-R y veremos que es posible extender algunas resultados vistos en nuestros cursos de Cálculo para las funciones complejas a través de las funciones reales correspondientes con las partes real e imaginaria de una función compleja.

Observación 19.1.
De nuestros cursos de Cálculo sabemos que para una función $u:U \to \mathbb{R}$ de clase $C^1$, con $U\subset\mathbb{R}^2$ una región, se cumple que $u$ no depende de la variable $x$ si y solo si $\partial u/ \partial x = 0$ para todo punto en $U$. Análogamente para la variable $y$. Más aún, tenemos que: \begin{align*} \frac{\partial}{\partial x} x = 1, \quad \frac{\partial}{\partial y} x = 0,\\ \frac{\partial}{\partial x} y = 0, \quad \frac{\partial}{\partial y} y = 1. \end{align*}

Para motivar los siguientes planteamientos consideremos el siguiente:

Ejemplo 19.1.
Determinemos si la función compleja $f(z) = 2xy + i(y^2-x^2)$ es analítica o no.

Solución. Es claro que podemos estudiar la analicidad de esta función a través de los resultados de la entrada anterior, sin embargo notemos que operando un poco a la función, para $z=x+iy\in \mathbb{C}$, tenemos que: \begin{align*} f(z) & = 2xy + i(y^2-x^2)\\ & = -i(i2xy) + i(y^2-x^2)\\ & = -i \left[-(y^2-x^2) + i2xy \right]\\ & = -i \left(x^2 -y^2 + i2xy \right)\\ & = – i\left(x+iy\right)^2\\ & = -i z^2, \end{align*} es decir que para todo $z\in \mathbb{C}$ se tiene que $f(z) = -iz^2$, la cual es una función polinómica y por tanto analítica en todo $\mathbb{C}$. Es importante notar que en la función anterior no aparecen términos que dependan del conjugado de $z$.

Debe ser claro que el conjugado de un número complejo $z$, es decir $\overline{z}$, resulta ser una función compleja de la variable $z$. En el ejemplo 17.2, de la entrada 17, hemos visto que la función $f(z)=\overline{z}$ no es analítica en $\mathbb{C}$ desde que no se cumplen las ecuaciones de C-R en ningún punto. Sin embargo, esta función en particular cumple que $u_x = – v_y$ y $u_y = v_x$ para todo $z=x+iy\in \mathbb{C}$.

De acuerdo con la observación 12.5 de la entrada 12, estamos interesados en caracterizar a las funciones complejas que solo dependen de la variable $z$, es decir que no tienen términos que dependan de su conjugado.

Lo anterior nos motiva a considerar a $\overline{z} = x-iy$ como una variable «independiente» de $z=x+iy$. Entonces, nuestro objetivo es determinar un criterio similar al de la observación 19.1 para garantizar la analicidad de una función compleja $f$ cuando esta dependa únicamente de la variable $z$. Tenemos que si $z$ y $\overline{z}$ son variables independientes, entonces: \begin{align*} \frac{\partial}{\partial z} z = 1, \quad \frac{\partial}{\partial \overline{z}} z = 0,\\ \frac{\partial}{\partial z} \overline{z} = 0, \quad \frac{\partial}{\partial \overline{z}} \overline{z} = 1. \end{align*}

Como para todo $z=x+iy\in\mathbb{C}$ se cumple que: \begin{equation*} x = \frac{z+\overline{z}}{2}, \quad y = \frac{z-\overline{z}}{2i}, \tag{19.1} \end{equation*} entonces, dada una función compleja $f(z)=u(x,y) + iv(x,y)$ definida en un conjunto abierto $U\subset \mathbb{C}$ de clase $C^1$, podemos pensarla como una función de las variables independientes $x$ e $y$ o bien de las variables «independientes» $z$ y $\overline{z}$, y así definir: \begin{equation*} g(z,\overline{z}) = \hat{f}(x,y):= f(z) = u\left( \frac{z+\overline{z}}{2}, \frac{z-\overline{z}}{2i}\right) + i v\left( \frac{z+\overline{z}}{2}, \frac{z-\overline{z}}{2i}\right). \end{equation*}

Lo anterior resulta de gran utilidad al considerar a $z$ y $\overline{z}$ como variables independientes, ya que bajo este supuesto podemos obtener a las derivadas parciales complejas $g_z$ y $g_{\overline{z}}$ mediante la regla de la cadena como sigue: \begin{align*} g_{z} = \frac{\partial g}{\partial z} = \frac{\partial g}{\partial x} \frac{\partial x}{\partial z} + \frac{\partial g}{\partial y} \frac{\partial y}{\partial z} = \frac{1}{2}\left(\frac{\partial g}{\partial x} – i \frac{\partial g}{\partial y} \right),\\ g_{\overline{z}} = \frac{\partial g}{\partial \overline{z}} = \frac{\partial g}{\partial x} \frac{\partial x}{\partial \overline{z}} + \frac{\partial g}{\partial y} \frac{\partial y}{\partial \overline{z}} = \frac{1}{2}\left(\frac{\partial g}{\partial x} + i \frac{\partial g}{\partial y} \right). \end{align*}

De lo anterior obtenemos la siguiente:

Definición 19.1. (Operadores diferenciales complejos de Wirtinger.)
Sea $U\subset \mathbb{C}$ un conjunto abierto y $f(z)=u(x,y)+iv(x,y)$ una función compleja definida en $U$ de clase $C^1$. Definimos los operadores direrenciales complejos de Wirtinger como: \begin{align*} f_z := \frac{\partial f}{\partial z} = \frac{1}{2}\left(\frac{\partial f}{\partial x} – i \frac{\partial f}{\partial y} \right) = \frac{1}{2} \left(\frac{\partial u }{\partial x} + \frac{\partial v}{\partial y} \right) + \frac{i}{2} \left(\frac{\partial v }{\partial x} – \frac{\partial u}{\partial y} \right),\\ f_{\overline{z}} := \frac{\partial f}{\partial \overline{z}} = \frac{1}{2}\left(\frac{\partial f}{\partial x} + i \frac{\partial f }{\partial y} \right) = \frac{1}{2} \left(\frac{\partial u }{\partial x} – \frac{\partial v}{\partial y} \right) + \frac{i}{2} \left(\frac{\partial v }{\partial x} + \frac{\partial u}{\partial y} \right). \end{align*}

Observación 19.2.
Notemos que la condición $\dfrac{\partial f}{\partial \overline{z}} =0$, intuitivamente nos dice que la función $f$ no depende de la variable $\overline{z}$ como lo planteamos inicialmente. Más aún, considerando la definición anterior se tiene el siguiente:

Lema 19.1.
Sean $U \subset \mathbb{C}$ un conjunto abierto y $f(z) = u(x,y) + iv(x,y)$ una función definida en $U$ de clase $C^1$. Entonces $u$ y $v$ satisfacen las ecuaciones de C-R en $U$ si y solo si $\dfrac{\partial f}{\partial \overline{z}} =0$ para todo $z=x+iy\in U$.

Demostración. Se deja como ejercicio al lector.

$\blacksquare$

Ejemplo 19.2.
Sea $z\in\mathbb{C}$. Consideremos a la función $f(z) = |\,z\,|$. Determinemos a la función $g(z,\overline{z})$ y a las derivadas parciales $f_z$ y $f_{\overline{z}}$.

Solución. Tenemos que $f(z) = |\,z\,| = \left(z \overline{z}\right)^{1/2}$, por lo que $g(z,\overline{z}) = \left(z \overline{z}\right)^{1/2}$.

Por otra parte, si $z\neq 0$, entonces: \begin{align*} f_z(z) = \frac{\partial g}{\partial z}(z,\overline{z}) = \frac{1}{2}\left(z \overline{z}\right)^{-1/2} \overline{z} = \frac{\overline{z}}{2|\,z\,|},\\ f_{\overline{z}}(z) = \frac{\partial g}{\partial \overline{z}}(z,\overline{z}) = \frac{1}{2}\left(z \overline{z}\right)^{-1/2} z = \frac{z}{2|\,z\,|}. \end{align*}

Observación 19.2.
De acuerdo con el ejercicio 7 de la entrada 16, sabemos que la función $f(z)=|\,z\,|$ no es analítica en ningún punto de $\mathbb{C}$. Podemos analizar esto mediante el lema anterior.

Para $z = 0$ es claro que $f$ no es diferenciable en dicho punto desde que no existe: \begin{equation*} \lim_{h \to 0 } \frac{f(0+h) – f(0)}{h} = \lim_{h \to 0 } \frac{|h|}{h}. \end{equation*}

Por otra parte, para $z\neq 0$ se tiene que: \begin{equation*} \frac{\partial f}{\partial \overline{z}} = 0 \quad \Longleftrightarrow \quad \frac{z}{2|\,z\,|} = 0 \quad \Longleftrightarrow \quad z = 0, \end{equation*} lo cual claramente no es posible, por lo que no se satisfacen las ecuaciones de C-R para ningún $z\neq 0$, es decir que $f$ no es analítica en ningún punto de $\mathbb{C}$.

El ejemplo anterior motiva la siguiente:

Proposición 19.1.
Sean $U\subset \mathbb{C}$ un conjunto abierto y $f(z)=u(x,y)+iv(x,y)$ una función definida en $U$ de clase $C^1$. Las siguientes condiciones son equivalentes:

  1. $f$ es analítica en $U$.
  2. $\dfrac{\partial f}{\partial \overline{z}} = 0$ para todo $z_0\in U$. En tal caso: \begin{equation*} f'(z_0) = \frac{\partial f}{\partial z} (z_0) = \frac{\partial f}{\partial x} (z_0) = -i\frac{\partial f}{\partial y} (z_0), \quad z_0 \in U. \end{equation*}

Demostración. Se deja como ejercicio al lector.

$\blacksquare$

Observación 19.3.
La trascendencia de este resultado radica en que podemos pensar a las funciones analíticas como «auténticas funciones complejas» en el sentido de que si $f(z) = u(x,y) + iv(x,y)$ es una función analítica, entonces al sustituir a las variables $x$ e $y$ por $\dfrac{z+\overline{z}}{2}$ y $\dfrac{z-\overline{z}}{2i}$ respectivamente, dicha función no depende de la variable $\overline{z}$ como mencionamos en la observación 19.2.

Ejemplo 19.3.
Consideremos a la función compleja $f(z) = |\,z\,|^2 + \dfrac{z}{\overline{z}}$. Veamos que $f$ no es analítica en ningún punto en $\mathbb{C}$, determinemos dónde $f$ es al menos diferenciable y obtengamos a las derivadas parciales $f_z$ y $f_{\overline{z}}$.

Solución. La función $f$ está definida en el dominio $U = \mathbb{C}\setminus\{0\}$. Para $z=x+iy \in U$ tenemos que: \begin{align*} f(z) & = |\,z\,|^2 + \frac{z}{\overline{z}}\\ & = |\,z\,|^2 + \frac{z^2}{|\,z\,|^2}\\ & = x^2 + y^2 + \frac{x^2+2ixy -y^2}{x^2 + y^2}\\ & = \left(x^2 + y^2 + \frac{x^2 -y^2}{x^2 + y^2}\right) + i \left(\frac{2xy}{x^2 + y^2}\right)\\ & := u(x,y) + i v(x,y). \end{align*}

Para mostrar la utilidad de obtener las derivadas parciales complejas pensando a $f$ como una función $g$ de las variables $z$ y $\overline{z}$, primeramente procedemos a obtener las derivadas parciales $f_z$ y $f_{\overline{z}}$ mediante la definición 19.1.

Derivamos parcialmente a las funciones $u$ y $v$. Sea $z = x+iy \neq 0$, entonces:
\begin{align*} \frac{\partial u}{\partial x} = \frac{2x^5 + 4x^3y^2 + 2xy^4 + 4xy^2}{(x^2+y^2)^2},\\ \frac{\partial u}{\partial y} = \frac{2y^5 + 4y^3x^2 + 2yx^4 – 4yx^2}{(x^2+y^2)^2}, \end{align*} \begin{align*} \frac{\partial v}{\partial x} = \frac{2y^3-2yx^2}{(x^2+y^2)^2},\\ \frac{\partial v}{\partial y} = \frac{2x^3 – 2xy^2}{(x^2+y^2)^2}. \end{align*}

Por tanto, para $z\neq 0$ tenemos que: \begin{align*} \frac{\partial f}{\partial z} & = \frac{1}{2} \left(\frac{\partial u }{\partial x} + \frac{\partial v}{\partial y} \right) + \frac{i}{2} \left(\frac{\partial v }{\partial x} – \frac{\partial u}{\partial y} \right),\\ & = \left(x + \frac{x}{x^2+y^2}\right) – i \left(y – \frac{y}{x^2+y^2} \right), \end{align*} \begin{align*} \frac{\partial f}{\partial \overline{z}} &= \frac{1}{2} \left(\frac{\partial u }{\partial x} – \frac{\partial v}{\partial y} \right) + \frac{i}{2} \left(\frac{\partial v }{\partial x} + \frac{\partial u}{\partial y} \right)\\ & = \left(x + \frac{3xy^2 – x^3}{(x^2+y^2)^2}\right) + i \left(y – \frac{3x^2y – y^3}{(x^2+y^2)^2} \right). \end{align*}

Considerando las igualdades dadas en (19.1), tenemos que: \begin{equation*} f_z = \overline{z} + \frac{1}{\overline{z}}, \quad \text{y} \quad f_{\overline{z}} = z – \frac{z}{\overline{z}^2}. \end{equation*}

Notemos que podemos evitar todo el desarrollo anterior si consideramos que: \begin{align*} f(z) & = |\,z\,|^2 + \dfrac{z}{\overline{z}}\\ & = z \overline{z} + \dfrac{z}{\overline{z}}\\ & := g(z,\overline{z}), \quad \forall z \neq 0, \end{align*}

entonces para todo $z\neq 0$ existen las derivadas parciales complejas: \begin{align*} f_z = \frac{\partial g}{\partial z} = \overline{z} + \frac{1}{\overline{z}},\\ f_{\overline{z}} = \frac{\partial g}{\partial \overline{z}} = z – \frac{z}{\overline{z}^2}. \end{align*}

De estas últimas expresiones es claro que las funciones $f_z$ y $f_{\overline{z}}$ son continuas en $U = \mathbb{C}\setminus\{0\}$, por lo que lo son también las derivadas parciales $u_x$, $u_y$, $v_x$ y $v_y$ , es decir que $f$ es de clase $C^1(U)$.

Por otra parte, dado que: \begin{equation*} \frac{\partial f}{\partial \overline{z}} = 0 \quad \Longleftrightarrow \quad z – \frac{z}{\overline{z}^2} = 0 \quad \Longleftrightarrow \quad \overline{z}^2 = 1 \quad \Longleftrightarrow \quad z = \pm 1, \end{equation*} entonces $f$ solo es diferenciable en los puntos $z=1$ y $z=-1$. Puesto que no existe disco abierto alrededor de dichos puntos donde $f$ sea diferenciable, concluimos que $f$ no es analítica en ningún punto en $\mathbb{C}$.

Observación 19.4.
Debe ser claro que si tenemos una función compleja $f$ diferenciable en un punto $z_0$, entonces se cumple que $f_{\overline{z}}(z_0) = 0$. Sin embargo, debemos enfatizar en que la existencia de $f_{\overline{z}}(z_0)$ no garantiza la existencia de $f'(z_0)$, desde que las ecuaciones de C-R no son una condición suficiente para la diferenciabilidad en el sentido complejo.

Ejemplo 19.4.
Consideremos el ejercicio 6 de la entrada 17. Tenemos que la función: \begin{equation*} f(z)= \left\{\begin{array}{lcc} \dfrac{z^5}{|\,z\,|^4}& \text{si} & z\neq 0, \\ 0 & \text{si} & z = 0, \end{array} \right. \end{equation*} satisface las ecuaciones de C-R en $z=0$, pero $f'(0)$ no existe.

Notemos que para $z=x+iy \neq 0$ tenemos que: \begin{equation*} f(z) = \frac{x^5-10x^3y^2 + 5xy^4}{(x^2+y^2)^2} + i \left(\frac{x^4-10x^2y^3 + y^5}{(x^2+y^2)^2}\right), \end{equation*} por lo que: \begin{align*} \frac{\partial u }{\partial x}(0,0) = \lim_{h \to 0} \frac{u(h,0) – u(0,0)}{h} = 0\\ \frac{\partial u }{\partial y}(0,0) = \lim_{k \to 0} \frac{u(0,k) – u(0,0)}{k} = 0\\ \frac{\partial v}{\partial x}(0,0) = \lim_{h \to 0} \frac{v(h,0) – v(0,0)}{h} = 0\\ \frac{\partial v}{\partial y}(0,0) = \lim_{k \to 0} \frac{v(0,k) – u(0,0)}{k} = 0, \end{align*}

entonces, considerando la definición 19.1, tenemos que: \begin{align*} \frac{\partial f}{\partial z}(0,0) = \frac{1}{2} \left(\frac{\partial u }{\partial x}(0,0) + \frac{\partial v}{\partial y}(0,0) \right) + \frac{i}{2} \left(\frac{\partial v }{\partial x}(0,0) – \frac{\partial u}{\partial y}(0,0) \right) = 0,\\ \frac{\partial f}{\partial \overline{z}} (0,0)= \frac{1}{2} \left(\frac{\partial u }{\partial x}(0,0) – \frac{\partial v}{\partial y}(0,0) \right) + \frac{i}{2} \left(\frac{\partial v }{\partial x}(0,0) + \frac{\partial u}{\partial y}(0,0) \right) = 0, \end{align*}

es decir que $f_z(0,0) = f_{\overline{z}}(0,0) = 0$. Sin embargo, notemos que para $z\neq 0$ se tiene que: \begin{align*} \lim_{z\to 0} \frac{f(z) – f(0)}{z-0} & = \lim_{z\to 0} \frac{z^4}{|\,z\,|^4}\\ & = \lim_{z\to 0} \frac{z^2}{\overline{z}^2}, \end{align*} pero dicho límite no existe pues si nos aproximamos a $0$ a través de la recta $y=x$ tenemos que: \begin{align*} \lim_{z\to 0} \frac{f(z) – f(0)}{z-0} & = \lim_{x\to 0} \frac{x^2 \left(1+i\right)^2}{x^2 \left(1-i\right)^2}\ & = \left(\frac{ 1+i}{1-i}\right)^2 = -1, \end{align*}

mientras que si nos aproximamos a $0$ a través del eje $x$ tenemos que: \begin{equation*} \lim_{z\to 0} \frac{f(z) – f(0)}{z-0} = \lim_{x\to 0} \frac{\left(x + i0\right)^2}{\left(x-i0\right)^2} = 1, \end{equation*} por lo que $f'(0)$ no existe.

El resultado obtenido en este ejemplo no contradice el teorema 18.1 de la entrada anterior ni a la proposición 19.1 de esta entrada, sino que en ambos casos no se cumple la hipótesis de continuidad de las derivadas parciales de las funciones $u$ y $v$ que determinan a $f$.

Lema 19.2.
Sea $D\subset\mathbb{R}^2$ un conjunto abierto y conexo. Si $u:D\to\mathbb{R}$ es una función real tal que $u_x(z) = u_y(z) = 0$ para todo $z=(x,y)\in D$, entonces $u$ es una función constante en $D$.

Demostración. Dadas las hipótesis, tomemos a $z_0=(x_0,y_0)\in D$ fijo, entonces existe algún $r>0$ tal que $B(z_0,r)\subset D$. Sea $z=(x,y)\in B(z_0,r)$, procediendo como en la prueba del teorema 18.1 de la entrada anterior, concluimos, por el teorema del valor intermedio para funciones reales, que existen $\alpha, \beta\in(0,1)$, tales que:
\begin{align*} u(z)-u(z_0) & = u(x,y)-u(x_0,y_0)\\ & = (x-x_0) u_x(x_0+\alpha(x-x_0),y) + (y-y_0) u_y(x_0, y_0+\beta(y-y_0)).\tag{19.2} \end{align*}

Sean $\zeta_1 = (x_0+\alpha(x-x_0),y)$ y $\zeta_2 = (x_0,y_0+\beta(y-y_0))$, para algunos $\alpha, \beta\in(0,1)$. Es claro que, figura 75: \begin{equation*} \left| \zeta_1 – z_0 \right| \leq \left| z – z_0 \right|<r, \quad \left| \zeta_2 – z_0\right| \leq \left| z – z_0 \right|<r, \end{equation*} por lo que, la igualdad en (19.2) es equivalente a decir que existen $\zeta_1, \zeta_2 \in B(z_0,r)$ tales que: \begin{equation*} u(z)-u(z_0) = (x-x_0) u_x(\zeta_1) + (y-y_0) u_y(\zeta_2). \tag{19.3} \end{equation*}

Figura 75: $\zeta_1, \zeta_2 \in B(z_0,r)$ dados por el segmento de recta $[z_0, z]$ contenido en el disco abierto con centro en $z_0$ y radio $r>0$.

De acuerdo con la igualdad (19.3), como $\zeta_1, \zeta_2 \in D$, entonces por hipótesis se cumple que: \begin{equation*} u(z)-u(z_0) = (x-x_0) \cdot 0 + (y-y_0) \cdot 0 = 0, \end{equation*} por lo que para todo $z\in B(z_0, r)$ se cumple que $u(z) = u(z_0)$, es decir que $u$ es una función constante en todo disco abierto completamente contenido en $D$.

Para $z_0\in D$ un punto fijo, definimos los siguientes conjuntos: \begin{equation*} U=\{ z\in D : u(z) = u(z_0)\} \quad \text{y} \quad V=\{ z\in D : u(z) \neq u(z_0)\}. \end{equation*}

Probemos que $U$ y $V$ son conjuntos abiertos en $D$.

Sea $z\in U$, entonces $u(z) = u(z_0)$. Por otra parte, como $D$ es abierto entonces existe $r>0$ tal que $B(z,r) \subset D$. Veamos que $B(z,r) \subset U$.

De acuerdo con lo que probamos antes, es claro que para todo $z^* \in B(z,r)$ la función $u$ es constante en dicho disco, por lo que $u(z) = u(z^*)$, entonces para todo $z^* \in B(z,r)$ se cumple que $u(z^*) = u(z_0)$, es decir, $z^* \in U$, entonces: \begin{equation*} B(z,r) \subset U, \end{equation*} por lo que concluimos que $U$ es un conjunto abierto. De manera análoga se verifica que $V$ es un conjunto abierto, por lo que se deja como ejercicio al lector.

Tenemos entonces que $D = U \cup V$ y $U \cap V = \emptyset$, pero como $D$ es un conjunto conexo, entonces uno de los dos conjuntos $U$ o $V$ debe ser vacío. Por construcción es claro que $z_0\in U$, por lo que $V = \emptyset$, por lo tanto $D = U$, entonces para todo $z\in D$ se cumple que $u(z) = u(z_0)$, es decir que $u$ es una función constante en $D$.

$\blacksquare$

Proposición 19.2.
Sean $D\subset\mathbb{C}$ un dominio y $f:D\to\mathbb{C}$ una función analítica en $D$. Si $f'(z) = 0$ para todo $z\in D$, entonces $f$ es una función constante en $D$.

Demostración. Dadas las hipótesis, tomemos a $f(z) = u(x,y) + iv(x,y)$ definida en $D$. Como $f$ es una función analítica en $D$, entonces las funciones $u$ y $v$ satisfacen las ecuaciones de C-R en $D$ y se cumple que: \begin{equation*} f'(z) = u_x(z) + iv_x(z), \quad \forall z = x+iy \in D. \end{equation*}

Por hipótesis tenemos que: \begin{equation*} 0 = f'(z) = u_x(z) + iv_x(z) = v_y(z) – i u_y(z), \end{equation*} para todo $z \in D$, es decir que para todo punto en $D$ se cumple que: \begin{equation*} u_x(x,y) = u_y(x,y) = v_x(x,y) = v_y(x,y) = 0. \end{equation*}

Considerando el lema 19.2 concluimos que las funciones $u$ y $v$ son constantes en $D$ y por tanto que $f$ es una función constante en $D$.

$\blacksquare$

Corolario 19.1.
Sean $D\subset\mathbb{C}$ un dominio y $f,g\in \mathcal{F}(D)$ dos funciones analíticas en $D$. Si $f$ y $g$ coinciden en un punto y tienen la misma derivada en $D$, entonces $f$ y $g$ son idénticas.

Demostración. Se deja como ejercicio al lector.

$\blacksquare$

Observación 19.5.
La propiedad de conexidad del dominio $D$ es necesaria. Notemos que en la prueba de la proposición 19.2, de manera implícita, usamos fuertemente el hecho de que $D$ era un conjunto conexo, pero si $D$ solo es un conjunto abierto el resultado no es válido.

Ejemplo 19.5.
Consideremos al conjunto $U = \{ z=x+iy\in\mathbb{C} : x \neq 0\}$, el cual es abierto en $\mathbb{C}$. Definimos a la función: \begin{equation*} f(z)= \left\{ \begin{array}{lcc} 1 & \text{si} & \operatorname{Re}(z)>0, \\ 2 & \text{si} & \operatorname{Re}(z)<0. \end{array} \right. \end{equation*} Claramente la función $f(z)$ es analítica en $U$ y $f'(z) = 0$ para todo $z\in U$, sin embargo $f$ no es una función constante.

Procedemos ahora a probar un resultado en el cual podemos ver que la analicidad de una función compleja es una propiedad más restrictiva que la diferenciabilidad en el sentido real.

Proposición 19.3.
Sean $D\subset\mathbb{C}$ un dominio y $f(z) = u(x,y) + iv(x,y)$ una función analítica en $D$.

  1. Si $u$ ó $v$ son constantes en $D$, entonces $f$ también es una función constante en $D$.
  2. Si $|\,f\,|$ es constante en $D$, entonces $f$ también es una función constante en $D$.

Dadas las hipótesis, como $f$ es una función analítica en $D$, entonces las funciones $u$ y $v$ satisfacen las ecuaciones de C-R en $D$ y se tiene que: \begin{equation*} f'(z) = u_x(z) + iv_x(z) = v_y(z) – iu_y(z), \quad \forall z\in D\tag{19.4} \end{equation*}

  1. Probaremos el resultado considerando a la función $u$ como constante, el caso en el que la función $v$ es constante es completamente análogo.

Si suponemos que $u$ es una función constante en $D$, entonces se cumple que: \begin{equation*} u_x(z) = u_y(z) = 0, \quad \forall z=x+iy\in D. \end{equation*}

De acuerdo con (19.4) tenemos que: \begin{equation*} f'(z) = u_x(z) – iu_y(z) = 0, \end{equation*} para todo $z=x+iy\in D$, por lo que se sigue de la proposición 19.2 que $f$ es constante en $D$.

  1. Supongamos ahora que $|\,f\,|$ es una función constante en $D$, entonces tenemos que: \begin{equation*} |\,f(z)\,|^2 = u^2(x,y) + v^2(x,y) = c, \tag{19.5} \end{equation*} para todo $z=x+iy\in D$ y para alguna constante real $c\geq 0$.

Si $c = 0 $, entonces es claro que $f(z) = 0$ para todo $z=x+iy\in D$, por lo que en tal caso $f$ es constante.

Supongamos que $c > 0 $, entonces tomando derivadas parciales en (19.5), con respecto a $x$ e $y$, para todo $z=x+iy\in D$ tenemos que: \begin{align*} 2u(x,y) u_x(x,y) + 2 v(x,y) v_x(x,y) = 0,\\ 2u(x,y) u_y(x,y) + 2 v(x,y) v_y(x,y) = 0, \end{align*}

Por hipótesis sabemos que se cumplen las ecuaciones de C-R en $D$, por lo que para todo $z=x+iy \in D$ se tiene que: \begin{align*} u(x,y) u_x(x,y) – v(x,y) u_y(x,y) = 0,\\ u(x,y) u_y(x,y) + v(x,y) u_x(x,y) = 0. \end{align*}

Multiplicando por las funciones $u(x,y)$ y $v(x,y)$, respectivamente, en las igualdades anteriores, procedemos a sumarlas y restarlas, entonces para todo $z=x+iy\in D$ tenemos que: \begin{align*} u_x(x,y)\left(u^2(x,y) + v^2(x,y) \right) = 0,\\ u_y(x,y)\left(u^2(x,y) + v^2(x,y) \right) = 0, \end{align*} de donde $u_x(x,y) = u_y(x,y) = 0$ para todo $z=x+iy\in D$. De manera análoga podemos obtener que $v_x(x,y) = v_y(x,y) = 0$ en $D$. Considerando el lema 19.2 concluimos que $u$ es una función constante en $D$, por lo que, de acuerdo con la primera parte de la prueba, $f$ es una función constante en $D$.

Tarea moral

  1. Demuestra el lema 19.1 y la proposición 19.1.
  2. Sea $D\subset\mathbb{C}$ un dominio. Supón que $f$ y $|\,f\,|$ son funciones analíticas en $D$. Prueba que $f$ es una función constante en $D$.
  3. Obtén las derivadas parciales $f_z$ y $f_{\overline{z}}$ para las siguientes funciones complejas:
    a) $f(z) = 2x^3y^2 + i(x^2-y)$.
    b) $f(z) = \dfrac{x-1-iy}{(x-1)^2 + y^2}$.
    c) $f(z) = x^2+y^2+3x+1+i3y$.
    d) $f(z) = x^2-y^2+i3xy$.
    e) $f(z) = (x+iy)(x^2+y^2)$.
    ¿Son analíticas? ¿Son diferenciables?
  4. Sea $U\subset \mathbb{C}$ un conjunto abierto y $f:U\to\mathbb{C}$ una función de clase $C^1$. Muestra que para todo $z\in U$ se cumple que:
    a) $(\overline{f})_z = \overline{f_{\overline{z}}}$.
    b) $(\overline{f})_{\overline{z}} = \overline{f_z}$.
  5. Sean $D\subset\mathbb{C}$ un dominio y $f \in \mathcal{F}(D)$ una función analítica. Supón que existen $a,b,c\in\mathbb{R}$, constantes reales con $a^2 + b^2 > 0$, tales que: \begin{equation*} a \operatorname{Re} f(z) + b \operatorname{Im} f(z) = c, \quad \forall z \in D. \end{equation*} Prueba que la función $f$ es constante en $D$.
  6. Sea $f:\mathbb{C} \to \mathbb{C}$ un polinomio. Supón que: \begin{equation*} \frac{\partial f}{\partial z} = 0 = \frac{\partial f}{\partial \overline{z}}, \quad \forall z\in \mathbb{C}. \end{equation*} Prueba que la función $f$ es constante.
  7. Demuestra el corolario 19.1.
  8. Sea $U\subset \mathbb{C}$ un conjunto abierto y sean $f,g:U \to \mathbb{C}$ dos funciones de clase $C^1$. Muestra que para cualesquiera constantes $a,b\in\mathbb{C}$ se cumple que:
    a) $\dfrac{\partial}{\partial z}\left( a f + b g\right) = a \dfrac{\partial f}{\partial z} + b \dfrac{\partial g}{\partial z}$.
    b) $\dfrac{\partial}{\partial \overline{z}}\left( a f + b g\right) = a \dfrac{\partial f}{\partial \overline{z}} + b \dfrac{\partial g}{\partial \overline{z}}$.
    c) $\dfrac{\partial}{\partial z}\left( fg\right) = g \dfrac{\partial f}{\partial z} + f \dfrac{\partial g}{\partial z}$.
    d) $\dfrac{\partial}{\partial \overline{z}}\left( fg\right) = g \dfrac{\partial f}{\partial \overline{z}} + f \dfrac{\partial g}{\partial \overline{z}}$.
  9. Sean $U, V\subset \mathbb{C}$ dos conjuntos abiertos. Supón que $f:U \to \mathbb{C}$ y $g:V \to \mathbb{C}$ son dos funciones de clase $C^1$ y que $f(U) \subset V$. Muestra que: \begin{align*} \left(g\circ f\right)_z = \left(g_z \circ f\right)f_z + \left(g_{\overline{z}} \circ f\right)\left(\overline{f}\right)_z,\\ \left(g \circ f\right)_{\overline{z}} = \left(g_z\circ f\right)f_{\overline{z}} + \left(g_{\overline{z}} \circ f\right)\left(\overline{f}\right)_{\overline{z}}. \end{align*} Concluye que:
    a) Si $f$ es analítica en $U$, entonces: \begin{equation*} \left(g\circ f\right)_z = \left(g_z \circ f\right)f’, \quad \left(g \circ f\right)_{\overline{z}} = \left(g_{\overline{z}} \circ f\right)\overline{f’}. \end{equation*}
    b) Si $g$ es analítica en $V$, entonces: \begin{equation*} \left(g\circ f\right)_z = \left(g’ \circ f\right)f_z, \quad \left(g\circ f\right)_{\overline{z}} = \left(g’ \circ f\right)f_{\overline{z}}.\end{equation*}

Más adelante…

En esta entrada hemos deducido una serie de resultados que son consecuencia directa de las ecuaciones de C-R, además de caracterizar aún más a la diferenciabilidad compleja a través del concepto de analicidad de una función, que como vimos resulta ser un concepto más restrictivo que el de diferenciabilidad real. Mediante los resultados de esta entrada hemos concluido que las «genuinas» funciones complejas que resultan ser analíticas son aquellas que solo están dadas en términos de la variable compleja $z$, es decir que no dependen de $\overline{z}$.

La siguientes entradas definiremos algunas de las funciones complejas elementales para la teoría. Mediante estas funciones haremos una extensión de las funciones reales como la exponencial, el logaritmo y las funciones trigonométricas. Veremos que para el caso complejo muchas de las propiedades que satisfacen dichas funciones reales se seguirán cumpliendo, aunque como es de esperarse veremos que en el caso complejo estas funciones cumplen otras propiedades como la periodicidad y retomaremos nuevamente el concepto de funciones multivaludas.

Entradas relacionadas

Ecuaciones Diferenciales I: Ecuaciones diferenciales de orden superior

Por Omar González Franco

Las matemáticas expresan valores que reflejan el cosmos, incluyendo
el orden, equilibrio, armonía, lógica y belleza abstracta.
– Deepak Chopra

Introducción

¡Bienvenidos a la segunda unidad del curso de Ecuaciones Diferenciales I!.

En la primera unidad estudiamos las ecuaciones diferenciales lineales y no lineales de primer orden, en esta unidad estudiaremos las ecuaciones diferenciales de orden superior a uno, en particular las ecuaciones lineales de segundo orden.

Anteriormente vimos que las ecuaciones diferenciales se pueden clasificar por orden, el cual corresponde al orden de la derivada más alta presente en la ecuación diferencial. A las ecuaciones diferenciales de orden mayor a uno se le conocen como ecuaciones diferenciales de orden superior. Nuestro enfoque en esta unidad serán las ecuaciones diferenciales lineales de segundo orden, pero antes de desarrollar los distintos métodos de resolución es necesario establecer una serie de conceptos y teoremas que sustentarán a dichos métodos.

Si bien, la segunda unidad tratará sobre las ecuaciones diferenciales lineales de segundo orden, gran parte de esta teoría preliminar la desarrollaremos para el caso general en el que el orden de la ecuación es $n$, con $n$ un número entero mayor a uno, así sólo será suficiente fijar $n = 2$ para referirnos a las ecuaciones de segundo orden.

Ecuaciones Diferenciales lineales de orden superior

Recordemos que una ecuación diferencial de $n$-ésimo orden en su forma general es

$$F(x, y, y^{\prime}, \cdots, y^{(n)}) = 0 \label{1} \tag{1}$$

Donde $F$ es una función con valores reales de $n + 2$ variables. La ecuación (\ref{1}) se puede escribir en su forma normal como

$$\dfrac{d^{n}y}{dx^{n}} = f(x, y, y^{\prime}, \cdots, y^{(n -1)}) \label{2} \tag{2}$$

Con $f$ una función continua con valores reales. Para el caso en el que la ecuación es lineal, una ecuación diferencial de $n$-ésimo orden se puede escribir como

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = g(x) \label{3} \tag{3}$$

Satisfaciendo las propiedades que ya conocemos. La ecuación (\ref{3}) es una ecuación no homogénea, en el caso en el que $g(x) = 0$, decimos que la ecuación es homogénea.

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n-1}(x) \dfrac{d^{n-1}y}{dx^{n-1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x)y = 0 \label{4} \tag{4}$$

Las ecuaciones (\ref{3}) y (\ref{4}) serán, entonces, el tipo de ecuaciones sobre la cual desarrollaremos esta teoría preliminar.

Para comenzar estudiemos los problemas con valores iniciales y problemas con valores en la frontera en el caso de las ecuaciones diferenciales lineales de orden superior.

Problema con valores iniciales para ecuaciones lineales

En la unidad anterior definimos lo que es un problema con valores iniciales, esta definición fue general, definamos ahora lo que es un problema con valores iniciales para el caso en el que la ecuación es lineal.

Para el caso de segundo orden ya hemos mencionado que geométricamente un PVI involucra obtener una curva solución que pase por el punto $(x_{0}, y_{0})$ y la pendiente en dicho punto sea $m = y_{1}$.

Enunciaremos, sin demostrar, el teorema de existencia y unicidad que contiene las condiciones suficientes para la existencia y unicidad de una solución de un PVI de $n$-ésimo orden para el caso de las ecuaciones lineales.

Podemos enunciar el teorema de existencia y unicidad para el caso de las ecuaciones diferenciales lineales de segundo orden ($n = 2$) de la siguiente manera.

No demostraremos este teorema, pero es importante notar que dentro del enunciado hemos escrito la definición de PVI para el caso $n = 2$ (segundo orden). Veamos un ejemplo en donde apliquemos este último teorema.

Ejemplo: Probar que la función

$$y(x) = 3 e^{2x} + e^{-2x} -3x$$

es solución al PVI

$$\dfrac{d^{2}y}{dx^{2}} -4y = 12x; \hspace{1cm} y(0) = 4, \hspace{0.5cm} y^{\prime}(0) = 1$$

y además es única.

Solución: Primero probemos que es solución al PVI, para ello veamos que satisface la ecuación diferencial y además cumple con las condiciones iniciales.

La función dada es

$$y(x) = 3 e^{2x} + e^{-2x} -3x$$

La primera y segunda derivada de esta función son, respectivamente

$$\dfrac{dy}{dx} = y^{\prime}(x) = 6 e^{2x} -2 e^{-2x} -3 \hspace{1cm} y \hspace{1cm} \dfrac{d^{2}y}{dx^{2}} = y^{\prime \prime}(x) = 12 e^{2x} + 4e^{-2x}$$

Notemos que

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} -4y &= (12 e^{2x} + 4e^{-2x}) -4(3 e^{2x} + e^{-2x} -3x) \\
&= 12 e^{2x} + 4e^{-2x} -12 e^{2x} -4e^{-2x} + 12x \\
&= 12x
\end{align*}

Esto es,

$$\dfrac{d^{2}y}{dx^{2}} -4y = 12x$$

La función satisface la ecuación diferencial. Verifiquemos que satisface las condiciones iniciales.

En la solución evaluemos $x = 0$.

$$y(0) = 3 e^{0} + e^{0} -0 = 3 + 1 = 4 \hspace{1cm} \Rightarrow \hspace{1cm} y(0) = 4$$

Se cumple la primera condición inicial. Ahora, en la derivada de la función evaluemos en $x = 0$.

$$y^{\prime}(0) = 6 e^{0} -2 e^{0} -3 = 6 -2 -3 = 1 \hspace{1cm} \Rightarrow \hspace{1cm} y^{\prime}(0) = 1$$

Se cumple la segunda condición inicial. Por lo tanto, la función dada es solución al PVI.

Es claro que el intervalo de solución es $\delta = (-\infty, \infty)$ y que $x_{0} = 0 \in \delta.$ Como $a_{2}(x) = 1 \neq 0, a_{0}(x) = -4$ y $g(x) = 12x$ son funciones continuas en $\delta$, por el teorema de existencia y unicidad para ecuaciones diferenciales lineales de segundo orden concluimos que la función $y(x) = 3 e^{2x} + e^{-2x} -3x$ es una solución única.

$\square$

Al haber aumentado el orden de las ecuaciones diferenciales aparece un nuevo problema que estudiaremos a continuación.

Problema con valores en la frontera

En el estudio de las ecuaciones diferenciales de orden superior existe otro problema similar al PVI conocido como problema con valores en la frontera (PVF) en el que se busca resolver una ecuación diferencial de orden dos o mayor, tal que la variable dependiente y/o sus derivadas se especifican en distintos puntos.

Para que quede claro este concepto definiremos un problema con valores en la frontera para el caso de una ecuación diferencial lineal de segundo orden y siguiendo esta misma idea es que se puede definir para una ecuación de orden superior a dos.

Así, resolver un PVF es hallar una función $y(x)$ que satisfaga la ecuación diferencial en algún intervalo $\delta$ que contiene a $a$ y $b$ y que cuya curva solución pase por los puntos $(a, y_{0})$ y $(b, y_{1})$.

La razón por la que definimos un PVF para el caso de una ecuación diferencial de segundo orden es porque es posible hacer notar que otros pares de condiciones en la frontera pueden ser

$$y^{\prime}(a) = y_{0} \hspace{1cm} y \hspace{1cm} y(b) = y_{1}$$

$$y(a) = y_{0} \hspace{1cm} y \hspace{1cm} y^{\prime}(b) = y_{1}$$

$$y^{\prime}(a) = y_{0} \hspace{1cm} y \hspace{1cm} y^{\prime}(b) = y_{1}$$

Sin embargo, las condiciones en la frontera presentadas son sólo casos particulares de las condiciones en la frontera generales

\begin{align*}
\alpha_{1} y(a) + \beta_{1} y^{\prime}(a) &= \gamma_{1} \\
\alpha_{2} y(b) + \beta_{2} y^{\prime}(b) &= \gamma_{2}
\end{align*}

Es así que aumentando el orden de la ecuación, las combinaciones de pares de condiciones en la frontera aumentan.

A diferencia de un PVI en el que si existe una solución, entonces ésta es única, en un PVF pueden existir varias soluciones distintas que satisfacen las mismas condiciones en la frontera, o bien, puede sólo existir una solución única o no tener ninguna solución. Veamos un ejemplo que muestre este hecho.

Ejemplo: Probar que la función general

$$y(x) = c_{1}x^{2} + c_{2}x^{4} + 3$$

es solución de la ecuación diferencial

$$x^{2} \dfrac{d^{2}y}{dx^{2}} -5x \dfrac{dy}{dx} + 8y = 24$$

y además, de acuerdo a las condiciones en la frontera dadas a continuación, se cumplen las siguientes propiedades:

  • $y(-1) = 0, \hspace{0.5cm} y(1) = 4 \hspace{0.5cm} \Rightarrow \hspace{0.5cm}$ No existe una solución.
  • $y(0) = 3, \hspace{0.8cm} y(1) = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm}$ Existen infinitas soluciones.
  • $y(1) = 3, \hspace{0.8cm} y(2) = 15 \hspace{0.3cm} \Rightarrow \hspace{0.5cm}$ Existe una única solución.

Solución: De tarea moral verifica que la función dada es solución de la ecuación diferencial. Más adelante estudiaremos los métodos de resolución de este tipo de ecuaciones diferenciales, de manera que seremos capaces de obtener esta función y probar, de hecho, que es la solución general. Por ahora sólo verifica que es solución.

Una vez comprobado que $y(x)$ es solución apliquemos las condiciones de frontera de cada caso y veamos que ocurre con la solución.

  • Caso 1: $\hspace{0.5cm} y(-1) = 0, \hspace{0.5cm} y(1) = 4$

$$y(-1) = c_{1}(-1)^{2} + c_{2}(-1)^{4} + 3 = c_{1} + c_{2} + 3 = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = -3$$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 4 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = 1$$

De ambas condiciones de la frontera obtenemos que $c_{1} + c_{2} = -3$ y a la vez $c_{1} + c_{2} = 1$ lo cual es imposible, por lo tanto en este caso NO existe una solución al PVF.

  • Caso 2: $\hspace{0.5cm} y(0) = 3, \hspace{0.5cm} y(1) = 0$

$$y(0) = c_{1}(0)^{2} + c_{2}(0)^{4} + 3 = 3 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} y(0) = 3$$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 0 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = -3$$

Vemos que la primer condición de frontera se cumple y aplicando la segunda obtenemos que $c_{1} + c_{2} = -3$ de donde $c_{2} = -(c_{1} +3)$, sustituyendo en la solución $y(x)$ obtenemos la función

$$y(x) = c_{1}x^{2} -(c_{1} +3) x^{4} + 3$$

Donde $c_{1}$ es un parámetro libre, lo que indica que en este caso existen infinitas soluciones, una por cada posible valor de $c_{1}$.

  • Caso 3: $\hspace{0.5cm} y(1) = 3, \hspace{0.5cm} y(2) = 15$

$$y(1) = c_{1}(1)^{2} + c_{2}(1)^{4} + 3 = c_{1} + c_{2} + 3 = 3 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + c_{2} = 0$$

$$y(2) = c_{1}(2)^{2} + c_{2}(2)^{4} + 3 = 4c_{1} + 16c_{2} + 3 = 15 \hspace{0.5cm} \Rightarrow \hspace{0.5cm} c_{1} + 4c_{2} = 3$$

De ambas condiciones de frontera obtenemos el sistema de ecuaciones

\begin{align*}
c_{1} + c_{2} &= 0 \\
c_{1} + 4c_{2} &= 3
\end{align*}

De la primer ecuación obtenemos que $c_{1} = -c_{2}$, sustituyendo en la segunda ecuación obtenemos

$$-c_{2} + 4c_{2} = 3c_{2} = 3$$

de donde $c_{2} = 1$ y por tanto $c_{1} = -1$. Sustituyendo en la solución $y(x)$ obtenemos la función

$$y(x) = -x^{2} + x^{4} + 3$$

Por lo tanto, al ser una función sin parámetros, la solución es única.

$\square$

A continuación estudiaremos algunos operadores importantes que nos ayudarán en las posteriores demostraciones de algunos teoremas importantes, además de que nos serán de utilidad en cuestiones de notación.

Operadores Diferenciales

Comencemos por definir el operador de derivada.

Con ayuda del operador diferencial podemos escribir la derivada de una función $y(x)$ como

$$Dy = \dfrac{dy}{dx} = y^{\prime}(x) \label{7} \tag{7}$$

En el entendido que $D$ opera sobre la variable independiente de $y$, en este caso de $x$.

Por ejemplo, ahora podemos escribir

$$D \{ 2x \sin(x) \} = 2 \sin(x) + 2x \cos(x)$$

Usando el operador diferencial, las expresiones de las derivadas de orden superior se pueden escribir como

$$\dfrac{d}{dx} \left( \dfrac{dy}{dx} \right) = \dfrac{d^{2}y}{dx^{2}} = D(Dy) = D^{2}y \label{8} \tag{8}$$

Y de manera general

$$\dfrac{d^{n}y}{dx^{n}} = D^{n}y \label{9} \tag{9}$$

Sabemos que la derivada es lineal (en el contexto del álgebra lineal), por tanto el operador diferencial también satisface las propiedades de linealidad:

  • $D \{ f(x) + g(x) \} = D \{f(x) \} + D \{g(x) \}$
  • $D \{cf(x) \} = cD \{f(x) \}$

Por otro lado, una ecuación diferencial como

$$\dfrac{d^{2}y}{dx^{2}} -2\dfrac{dy}{dx} + 5y = 0$$

se puede escribir en términos del operador diferencial como

$$D^{2}y -2Dy +5y = (D^{2} -2D +5)y = 0$$

Observamos que el lado izquierdo de ésta última expresión corresponde a una expresión polinomial en la que interviene el operador $D$, estas expresiones polinomiales son también un operador diferencial y tiene un nombre particular.

Debido a que el operador polinomial esta definido con operadores diferenciales $D$, las propiedades de linealidad de $D$ le atribuyen a $\mathcal{L}$ linealidad. Más general, $\mathcal{L}$ operando sobre una combinación lineal de dos funciones derivables es lo mismo que la combinación lineal de $\mathcal{L}$ operando en cada una de las funciones, esto es

$$\mathcal{L} \{ \alpha f(x) + \beta g(x) \} = \alpha \mathcal{L} \{f(x) \} + \beta \mathcal{L} \{g(x) \} \label{11} \tag{11}$$

Una primera ventaja de usar el operador polinomial es que las ecuaciones (\ref{3}) y (\ref{4}) se pueden escribir como

$$\mathcal{L}(y) = g(x) \hspace{1cm} y \hspace{1cm} \mathcal{L}(y) = 0$$

respectivamente.

A continuación el operador polinomial nos será de mucha utilidad.

Principio de superposición

Es posible obtener varias soluciones de una ecuación diferencial lineal homogénea (\ref{4}) y si sumamos o superponemos todas estas soluciones veremos que dicha función es también solución de la ecuación diferencial. Este hecho se muestra en el siguiente resultado conocido como principio de superposición para ecuaciones homogéneas.

Demostración: Sea $\mathcal{L}$ el operador polinomial (\ref{10}) de $n$-ésimo orden y sean $y_{1}, y_{2}, \cdots, y_{k}$ soluciones de la ecuación homogénea (\ref{4}) en el intervalo $\delta$. Definamos la combinación lineal

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$$

con $c_{i}$, $i = 1,2, \cdots, k$ constantes arbitrarias. Notemos que

$$\mathcal{L}(y) = \mathcal{L} \{ c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x) \}$$

Por la linealidad de $\mathcal{L}(y)$ (\ref{11}), se tiene

$$\mathcal{L}(y) = c_{1} \mathcal{L} \{ y_{1}(x) \} + c_{2} \mathcal{L} \{ y_{2}(x) \} + \cdots + c_{k} \mathcal{L} \{ y_{k}(x) \}$$

Pero cada $y_{i}$, $i = 1, 2, \cdots, k$ es solución de (\ref{4}), entonces

$$\mathcal{L}(y_{i}) = 0$$

para todo $i = 1, 2, \cdots, k$, así la expresión anterior se reduce a lo siguiente.

$$\mathcal{L}(y) = c_{1} 0 + c_{2} 0 + \cdots + c_{k} 0 = 0$$

Por lo tanto

$$\mathcal{L}(y) = 0$$

es decir, la combinación lineal

$$y(x) = c_{1}y_{1}(x) + c_{2}y_{2}(x) + \cdots + c_{k}y_{k}(x)$$

es también solución de la ecuación diferencial homogénea (\ref{4}).

$\square$

Dos corolarios importantes del teorema anterior son los siguientes.

Demostración: Consideremos la función $y = c_{1}y_{1}(x)$, aplicando el operador polinomial $\mathcal{L}$, tenemos

$$\mathcal{L}(y) = \mathcal{L} \{ c_{1}y_{1}(x) \} = c_{1} \mathcal{L} \{ y_{1}(x) \} = 0$$

Ya que $y_{1}(x)$ es solución de la ecuación homogénea, es decir, $\mathcal{L} \{y_{1} \} = 0 $. Por lo tanto la función $y(x) =c_{1}y_{1}(x)$ es también solución de la ecuación diferencial homogénea.

$\square$

Usando el teorema anterior y la definición de $\mathcal{L}$ es clara la demostración, inténtalo.

Realicemos un ejemplo sobre el principio de superposición.

Ejemplo: Mostrar que las funciones

$$y_{1}(x) = x^{2} \hspace{1cm} y \hspace{1cm} y_{2}(x) = x^{2} \ln(x)$$

son soluciones de la ecuación diferencial lineal homogénea

$$x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y = 0$$

en el intervalo $\delta = (0, \infty)$. Y mostrar que la combinación lineal

$$y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$$

es también solución de la ecuación diferencial en el mismo intervalo.

Solución: De tarea moral verifica que las funciones por separado

$$y_{1}(x) = x^{2} \hspace{1cm} y \hspace{1cm} y_{2}(x) = x^{2} \ln(x)$$

son soluciones de la ecuación diferencial en el intervalo $\delta = (0, \infty)$.

Una vez asegurado que ambas funciones son solución, de acuerdo al principio de superposición, la combinación lineal de ambas funciones

$$y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$$

debe ser también solución de la ecuación diferencial, veamos que es así. Para ello calculemos la primera, segunda y tercera derivada. Para la primer derivada tenemos

$$\dfrac{dy}{dx} = 2c_{1}x + 2c_{2}x \ln(x) + c_{2} x$$

La segunda derivada es

$$\dfrac{d^{2}y}{dx^{2}} = 2c_{1} + 2c_{2} \ln(x) + 3c_{2}$$

Finalmente, la tercer derivada es

$$\dfrac{d^{3}y}{dx^{3}} = \dfrac{2c_{2}}{x}$$

Sustituyendo los valores correspondientes en la ecuación diferencial, tenemos

\begin{align*}
x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y &= x^{3} \left( \dfrac{2c_{2}}{x} \right) -2x \left( 2c_{1}x + 2c_{2}x \ln(x) + c_{2} x \right) + 4 \left( c_{1} x^{2} + c_{2} x^{2} \ln(x) \right) \\
&= 2c_{2}x^{2} -4c_{1}x^{2} -4c_{2}x^{2} \ln(x) -2c_{2} x^{2} + 4c_{1} x^{2} + 4c_{2} x^{2} \ln(x) \\
&= c_{1}(4x^{2} -4x^{2}) + c_{2} \left( 2x^{2} -2x^{2} + 4x^{2}\ln(x) -4x^{2}\ln(x) \right) \\
&= c_{1}(0) + c_{2}(0) \\
&= 0
\end{align*}

Hemos recuperado la ecuación diferencial

$$x^{3} \dfrac{d^{3}y}{dx^{3}} -2x \dfrac{dy}{dx} + 4y = 0$$

por lo tanto, la combinación lineal

$$y(x) = c_{1} x^{2} + c_{2} x^{2} \ln(x)$$

es también solución de la ecuación diferencial verificando así el principio de superposición.

Es claro que la función $\ln(x)$ restringe los valores de $x$, de manera que el intervalo $\delta = (0, \infty)$ es el intervalo en el que la función $y(x)$ es continua.

$\square$

Dependencia e independencia lineal

El principio de superposición trae consigo el concepto de combinación lineal y, de álgebra lineal, sabemos que si un elemento de un espacio vectorial se puede escribir como combinación lineal de otros elementos del mismo espacio vectorial, decimos que dicho elemento es linealmente dependiente y si no es dependiente, entonces decimos que es linealmente independiente. Ahora es necesario definir estos conceptos en el contexto de las ecuaciones diferenciales lineales.

Podemos decir que un conjunto de funciones es linealmente independiente en un intervalo $\delta$ si las únicas constantes para las que

$$c_{1}f_{1}(x) + c_{2}f_{2}(x) + \cdots +c_{n}f_{n}(x) = 0, \hspace{1cm} \forall x \in \delta$$

son $c_{1} = c_{2} = \cdots = c_{n} = 0$.

Realicemos algunas observaciones para el caso $n = 2$.

Dos funciones $f_{1}(x), f_{2}(x)$ son linealmente dependientes en el intervalo $\delta$, donde ambas están definidas, si en dicho intervalo son proporcionales, esto es, si

$$f_{1}(x) = c_{1}f_{2}(x) \hspace{1cm} o \hspace{1cm} f_{2}(x) = c_{2}f_{1}(x) \label{14} \tag{14}$$

donde $c_{1}$ y $c_{2}$ son constantes distintas de cero, de esta manera, si $f_{1}(x)$ y $f_{2}(x)$ no son proporcionales en el intervalo $\delta$, entonces ambas funciones son linealmente independientes en dicho intervalo.

De las relaciones de proporcionalidad (\ref{14}) notamos que

$$\dfrac{f_{1}(x)}{f_{2}(x)} = c_{1} \hspace{1cm} y \hspace{1cm} \dfrac{f_{2}(x)}{f_{1}(x)} = c_{2} \label{15} \tag{15}$$

Con estas relaciones podemos establecer que $f_{1}(x)$ y $f_{2}(x)$ son linealmente dependientes en el intervalo $\delta$ si cada cociente es una constante a lo largo de todo el intervalo $\delta$ y, por otro lado, si los cocientes dependen de $x$ en el intervalo $\delta$, entonces las funciones $f_{1}(x)$ y $f_{2}(x)$ son linealmente independientes.

En definitiva, las funciones $f_{1}(x), f_{2}(x), \cdots, f_{n}(x)$ son linealmente dependientes en el intervalo $\delta$ si al menos una de ellas puede expresarse como combinación lineal de las otras. En caso contrario, las funciones son linealmente independientes.

Por ejemplo, dado el conjunto de funciones

$$f_{1}(x) = 4x^{3}, \hspace{0.5cm} f_{2}(x) = 2x^{2}, \hspace{0.5cm} f_{3}(x) = 8x^{3} + 12x^{2}$$

es sencillo darse cuenta que

$$f_{3}(x) = 2f_{1}(x) + 6f_{2}(x)$$

Por lo tanto, el conjunto de funciones es linealmente dependiente.

Ejemplo: Determinar si las funciones

$$y_{1}(x) = c_{1} e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = c_{2}x e^{-x}$$

son linealmente dependientes o linealmente independientes. Probar además que dichas funciones por separado son solución de la ecuación diferencial

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

y verificar que la combinación lineal

$$y(x) = c_{1} e^{-x} + c_{2}x e^{-x}$$

es también solución de la ecuación diferencial.

Solución: Como vimos, hay distintas formas de verificar si las funciones son linealmente dependientes o linealmente independientes, quizá la forma más práctica es observar si el cociente $\dfrac{y_{1}}{y_{2}}$ o $\dfrac{y_{2}}{y_{1}}$ es constante o dependiente de $x$ en el intervalo $\delta$ en el que ambas están definidas.

Observamos primero que ambas funciones

$$y_{1}(x) = c_{1} e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = c_{2}x e^{-x}$$

están definidas en todo $\mathbb{R}$, por tanto

$$\delta = (-\infty, \infty)$$

Ahora bien, notamos que

$$\dfrac{y_{1}}{y_{2}} = \dfrac{c_{1}}{c_{2} x}$$

O bien,

$$\dfrac{y_{2}}{y_{1}} = \dfrac{c_{2} x}{c_{1}}$$

Como podemos ver, ambos cocientes son dependientes de la variable independiente $x$. Por lo tanto, las funciones son linealmente independientes.

Ahora verifiquemos que cada función $y_{1}(x)$ y $y_{2}(x)$ es solución de la ecuación diferencial dada.

Para la primer función tenemos

$$y_{1}(x) = c_{1} e^{-x} \hspace{0.8cm} \Rightarrow \hspace{0.8cm} \dfrac{dy_{1}}{dx} = -c_{1} e^{-x} \hspace{0.8cm} \Rightarrow \hspace{0.8cm} \dfrac{d^{2}y_{1}}{dx^{2}} = c_{1} e^{-x}$$

Sustituimos en la ecuación diferencial.

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y &= c_{1} e^{-x} + 2(-c_{1} e^{-x}) + c_{1} e^{-x} \\
&= 2c_{1} e^{-x} -2c_{1} e^{-x} \\
&= 0
\end{align*}

Esto es,

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

Por lo tanto, la función $y_{1}(x) = c_{1} e^{-x}$ satisface la ecuación diferencial.

Para la segunda función tenemos

$$y_{2}(x) = c_{2}x e^{-x} \hspace{0.5cm} \Rightarrow \hspace{0.5cm} \dfrac{dy_{2}}{dx} = c_{2} e^{-x} -c_{2}x e^{-x} \hspace{0.5cm} \Rightarrow \hspace{0.5cm} \dfrac{d^{2}y_{2}}{dx^{2}} = -2c_{2} e^{-x} + c_{2}x e^{-x}$$

Sustituimos en la ecuación diferencial.

\begin{align*}
\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y &= (-2c_{2} e^{-x} + c_{2}x e^{-x}) + 2(c_{2} e^{-x} -c_{2}x e^{-x}) + c_{2}x e^{-x} \\
&= -2c_{2} e^{-x} + c_{2}x e^{-x} + 2c_{2} e^{-x} -2c_{2}x e^{-x} + c_{2}x e^{-x} \\
&= (2c_{2} e^{-x} -2c_{2} e^{-x}) + (2c_{2}x e^{-x} -2c_{2}x e^{-x}) \\
&= 0
\end{align*}

Nuevamente

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

Por lo tanto, la función $y_{2}(x) = c_{2}x e^{-x}$ es también solución de la ecuación diferencial.

Ahora que sabemos que ambas funciones son solución de la ecuación diferencial, podemos aplicar el principio de superposición y concluir que la combinación lineal

$$y(x) = c_{1} e^{-x} + c_{2}x e^{-x}$$

es también solución de la ecuación diferencial. De tarea moral verifica que en efecto es solución.

$\square$

Para finalizar esta entrada definiremos un concepto sumamente importante y el cual estudiaremos con mayor detalle en la siguiente entrada.

En el ejemplo anterior mostramos que las funciones

$$y_{1}(x) = c_{1} e^{-x} \hspace{1cm} y \hspace{1cm} y_{2}(x) = c_{2}x e^{-x}$$

son linealmente independientes y ambas por separado son solución de la ecuación diferencial homogénea

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

En general, al conjunto de $n$ soluciones linealmente independientes de una ecuación diferencial lineal homogénea de $n$-ésimo orden se le da el nombre de conjunto fundamental de soluciones.

Así, el conjunto $\{ y_{1}(x) = c_{1} e^{-x}, y_{2}(x) = c_{2}x e^{-x} \}$ es un conjunto fundamental de soluciones de la ecuación diferencial homogénea

$$\dfrac{d^{2}y}{dx^{2}} + 2 \dfrac{dy}{dx} + y = 0$$

en el intervalo $\delta = (-\infty, \infty)$.

En la siguiente entrada retomaremos este concepto.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Problemas con valores iniciales.
  • La solución general de la ecuación diferencial $$\dfrac{d^{2}y}{dx^{2}} -y = 0$$ es $$y(x) = c_{1} e^{x} + c_{2} e^{-x}$$ definida en $\delta = (-\infty, \infty)$. Determinar la solución particular que es solución al PVI dadas las condiciones iniciales $$y(0) = 0, \hspace{1cm} y^{\prime}(0) = 1$$
  • Dado que $$x(t) = c_{1} \cos(\omega t) + c_{2} \sin(\omega t)$$ es la solución general de $$x^{\prime \prime} + \omega^{2} x = 0$$ en el intervalo $(-\infty, \infty)$, demostrar que la solución que satisface las condiciones iniciales $x(0) = x_{0}$ y $x^{\prime}(0) = x_{1}$ esta dada por $$x(t) = x_{0} \cos(\omega t) + \dfrac{x_{1}}{\omega} \sin(\omega t)$$
  1. Problema con condiciones en la frontera.
  • La función $$y(x) = c_{1} e^{x} \cos(x) + c_{2} e^{x} \sin(x)$$ es una solución de la ecuación diferencial $$\dfrac{d^{2}y}{dx^{2}} -2 \dfrac{dy}{dx} + 2y = 0$$ en el intervalo $(-\infty, \infty)$. Determinar si se puede encontrar una solución que satisfaga las siguientes condiciones en la frontera.

$$a) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y^{\prime}(\pi) = 0; \hspace{1.5cm} b) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y(\pi) = -1$$

$$c) \hspace{0.1cm} y(0) = 1, \hspace{0.4cm} y \left( \dfrac{\pi}{2} \right) = 1; \hspace{1.2cm} d) \hspace{0.1cm} y(0) = 0, \hspace{0.4cm} y(\pi) = 0$$

  1. Determinar si los siguientes conjuntos de funciones son linealmente independientes en el intervalo $(-\infty, \infty )$.
  • $f_{1}(x) = x, \hspace{0.5cm} f_{2}(x) = x^{2}, \hspace{0.5cm} f_{3}(x) = 4x -3x^{2}$
  • $f_{1}(x) = 1+ x, \hspace{0.5cm} f_{2}(x) = x, \hspace{0.5cm} f_{3}(x) = x^{2}$
  • $f_{1}(x) = e^{x}, \hspace{0.5cm} f_{2}(x) = e^{-x}, \hspace{0.5cm} f_{3}(x) = \sinh (x)$
  1. Comprobar que las funciones dadas forman un conjunto fundamental de soluciones de la ecuación diferencial en el intervalo que se indica y formar la solución general.
  • $\dfrac{d^{2}y}{dx^{2}} -\dfrac{dy}{dx} -12y = 0; \hspace{1cm} y_{1} = e^{-3x}, \hspace{0.4cm} y_{2} = e^{4x}; \hspace{1cm} (-\infty, \infty)$
  • $4 \dfrac{d^{2}y}{dx^{2}} -4 \dfrac{dy}{dx} + y = 0; \hspace{1cm} y_{1} = e^{x/2}, \hspace{0.4cm} y_{2} = x e^{x/2}; \hspace{1cm} (-\infty, \infty)$
  • $x^{2} \dfrac{d^{2}y}{dx^{2}} -6x \dfrac{dy}{dx} + 12y = 0; \hspace{1cm} y_{1} = x^{3}, \hspace{0.4cm} y_{2} = x^{4}; \hspace{1cm} (0, \infty)$

Más adelante…

Hemos comenzado nuestro estudio sobre las ecuaciones diferenciales de orden superior, vimos que, además del problema con valores iniciales, ahora nos enfrentamos a un nuevo problema conocido como problema con valores en la frontera. Definimos algunos operadores de interés y demostramos el principio de superposición. Finalmente, vimos que si las soluciones son funciones linealmente independientes, entonces forman un conjunto fundamental de soluciones de la ecuación diferencial.

En la siguiente entrada estudiaremos algunas propiedades de las soluciones retomando el concepto de conjunto fundamental de soluciones. Veremos cuál es la forma de la solución general, la importancia de que las soluciones sean linealmente independientes y definiremos el concepto de Wronskiano, el cual será una herramienta muy importante para determinar la dependencia o independencia lineal de las soluciones.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»