Archivo de la categoría: Sin clasificar

Extremos Locales

Por Angélica Amellali Mercado Aguilar

Introducción

Entre las caracteristicas geometricas básicas de la gráficas de una función estan sus puntos extremos, en los cuales la función alcanza sus valores mayor y menor.

Definición 1. Si $f:u\subset \mathbb{R}^n \rightarrow \mathbb{R}$ es una función escalar, dado un punto $x_0 \in u$ se llama mínimo local de $f$ si existe una vecindad $v$ de $x_0$ tal que $\forall x \in v$, $f(x)> f(x_0)$. De manera análoga, $x_0 \in u$ es un máximo local si existe una vecindad $v$ de $x_0$ tal que $f(x)< f(x_0)$ $\forall \quad x \in v$. El punto $x_0 \in u$ es un extremo local o relativo, si es un mínimo local o máximo local.

Un punto $x_0$ es un punto crítico de $f$ si $Df(x_0)=0$.

Un punto crítico que no es un extremo local se llama punto silla.

Teorema 1. $\textcolor{Red}{\textbf{Criterio de la primera derivada}}$ Si $u \in \mathbb{R}$ es abierto, la función $f:u\subset \mathbb{R}^n \rightarrow \mathbb{R}$ es diferenciable y $x_0 \in u$ es un extremo local entonces $\nabla f(x_0)=0$, esto es $x_0$ es un punto crítico de $f$.

Demostración. Supongamos que $t$ alcanza su máximo local en $x_0$. Entonces para cualquier $h \in \mathbb{R}^n$ la función $g(t)=f(x_0+th)$ tiene un máximo local en $t=0$. Asi, del cálculo de una variable $g'(0)=0$ ya que como $g(0)$ es máximo local, $g(t)\leq g(0)$ para $t > 0$ pequeño
$$\therefore \quad g'(0)=\displaystyle\lim_{t \rightarrow t_0^+}\frac{g(t)-g(0)}{t}=0$$
Análogamente para $t< 0$ pequeño tomamos
$$g'(0)=\displaystyle\lim_{t \rightarrow t_0^-}\frac{g(t)-g(0)}{t}=0$$
Ahora por regla de la cadena $$g'(0)=\frac{\partial f}{\partial x_{1}}(x_{0})h_{1}+\frac{\partial f}{\partial x_{2}}(x_{0})h_{2}+\cdots+\frac{\partial f}{\partial x_{n}}(x_{0})h_{0}=\nabla f(x_{0})\cdot h$$
Así $\nabla f(x_{0})\cdot h=0 \quad \forall \: h$ de modo que $\nabla f(x_{0})=0$. En resumen si $x_0$ es un extremo local, entonces $\displaystyle\frac{\partial f}{\partial x_i}(x_0)=0 \quad \forall~i=1,\ldots,n$. En otras palabras $\nabla f(x_0)=0$. $\square$

Ejemplo. Hallar los máximos y mínimos de la función $f:\mathbb{R}^2 \rightarrow \mathbb{R}$, definida por $$f(x,y)=x^2+y^2-2x-6y+14$$

Solución. Debemos identificar los puntos críticos de $f$ resolviendo $\displaystyle{\frac{\partial f}{\partial x}=0}$, $\displaystyle{\frac{\partial f}{\partial y}=0}$ para $x,y$, $$2x-2=0~~~2y-6=0$$ De modo que el punto crítico es $(1,3)$. Como $$f(x,y)=\left(x^{2}-2x+1\right)+\left(y^{2}-6y+9\right)+4=\left(x-1\right)^{2}+\left(y-3\right)^{2}+4$$ tenemos que $f(x,y)\geq 4$ por lo tanto en $(1,3)$ $f$ alcanza un mínimo relativo.

Ejemplo. Considerar la función $f:\mathbb{R}^2 \rightarrow \mathbb{R}$,
$f(x,y)=4-x^2-y^2$ entonces $\displaystyle{\frac{\partial f}{\partial x}=-2x}$, $\displaystyle{\frac{\partial f}{\partial y}=-2y}$. $f$ solo tiene un punto crítico en el origen, donde el valor de $f$ es 4. Como $$f(x,y)=4-(x^{2}+y^{2})$$
tenemos que $f(x,y)\leq 4$ por lo tanto en $(0,0)$ $f$ alcanza un máximo relativo.

Ejemplo. En el siguiente ejemplo mostramos que no todo punto critico es un valor extremo\Sea $f(x,y)=x^{2}y+y^{2}x$ tenemos que sus puntos criticos son
$$\frac{\partial f}{\partial x}=2xy+y^{2}~\frac{\partial f}{\partial y}=2xy+x^{2}=0$$ por lo tanto $$\left(\begin{matrix}2xy+y^{2}=0\\2xy+x^{2}=0\end{matrix}\right)\Leftrightarrow\left(\begin{matrix}x=y\\x=-y\end{matrix}\right)$$ tomando $x=-y$ tenemos que $$2xy+y^{2}=0~\Rightarrow~-2y^{2}+y^{2}=0~\Rightarrow~y^{2}=0\Rightarrow~y=0~\Rightarrow~x=0$$ tomando $x=y$ tenemos que $$2xy+y^{2}=0~\Rightarrow~2y^{2}+y^{2}=0~\Rightarrow~-3y^{2}=0\Rightarrow~y=0~\Rightarrow~x=0$$ por lo tanto $(0,0)$ es el único punto critico.\Ahora bien para $f(x,y)$ tomamos $x=y$ $$f(x,x)=2x^{3}$$ la cual es ($<0$ si $x<0$) y ($>0$ si $x>0$) por lo tanto el punto critico $(0,0)$ no es ni máximo ni mínimo local de f \Ahora bien para $f(x,y)$ tomamos $x=-y$ $$f(x,-x)=0~\forall x$$
por lo tanto el punto critico $(0,0)$ no es ni máximo ni mínimo local de $f$

Requerimos un criterio que dependa de la segunda derivada para que un punto sea extremo relativo. En el caso particular $n=1$ el criterio es $f»(x)>0$ y $f»(x)<0$ para máximo o mínimo respectivamente para el contexto de varias variables usaremos el hessiano el cual esta definido por

$$Hf(x_0)h=\frac{1}{2}\sum_{i,j=1}^{n}\frac{\partial^2t}{\partial x_i\partial
x_j}(x_0|_{x_ix_j}).$$

Recordando un poco de la expresión de taylor$$f(x,y)=f(x_{0},y_{0})+\left(\frac{\partial f}{\partial x}\right){p}(x-x{0})+\left(\frac{\partial f}{\partial y}\right){p}(y-y{0})+\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial x^{2}}{p}(x-x{0})^{2}+2\frac{\partial^{2}f}{\partial y \partial x}{p}(x-x{0})(y-y_{0})+\frac{\partial^{2}f}{\partial y^{2}}{p}(y-y{0})^{2}\right)}$$

Teorema 2. Sea $B=\left[
\begin{array}{cc}
a & b \\
b & c \
\end{array}
\right]
$ y $H(h)=\frac{1}{2}[h_1,h_2]\left[
\begin{array}{cc}
a & b \\
b & c \
\end{array}
\right]\left(
\begin{array}{c}
h_1 \\
h_2 \
\end{array}
\right)
$ entonces $H(h)$ es definida positiva si y solo si $a>0$ y $ac-b^2>0$.

Demostración. Tenemos $$H(h)=\frac{1}{2}[h_1,h_2]\left[
\begin{array}{cc}
a h_1& bh_2 \\
b h_1& ch_2 \
\end{array}
\right]=\frac{1}{2}(ah_1^2+2bh_1h_2+ch_1^2)$$
si completamos el cuadrado
$$H(h)=\frac{1}{2}a\left(h_1+\frac{b}{a}h_2\right)^2+\frac{1}{2}\left(c-\frac{b^2}{a}\right)h_2^2$$
supongamos que $h$ es definida positiva. Haciendo $h_2=0$ vemos que $a>0$. Haciendo $h_1=-\frac{b}{a}h_2$ $c-\frac{b^2}{a}>0$ ó $ac-b^2>0$ De manera analoga $H(h)$ es definida negativa si y solo si $a<0$ y $ac-b^2>0$. $\square$

Criterio del máximo y del mínimo para funciones de dos variables Sea $f(x,y)$ de clase
$C^3$ en un conjunto abierto $u$ de $\mathbb{R}^2$. Un punto $x_0,y_0$ es un mínimo local (Estricto) de $f$ si se cumple las siguientes tres condiciones:


I) $\frac{\partial f}{\partial x}(x_0,y_0)=\frac{\partial f}{\partial y}(x_0,y_0)$


II) $\frac{\partial^2 f}{\partial x^2}(x_0,y_0)> 0$


III ) $\left(\frac{\partial^2 f}{\partial x^2}\right)\left(\frac{\partial^2 f}{\partial y^2}\right)-\left(\frac{\partial^2 f}{\partial x \partial y}\right)^2> 0$ en $(x_0,y_0)$ (Discriminante)


Si en II) tenemos $<0$ en lugar de $>0$ sin cambiar III) hay un máximo local

Ejemplo. Sea $f:\mathbb{R}^2\rightarrow\mathbb{R}$ la función dada por
$$f(x,y)=2(x-1)^2+3(y-2)^2$$ tenemos entonces que $\frac{\partial f}{\partial x}=4(x-1)$ $\frac{\partial f}{\partial y}=6(y-2)$ por lo tanto $\frac{\partial f}{\partial x}=0$ $\Rightarrow \quad x=1$

$\frac{\partial f}{\partial y}=0$ $\Rightarrow$ $y=2$

por lo tanto $x_0=(1,2)$ es un punto critico


$\displaystyle{\frac{\partial^{2} f}{\partial x^{2}}}=4$, $\displaystyle{\frac{\partial^{2} f}{\partial y^{2}}}=6$, $\displaystyle{\frac{\partial^{2} f}{\partial x\partial y}}=0$, $\displaystyle{\frac{\partial^{2} f}{\partial y\partial x}}=0$

$H(1,2)=\left|\begin{array}{cc}
4 & 0 \\
0 & 6 \
\end{array}
\right|=24> 0 \forall \:(x,y) \in
B_{\epsilon}(1,2)$
podemos decir que $f$ tiene un mínimo relativo en $(1,2)$

Operaciones, Gráficas, Límites y Continuidad

Por Angélica Amellali Mercado Aguilar

Funciones de $\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$ (parte dos)

Ejemplo. Encontrar el dominio y la imagen de la región $\displaystyle{R=\left\{(x,y)\in \mathbb{R}^{2}~|~0\leq x\leq1,~0\leq y\leq1\right\}}$ para la función $f:\mathbb{R}^{2}\rightarrow \mathbb{R}^{2}$ dada por $$\displaystyle{f(x,y)=\left(x^{2}-y^{2},2xy\right)}$$

Solución. En este caso $$f_{1}=\left(x^{2}-y^{2}\right)~\Rightarrow~Dom_{f_{1}}=\mathbb{R}^{2}$$
$$f_{2}=\left(2xy\right)~\Rightarrow~Dom_{f_{2}}=\mathbb{R}^{2}$$
por lo tanto
$$Dom_{f}=Dom_{f_{1}}\bigcap Dom_{f_{}}=\mathbb{R}^{2}\bigcap \mathbb{R}^{2}=\mathbb{R}^{2}$$
Para la imagen de la región $\displaystyle{R=\left\{(x,y)\in \mathbb{R}^{2}~|~0\leq x\leq1,~0\leq y\leq1\right\}}$ procedemos de la siguiente manera:
Definimos los siguientes conjuntos que limitan la región

$$A_{1}=\left\{(x,y)\in \mathbb{R}^{2}~|~0\leq x\leq 1,~y=0\right\}$$
$$A_{2}=\left\{(x,y)\in \mathbb{R}^{2}~|~0\leq y\leq 1,~x=1\right\}$$
$$A_{3}=\left\{(x,y)\in \mathbb{R}^{2}~|~0\leq x\leq 1,~y=1\right\}$$
$$A_{1}=\left\{(x,y)\in \mathbb{R}^{2}~|~0\leq y\leq 1,~x=0\right\}$$

ahora procedemos a encontrar las imagenes de cada uno de los conjuntos definidos

Para $A_{1}$ se tiene
$$A_{1}=\left\{(x,y)\in \mathbb{R}^{2}~|~0\leq x\leq 1,~y=0\right\}f(x,y)=\left(x^{2}-y^{2},2xy\right)=(x’,y’)$$ $$x’=x^{2}-y^{2}~\underbrace{\Rightarrow}_{y=0}~x’=x^{2}~y~si~0\leq x\leq\leq1~\Rightarrow~0\leq x^{2}\leq 1~\Rightarrow~0\leq x’\leq 1$$
$$y’=2xy\underbrace{\Rightarrow}_{y=0}y’=0$$ por lo tanto $$f(A_{1})=\left\{(x’,y’)\in\mathbb{R}^{2}~|~0\leq x’\leq 1~,~y’=0\right\}$$ Para $A_{2}$ se tiene $$A_{2}=\left\{(x,y)\in \mathbb{R}^{2}~|~0\leq y\leq 1,~x=1\right\}f(x,y)=\left(x^{2}-y^{2},2xy\right)=(x’,y’)$$
$$x’=x^{2}-y^{2}~\underbrace{\Rightarrow}_{x=1}~x’=1-y^{2}~\Rightarrow~y=\sqrt{1-x’}$$ $$y’=2xy\underbrace{\Rightarrow}_{x=1}y’=2y~\Rightarrow~y’=2\sqrt{1-x’}~\Rightarrow~y’^{2}=4(1-x’)$$
por lo tanto
$$f(A_{2})=\left\{(x’,y’)\in\mathbb{R}^{2}~|~y’^{2}=4(1-x’),~0\leq y’\leq 2 \right\}$$
Para $A_{3}$ se tiene
$$A_{3}=\left\{(x,y)\in \mathbb{R}^{2}~|~0\leq x\leq 1,~y=1\right\}f(x,y)=\left(x^{2}-y^{2},2xy\right)=(x’,y’)$$
$$x’=x^{2}-y^{2}~\underbrace{\Rightarrow}_{y=1}~x’=x^{2}-1~\Rightarrow~x’+1=x^{2}~\Rightarrow~x=\sqrt{x’+1}$$ $$y’=2xy\underbrace{\Rightarrow}_{y=1}y’=2x~\Rightarrow~y’=2\sqrt{x’+1}~\Rightarrow~y’^{2}=4(x’+1)$$
por lo tanto
$$f(A_{3})=\left\{(x’,y’)\in\mathbb{R}^{2}~|~y’^{2}=4(x’+1),~0\leq y’\leq 2 \right\}$$
Para $A_{4}$ se tiene
$$A_{4}=\left\{(x,y)\in \mathbb{R}^{2}~|~0\leq y\leq 1,~x=0\right\}f(x,y)=\left(x^{2}-y^{2},2xy\right)=(x’,y’)$$
$$x’=x^{2}-y^{2}~\underbrace{\Rightarrow}_{x=0}~x’=-y^{2}ysi0\leq y\leq1~\Rightarrow~0\leq y^{2}\leq 1~\Rightarrow~-1\leq y^{2}\leq 0$$ $$y’=2xy\underbrace{\Rightarrow}_{x=0}y’=0$$
por lo tanto
$$f(A_{4})=\left\{(x’,y’)\in\mathbb{R}^{2}~|~-1\leq x’\leq 0~,~y’=0\right\}$$

Operaciones con Funciones de $\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$


Definición 1. Sean $f,g:A\subset \mathbb{R}^{n}\rightarrow\mathbb{R}^{m},\alpha\in\mathbb{R}y~~h:D\subset\mathbb{R}^{m}\rightarrow\mathbb{R}^{k}$. Definimos

  1. La suma de f y g que denotamos por f+g como
    $$(f+g)(x)=f(x)+g(x),~~~x\in A$$
  2. El producto del escalar $\alpha$ por la función f que denotamos $\alpha f$ como
    $$(\alpha f)(x)=\alpha f(x),~~~x\in A$$
  3. El producto punto de f por g que denotamos $f\cdot g$ como
    $$(f\cdot g)(x)=f(x)\cdot g(x),~~~x\in A$$
  4. Si $m=3$ el producto cruz de f por g que denotamos $f\times g$ como
    $$(f\times g)(x)=f(x)\times g(x),~~~x\in A$$
  5. Si $m=1$ el cociente de f por g que denotamos $\displaystyle{\frac{f}{g}}$ como
    $$\left(\frac{f}{g}\right)(x)=\frac{f(x)}{g(x)},~~~x\in A$$
  6. La composición de h con f, que denotamos como $h\circ f$ como
    $$(h\circ f)(x)=h(f(x))para~cada~~\left\{x\in A~|~f(x)\in D\right\}$$

Gráficas de Funciones de $\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$

Definición 2. Dada la función $f (f_{1},…,f_{m}):A\subset\mathbb{R}^{n}\rightarrow
\mathbb{R}^{m}$, definimos su gráfica como el subconjunto
$$g_{f}={(x_{1},…,x_{n},f_{1}(x_{1},…,x_{n}),f_{2}(x_{1},…,x_{n}),…,f_{m}(x_{1},…,x_{n}))\in\mathbb{R}^{n+m}|(x_{1},…,x_{n})\in A}$$

{Límite de Funciones de $f:\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$

Definición 3. $\textcolor{Red}{\textbf{Por sucesiones}}$ Sean $f:A\subset\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$ y $x_{0}\in A’$. Decimos que f tiene límite en $x_{0}$ y que su límite es $\ell\in\mathbb{R}^{m}$, si para toda sucesión ${x_{k}}$ contenida en $A-{x_{0}}$ que converge a $x_{0}$ se tiene que la sucesión ${f(x_{k})}$ converge a $\ell$. En este caso escribimos
$$\lim_{x\rightarrow x_{0}}f(x)=\ell$$
y decimos que $\ell$ es el límite de f en $x_{0}$.

Definición 4. $\textcolor{Red}{(\epsilon-\delta)}$ Sea $f:A\subset\mathbb{R}^{n} \rightarrow
\mathbb{R}^{m}$, y sea $x_{0}$ un punto de acumulación de A.
Se dice que $\ell\in\mathbb{R}^{m}$ es el límite de $f$ en
$x_{0}$, y se denota por:\ $$\displaystyle\lim_{x\rightarrow
x_{0}}f(x)=\ell$$ Si dado $\forall~\epsilon > 0$, existe $\delta > 0$ tal
que $$|f(x)-\ell|<\epsilon~cuando~0<|x-x_{0}|<\delta$$

Continuidad de Funciones de Varias Variables

Definición 5. Sean $f:\Omega\subset\mathbb{R}^n\rightarrow\mathbb{R}^m$ y
$x_0\in\Omega$. Se dice que $f$ es continua en $x_0$ si dado $\epsilon>0$, $\exists$ $\delta>0$ tal que $|f(x)-f(x_0)|<\epsilon$ siempre que $x\in\Omega$ y $0<|x-x_0|<\delta$

Definición 6. Se dice que un subconjunto $V\subset\mathbb{R}^{n}$ es un entorno del punto $x$, si exite $\epsilon>0$ tal que $B(x,\epsilon)\subset V.$

Definición 7. Sean $f:\Omega\subset\mathbb{R}^n\rightarrow\mathbb{R}^m$ y $x_0\in\Omega$. Se dice que $f$ es continua en $x_0$ cuando $\forall$ entorno V de $f(x_{0})$ existe un entorno U de $x_{0}$ tal que $f(U)\subset V$ es decir para cualquier $x\in U$ se cunple $f(x)\in V$

Proposición 1. Una función $f:D\subset\mathbb{R}^{n}\rightarrow \mathbb{R}^m$ es continua si y solo si
$$f^{-1}(v)=\left\{x\in D\mid f(x)\in v\right\}$$
es un abierto (contenido en $D$) para cada abierto $v\subset\mathbb{R}^m$.

Demostración. $\textcolor{Red}{\Rightarrow}$ Sea $v$ un abierto en $\mathbb{R}^m$ y sea $\overline{x}\in f^{-1}(v)$; tenemos por definición $f(\overline{x})\in v$. Como $v$ es un
conjunto abierto $\exists\ \ r>0$ tal que $B(f(\overline{x}),r)\subset v$ como $f$ es continua $\exists$ $\rho>0$ tal que $f(B(x,\rho))\subset B(f(x),r)$ pero esto significa que $B(x,\rho)\subset f^{-1}(B(f(x),r))\subset f^{-1}(v)$ por lo que cada punto $x\in f^{-1}(v)$ es punto interior lo que prueba que $v$ es abierto.
$\textcolor{Red}{\Leftarrow}$ Supongamos que $f^{-1}(v)$ es un abierto, para cada conjunto abierto $v\subset\mathbb{R}^{m}$\Sea $\epsilon>0$ y $x\in\mathbb{R}^{n}$, hacemos:
$B(f(x),\epsilon)=V$ por lo que$f^{-1}(V)$ es abierto, esto quiere decir que $\exists~\delta>0$ tal que $B(x,\delta)\subset f^{-1}(V)$ esto implica $f(B(x,\delta))\subset V$ esto es $f(B(x,\delta))\subset B(f(x),\epsilon)$ esto muestra que $f$ es continua en $x$.

Proposición 2.

(1) $$f^{-1}(v)=\left\{x\in D\mid f(x)\in v\right\}$$
es un abierto (contenido en $D$) para cada abierto
$v\subset\mathbb{R}^m$.
(2) $$f^{-1}(v)=\left\{x\in D\mid f(x)\in v\right\}$$
es un cerradoo (contenido en $D$) para cada cerradoo
$v\subset\mathbb{R}^m$.

Vamos a probar que $\textcolor{Red}{1\Rightarrow 2}$

Demostración. Si $V=\overline{V}\subset\mathbb{R}^{m}$, consideremos el conjunto $V^{c}$ el cual es abierto y por hipotesis $f^{-1}(V^{c})$ es abierto, pero
$$f^{-1}(V^{c})=\left(f^{-1}(V)\right)^{c}$$
por lo que $\left(f^{-1}(V)\right)^{c}$ es abierto, en consecuencia $f^{-1}(V)$ es cerrado\
Vamos a probar que \textcolor{Red}{$2\Rightarrow 1$}
Si $V=int(V)\subset\mathbb{R}^{m}$ entonces $V^{c}$ es cerrado y por hipotesis $f^{-1}(V^{c})$ es cerrado, pero
$$f^{-1}(V^{c})=\left(f^{-1}(V)\right)^{c}$$
por lo que $\left(f^{-1}(V)\right)^{c}$ es cerradoo, en consecuencia $f^{-1}(V)$ es abierto $\square$

Teorema de la Función Inversa

Por Angélica Amellali Mercado Aguilar

Teorema de la Función Inversa (sistema $f_{i}:\mathbb{R}^{n}\rightarrow\mathbb{R}$)

Teorema 1. Sea $U\subset\mathbb{R}^{n}$ un abierto y sean
$$\begin{matrix}
f_{1}:U\rightarrow\mathbb{R} \\
\vdots \\
f_{n}:U\rightarrow\mathbb{R}
\end{matrix}$$
con derivadas parciales continuas. Considerar las ecuaciones
$$\begin{array}{c}
f_1(x_1,x_2,…,x_n)= y_1\\
f_2(x_1,x_2,…,x_n)= y_2\\
\vdots\\
f_n(x_1,x_2,…,x_n)= y_n
\end{array}$$ Tratamos de resolver las n-ecuaciones para $x_1,x_2,… x_n$como funciones de $y_1,y_2,… y_n$.
La condición de existencia para la solución en una vecindad del punto $x_0$ es que el determinante de la matriz $Df(x_0)$ y $f=(f_1,f_2,… f_n)$ sean distintos de cero.

La condición de existencia para la solución en una vecindad del punto $x_0$ es que el determinante de la matriz $Df(x_0)$ y $f=(f_i,f_2,… f_n)$ sean distintos de cero. Explicitamente:

$[\left. \begin{array}{c}
\displaystyle\frac{\partial(f_1,f_2,…,f_n)}{\partial(x_1,x_2,…,x_n)}
\end{array}\right|_{x=x_0}= J(f)(x_0)= \left| \begin{array}{ccc}
\displaystyle\frac{\partial f_1}{\partial x_1}(x_0)&\ldots&\displaystyle\frac{\partial f_1}{\partial x_1}(x_0)\\
\vdots & & \vdots\\
\displaystyle\frac{\partial f_n}{\partial x_1}(x_0)&\ldots&\displaystyle\frac{\partial f_n}{\partial x_n}(x_0)
\end{array}\right| \neq 0
]$

entonces el sistema anterior se puede resolver de manera ‘unica como $x=g(y)$ para $x$ cerca de $x_{0}$ y y cerca de $y_{0}$ $\square$

Nota. La cuestión de existencia se responde por medio del teorema general de la función implícita aplicado a las funciones $y_i-f_i(x_1,x_2,…,x_n)$ con las incognitas $x_1,x_2,…,x_n$.

Ejemplo. El problema de factorizar un polinomio $x^{n}+a_{n-1}x^{n-1}+\cdots+a_{0}$ en factores lineales es, en cierto sentido un problema de función inversa. Los coeficientes $a_{i}$ son funciones conocidas de las n raices $r_{j}$. ¿Se podran expresar las raices como funciones de los coeficientes en alguna región?. Con $n=3$ , aplicar el teorema de la función inversa a este problema y enunciar la conclusión acerca de la posibilidad de hacer lo planteado.

Solución. Para el caso n=3 tenemos que podemos factorizar el polinomio de la siguiente forma
$$x^{3}+a_{2}x^{2}+a_{1}x+a_{0}=(x-r_{1})(x-r_{2})(x-r_{3})$$
desarrolando el lado derecho tenemos que
$$(x-r_{1})(x-r_{2})(x-r_{3})=x^{3}-r_{3}x^{2}-r_{2}x^{2}+r_{2}r_{3}x-r_{1}x^{2}+xr_{1}r_{3}+r_{1}r_{2}x-r_{1}r_{2}r_{3}$$
que se puede escribir
$$x^{3}+x^{2}(-r_{3}-r_{2}-r_{1})+x(r_{2}r_{3}+r_{1}r_{3}+r_{1}r_{2})-r_{1}r_{2}r_{3}$$
igualando las expresiones
$$x^{3}+a_{2}x^{2}+a_{1}x+a_{0}=x^{3}+x^{2}(-r_{3}-r_{2}-r_{1})+x(r_{2}r_{3}+r_{1}r_{3}+r_{1}r_{2})-r_{1}r_{2}r_{3}$$
por lo tanto igualando coeficientes
$$\begin{matrix}a_{0}=-r_{1}r_{2}r_{2}\\a_{1}=r_{2}r_{3}+r_{1}r_{3}+r_{1}r_{2}\\a_{2}=-r_{1}-r_{2}-r_{3}\end{matrix}$$

Al sistema anterior le aplicamos el teorema de la función implicita para comprobar si las raices se pueden expresar en términos de los coeficientes, para ello calculamos el determinante de jacobiano del sistema que en este caso es

$$J=\left(\begin{matrix}\frac{\partial a_{0}}{\partial r_{1}}&\frac{\partial a_{0}}{\partial r_{2}}&\frac{\partial a_{0}}{\partial r_{3}}\\\frac{\partial a_{1}}{\partial r_{1}}&\frac{\partial a_{1}}{\partial r_{2}}&\frac{\partial a_{2}}{\partial r_{3}}\\\frac{\partial a_{2}}{\partial r_{1}}&\frac{\partial a_{2}}{\partial r_{2}}&\frac{\partial a_{3}}{\partial r_{3}}\end{matrix}\right)=\left(\begin{matrix}-r_{2}r_{3}&-r_{1}r_{3}&-r_{1}r_{2}\\r_{3}+r_{2}&r_{3}+r_{1}&r_{2}+r_{1}\\-1&-1&-1\end{matrix}\right)$$

de esta manera el determinante del jacobiano es
$$\det\left(\begin{matrix}-r_{1}r_{3}&-r_{1}r_{3}&-r_{1}r_{2}\\r_{3}+r_{2}&r_{3}+r_{1}&r_{2}+r_{1}\\-1&-1&-1\end{matrix}\right)=\left|\begin{matrix}-r_{1}r_{3}&-r_{1}r_{3}&-r_{1}r_{2}\\r_{3}+r_{2}&r_{3}+r_{1}&r_{2}+r_{1}\\-1&-1&-1\end{matrix}\right|=$$
$$\textcolor{Green}{(-r_{2} r_{3})\times
\left|\begin{array}{cc}
r_{3}+r_{1} & r_{2}+r_{1} \\
-1 & -1\end{array}\right|}-\textcolor{Red}{(-r_{1}r_{3})\times
\left|\begin{array}{cc}
r_{3}+r_{2} & r_{2}+r_{1} \\
-1 &- 1\end{array}\right|}+\textcolor{Blue}{(-r_{1}r_{2})\times
\left|\begin{array}{cc}
r_{3}+r_{2} & r_{3}+r {1}\\ 3 & 1\end{array}\right|}=$$ $$\textcolor{Green}{(-r{2}r_{3})\times(r_{2}-r_{3})}+\textcolor{Red}{(r_{1}r_{3})\times(r_{1}-r_{3})}-\textcolor{Blue}{(r_{1}r_{2})\times(r_{1}-r_{2})}=-r_{2}r_{3}r_{2}+r_{2}r_{3}r_{3}+r_{1}r_{3}r_{1}-r_{1}r_{3}r_{3}-r_{1}r_{2}r_{1}+r_{1}r_{2}r_{2}$$

que se puede escribir
$$=r_{3}r_{1}r_{1}-r_{3}r_{1}r_{3}-r_{3}r_{2}r_{1}+r_{3}r_{2}r_{3}-r_{2}r_{1}r_{1}+r_{2}r_{1}r_{3}+r_{2}r_{2}r_{1}-r_{2}r_{2}r_{3}$$
$$=(r_{3}r_{1}-r_{3}r_{2}-r_{2}r_{1}+r_{2}r_{2})r_{1}-(r_{3}r_{1}-r_{3}r_{2}-r_{2}r_{1}+r_{2}r_{2})r_{3}=(r_{3}r_{1}-r_{3}r_{2}-r_{2}r_{1}+r_{2}r_{2})(r_{1}-r_{3})$$
$$=((r_{3}-r_{2})r_{1}-(r_{3}-r_{2})r_{2})(r_{1}-r_{3})=(r_{3}-r_{2})(r_{1}-r_{2})(r_{1}-r_{3})$$

Este último término no es cero si el polinomio tiene raices distintas. Así el teorema de la función inversa muestra que las raices se pueden hallar como funciones de los coeficientes en alguna vecindad de cualquier punto en el que las raices sean distintas. Esto es, si las rices $r_{1},~r_{2},~r_{3}$ de $x^{3}+a_{2}x^{2}+a_{1}x+a_{0}$ son todas diferentes, entonces hay vecindades V de $(r_{1},~r_{2},~r_{3})$ y $W$ de $(a_{0},~a_{1},~a_{2})$ tales que las raices en V son funciones de los coeficientes en $W$.

Funciones de $\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$

Definición 1. Una función f de $\mathbb{R}^{n}$ en $\mathbb{R}^{m}$ denotada $f:\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$, es una relación que asigna a cada vector del espacio $\mathbb{R}^{n}$ un único vector del espacio $\mathbb{R}^{m}$\Si f es una función de $\mathbb{R}^{n}$ en $\mathbb{R}^{m}$, entonces f se expresa
$$f=(f_{1},f_{2},\cdots,f_{m})$$ en donde $f_{k}~~k=1,…,m$ es la k-ésima función componente y $f_{k}:\mathbb{R}^{n}\rightarrow \mathbb{R}$ $k=1,…,m$

Definición 2. Si $A\subset \mathbb{R}^{n}$, la imagen bajo la función f de $\mathbb{R}^{n}$ en $\mathbb{R}^{m}$ se denota $f(A)$, y se define
$$f(A)={f(x)\in \mathbb{R}^{m}~|~x\in A}$$

Definición 3. El dominio de una función f de $\mathbb{R}^{n}$ en $\mathbb{R}^{m}$ es la intersección de los dominios de las funciones componentes $f_{k}$ es decir
$$Dom_{f}=\bigcap_{k=1}^{m}Dom_{f_{k}}=Dom_{f_{1}}\bigcap Dom_{f_{2}}\bigcap Dom_{f_{3}}\bigcap\cdots \bigcap Dom_{f_{m}}$$

Ejemplo. Encontrar el dominio y la imagen de la recta $y=3x$ para la función $f:\mathbb{R}^{2}\rightarrow \mathbb{R}^{2}$ dada por $$\displaystyle{f(x,y)=\left(\frac{4x+2y}{5},\frac{2x+y}{5}\right)}$$
\item[Solución] En este caso $$f_{1}=\left(\frac{4x+2y}{5}\right)~\Rightarrow~Dom_{f_{1}}=\mathbb{R}^{2}$$
$$f_{2}=\left(\frac{2x+y}{5}\right)~\Rightarrow~Dom_{f_{2}}=\mathbb{R}^{2}$$
por lo tanto
$$Dom_{f}=Dom_{f_{1}}\bigcap Dom_{f_{}}=\mathbb{R}^{2}\bigcap \mathbb{R}^{2}=\mathbb{R}^{2}$$
Para la imagen de la recta $y=3x$ procedemos de la siguiente manera
$$f(x,y)=\left(\frac{4x+2y}{5},\frac{2x+y}{5}\right)=(x’,y’)~ \Rightarrow ~f(x,3x)=\left(\frac{4x+2(3x)}{5},\frac{2x+(3x)}{5}\right)=(x’,y’)~\Rightarrow~$$
$$x’=\frac{4x+2(3x)}{5}yy’=\frac{2x+(3x)}{5}~ \Rightarrow ~x’=2xyy’=x \Rightarrow y’=\frac{x’}{2}$$
por lo tanto la imagen de la recta $y=3x$ sera:
$$f(3x)=\left\{(x’,y’)\in\mathbb{R}^{2}~|~y’=\frac{x’}{2}\right\}$$

$\textbf{Definición 4.}$ Sean $f:A\subset\mathbb{R}^{n} \rightarrow \mathbb{R}^{m}$ y $D\subset\mathbb{R}^{m}$. Definimos la $\textbf{imagen inversa}$ de $D$ bajo $f$, que denotamos $f^{-1}(D)$, como el conjunto dado por:
$$f^{-1}(D)=\left\{\hat{x}\in A~|~f(\hat{x})\in D\right\}$$

Definición 5. Sean $f:A\subset\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$ y $D\subset\mathbb{R}^{m}$, $B\subset A$. Definimos la $\textbf{imagen directa}$ de $B$ bajo $f$, que denotamos $f(B)$, como el conjunto dado por:
$$f(B)=\left\{f(\hat{x})\in \mathbb{R}^{m}~|~\hat{x}\in B\right\}$$

Proposición 1. Sean $f:A\subset\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$, $A_{\alpha},~B,C\subset A$ y $D_{\alpha},~D,~E\subset\mathbb{R}^{m}$, con $\alpha\in I$ I un conjunto de indices. Pruebe que:
$$\begin{matrix}
1.& D\subset E~\Rightarrow~f^{-1}(D)\subset f^{-1}(E) \\
2. & f^{-1}\left(\bigcup_{\alpha \in I}D_{\alpha}\right)=\bigcup_{\alpha\in I}f^{-1}(D_{\alpha})\
3.& f^{-1}\left(\bigcap_{\alpha \in I}D_{\alpha}\right)=\bigcap_{\alpha\in I}f^{-1}(D_{\alpha}) \\
4.&f^{-1}(D^{c})=(f^{-1}(D))^{c} \\
5.&B\subset C~\Rightarrow~f(B)\subset f(C)\\
6.&f\left(\bigcup_{\alpha\in I}A_{\alpha}\right)=\bigcup_{\alpha\in I}f(A_{\alpha}) \\
7.&f\left(\bigcap_{\alpha\in I}A_{\alpha}\right)\subset\bigcap_{\alpha\in I}f(A_{\alpha}) \\
8.&f(A)-f(B)\subset f(A-B) \\
9.&B\subset f^{-1}(f(B)) \\
10.&f(f^{-1})(D)\subset D
\end{matrix}$$

Demostración. $\textcolor{Blue}{(1). D\subset E~\Rightarrow~f^{-1}(D)\subset f^{-1}(E)}$
$$x\in f^{-1}(D)~\Rightarrow~f(x)\in D$$
$$~\underbrace{\Rightarrow}{D\subset E}~f(x)\in E$$ $$~\Rightarrow~x\in f^{-1}(E)$$ $\textcolor{Blue}{(2). f^{-1}\left(\bigcup{\alpha \in I}D_{\alpha}\right)=\bigcup_{\alpha\in I}f^{-1}(D_{\alpha})}$
$$x\in f^{-1}\left(\bigcup_{\alpha \in I}D_{\alpha}\right)~\Leftrightarrow~f(x)\in \bigcup_{\alpha \in I}D_{\alpha}$$
$$~\Leftrightarrow~f(x)\in D_{\alpha_{i}}p.a.~i\in I$$ $$~\Leftrightarrow~x\in f^{-1}(D_{\alpha_{i}})p.a.~i\in I$$
$$~\Leftrightarrow~x\in (\bigcup_{\alpha \in I}f^{-1}(D_{\alpha})$$
$\textcolor{Blue}{(3). f^{-1}\left(\bigcap_{\alpha \in I}D_{\alpha}\right)=\bigcap_{\alpha\in I}f^{-1}(D_{\alpha}) }$
$$x\in f^{-1}\left(\bigcap_{\alpha \in I}D_{\alpha}\right)~\Leftrightarrow~f(x)\in \bigcap_{\alpha \in I}D_{\alpha}$$
$$~\Leftrightarrow~f(x)\in D_{\alpha_{i}}\forall~i\in I$$ $$~\Leftrightarrow~x\in f^{-1}(D_{\alpha_{i}})\forall~i\in I$$
$$~\Leftrightarrow~x\in (\bigcap_{\alpha \in I}f^{-1}(D_{\alpha})$$
$\textcolor{Blue}{(4). f^{-1}(D^{c})=(f^{-1}(D))^{c} }$
$$x\in f^{-1}(D^{c})~\Leftrightarrow~f(x)\in D^{c}$$
$$~\Leftrightarrow~f(x)\notin D$$
$$~\Leftrightarrow~x\notin f^{-1}(D)$$
$$~\Leftrightarrow~x\in (f^{-1}(D))^{c}$$
$\textcolor{Blue}{(5). B\subset C~\Rightarrow~f(B)\subset f(C)}$
$$f(x)\in f(B)~\Rightarrow~x\in B$$
$$~\underbrace{\Rightarrow}{B\subset C}~x\in C$$ $$~\Rightarrow~f(x)\in f(C)$$ $\textcolor{Blue}{(6). f\left(\bigcup{\alpha\in I}A_{\alpha}\right)=\bigcup_{\alpha\in I}f(A_{\alpha})}$
$$f(x)\in f\left(\bigcup_{\alpha \in I}A_{\alpha}\right)~\Leftrightarrow~x\in \bigcup_{\alpha \in I}A_{\alpha}$$
$$~\Leftrightarrow~x\in A_{\alpha}p.a~\alpha\in~I$$ $$~\Leftrightarrow~f(x)\in~f(A_{\alpha})~p.a~\alpha\in~I$$ $$~\Leftrightarrow~f(x)\in \bigcup_{\alpha\in I}f(A_{\alpha})$$

$\textcolor{Blue}{(7). f\left(\bigcap_{\alpha\in I}A_{\alpha}\right)\subset\bigcap_{\alpha\in I}f(A_{\alpha})}$ $$f(x)\in f\left(\bigcap_{\alpha \in I}A_{\alpha}\right)~\Rightarrow~x\in \bigcap_{\alpha \in I}A_{\alpha}$$ $$~\Rightarrow~x\in A_{\alpha}\forall~\alpha\in~I$$
$$~\Rightarrow~f(x)\in~f(A_{\alpha})~\forall~\alpha\in~I$$
$$~\Rightarrow~f(x)\in \bigcap_{\alpha\in I}f(A_{\alpha})$$
$\textcolor{Blue}{(8). f\left(A\right)-f(B)\subset f(A-B)}$
$$f(A)-f(B)=f(A)\bigcap (f(B))^{c}$$
$$~ \Rightarrow ~f(x)\in f(A)-f(B)$$
$$~ \Rightarrow ~f(x)\in f(A)\bigcap (f(B))^{c}$$
$$~ \Rightarrow ~f(x)\in f(A)yf(x)\in (f(B))^{c}$$
$$~ \Rightarrow ~x\in Ayf(x)\notin f(B)$$
$$~ \Rightarrow x\in Ayx\notin B$$ $$~ \Rightarrow x\in Ayx\in B^{c}$$
$$~ \Rightarrow ~x\in A\bigcap B^{c}$$
$$~ \Rightarrow ~x\in A-B$$
$$~ \Rightarrow ~f(x)\in f(A-B)$$
$\textcolor{Blue}{(9). B\subset f^{-1}(f(B))}
$$x\in B~\Rightarrow~f(x)\in f(B)$$
$$~\Rightarrow~x\in f^{-1}(f(B))$$


$\textcolor{Blue}{(10).f(f^{-1}(D))\subset D}$
$$f(x)\in f(f^{-1}(D))~\Rightarrow~x\in f^{-1}(D)$$
$$~ \Rightarrow ~f(x)\in D$$ $\square$

Diferenciación

Por Angélica Amellali Mercado Aguilar

Diferenciación de funciones $f:\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$

Definición. Considere la función $f:A\subset\mathbb{R}^{n}\rightarrow\mathbb{R}^{m}$ definida en un conjunto abierto A de $\mathbb{R}^{n}$ y sea $x_{0}\in A$. Se dice que esta función es diferenciable si

$$f(x_{0}+h)=f(x_{0})+f'(x_{0})\cdot h+r(h)$$
cumple
$$\lim_{h\rightarrow0}\frac{r(h)}{|h|}=\hat{0}$$

Ejemplo. Compruebe que la función $f:\mathbb{R}^{2}\rightarrow \mathbb{R}^{3}$ definida por
$$f(x,y)=\left(e^{xy},x^{2}+y,2x^{3}y^{2}\right)$$ es diferenciable en $(1,3)$
$\textbf{Solución}$ En este caso
$$\lim_{h\rightarrow0}\frac{r(h)}{|h|}=$$
$$\lim_{(h_{1},h_{2})\rightarrow(0,0)}\frac{f(1+h_{1},3+h_{2})-f(1,3)-\left((3e^{3},e^{3})\cdot\binom{h_{1}}{h_{2}},(2,1)\cdot\binom{h_{1}}{h_{2}},(54,12)\cdot\binom{h_{1}}{h_{2}}\right)}{|(h_{1},h_{2})|}$$
$$=\lim_{(h_{1},h_{2})\rightarrow(0,0)}\frac{\left(e^{(1+h_{1})(3+h_{2})},(1+h_{1})^{2}+(3+h_{2}),2(1+h_{1})^{3}(3+h_{2})^{2}\right)-\left(e^{3},4,18\right)}{|(h_{1},h_{2})|}$$
$$\frac{-\left((3e^{3},e^{3})\cdot\binom{h_{1}}{h_{2}},(2,1)\cdot\binom{h_{1}}{h_{2}},(54,12)\cdot\binom{h_{1}}{h_{2}}\right)}{|(h_{1},h_{2})|}$$
$$=\left(\lim_{(h_{1},h_{2})\rightarrow(0,0)}\frac{e^{(1+h_{1})(3+h_{2})}-e^{3}-3e^{3}h_{1}-e^{3}h_{2}}{|(h_{1},h_{2})|},\lim_{(h_{1},h_{2})\rightarrow(0,0)}\frac{(1+h_{1})^{2}+(3+h_{2})-4-2h_{1}-h_{2}}{|(h_{1},h_{2})|},\right.$$
$$\left.\lim_{(h_{1},h_{2})\rightarrow(0,0)}\frac{2(1+h_{1})^{3}(3+h_{2})^{2}-18-54h_{1}-12h_{2}}{|(h_{1},h_{2})|}\right)$$
$$=(0,0,0)$$
por lo que la función es diferenciable.

En el ejemplo anterior se tiene que
$$\lim_{(h_{1},h_{2})\rightarrow(0,0)}\frac{f(1+h_{1},3+h_{2})-f(1,3)-\left((3e^{3},e^{3})\cdot\binom{h_{1}}{h_{2}},(2,1)\cdot\binom{h_{1}}{h_{2}},(54,12)\cdot\binom{h_{1}}{h_{2}}\right)}{|(h_{1},h_{2})|}$$
se puede expresar
$$\lim_{(h_{1},h_{2})\rightarrow (0,0)}\frac{f(1+h_{1},3+h_{2})-f(1,3)-\left( \begin{matrix}
3e^{3}&e^{3}\\
2&1\\ 54&12
\end{matrix}\right)\left[ \begin{array}{ll}
h_{1}\\ h_{2} \end{array}\right]}{\sqrt{h_{1}^{2}+h_{2}^{2}}}$$
lo que nos lleva a la siguiente definición.

Definición. A la matriz de $m\times n$ se le llama Matriz Jacobiana de la función $f$ en $x_{0}$ y se le denota $Jf(x_{0})$.


Definición. Sea $f:\mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ definida en el abierto $\Omega$ de $\mathbb{R}^{n}$ y $x_{0}\in \Omega$. Se dice que $f$ es diferenciable en $x_{0}\in\Omega$ si y solo si existe una matriz T de $m\times n$ tal que $$\lim_{h\rightarrow 0}\frac{f(x_{0}+h)-f(x_{0})-T(x_{0})\cdot h}{|h|}=0$$donde $T(x_{0})$ es la matriz jacobiana denotada por $Jf(x_{0})$ ó $Df(x_{0})$. En notación matricial:
$$T(x_{0})\cdot h=\left( \begin{matrix}
\frac{\partial f_{1}(x_{0})}{\partial x_{1}}&\cdot\cdot\cdot& \frac{\partial f_{1}(x_{0})}{\partial x_{n}}\\
\cdot&\cdot&\cdot\\
\cdot&\cdot&\cdot\\
\cdot&\cdot&\cdot\\
\frac{\partial f_{m}(x_{0})}{\partial x_{1}}&\cdot\cdot\cdot&\frac{\partial f_{m}(x_{0})}{\partial x_{n}}
\end{matrix}\right)\cdot \left( \begin{matrix}
h_{1}\\
\cdot\\
\cdot\\
\cdot\
h_{n}
\end{matrix}\right)$$

En términos $\epsilon-\delta$ se tiene que si $0<|h|<\delta$ entonces $$\frac{|f(x_{0}+h)-f(x_{0})-T(x_{0})\cdot h|}{|h|}<\epsilon$$

Teorema 1. Supónga que $f:\Omega\subset\mathbb{R}^{n}\rightarrow \mathbb{R}^{m}$ es diferenciable en $x_{0}\in \mathbb{R}^{n}$. Entonces la matriz $T$ es única

Demostración. Supongamos que existen $T_{1}$ y $T_{2}$ que cumplen $$\lim_{h\rightarrow 0}\frac{f(x_{0}+h)-f(x_{0})-T_{1}(x_{0})\cdot h}{|h|}=0\quad y\quad \lim_{h\rightarrow 0}\frac{f(x_{0}+h)-f(x_{0})-T_{2}(x_{0})\cdot h}{|h|}=0$$
$\therefore$
$$\lim_{h\rightarrow 0}\frac{f(x_{0}+h)-f(x_{0})-T_{1}(x_{0})\cdot h}{|h|}-\frac{f(x_{0}+h)-f(x_{0})-T_{2}(x_{0})\cdot h}{|h|}=0$$
$$\Rightarrow \lim_{h\rightarrow 0}\frac{T_{2}(x_{0})\cdot h-T_{1}(x_{0})\cdot h}{|h|}=0$$
Sea $x$ un vector unitario en la dirección del vector $h$ y hacemos $h=tx$ con $t\in\mathbb{R}$
$\therefore$
$$ 0=\lim_{h\rightarrow 0}\frac{T_{2}(x_{0})\cdot h-T_{1}(x_{0})\cdot h}{|h|}= \lim_{t\rightarrow 0}\frac{T_{2}(x_{0})\cdot tx-T_{1}(x_{0})\cdot tx}{|tx|}=\lim_{t\rightarrow 0}t\frac{T_{2}(x_{0})\cdot x-T_{1}(x_{0})\cdot x}{|t||x|}$$
$$ \Rightarrow 0=T_{2}(x_{0})\cdot x-T_{1}(x_{0})\cdot x \Rightarrow T_{2}(x_{0})\cdot x=T_{1}(x_{0})\cdot x\Rightarrow T_{2}(x_{0})=T_{1}(x_{0})\Rightarrow T_{2}=T_{1}$$ $\square$

Operadores: Divergencia, Rotacional y Laplaciano

Considere la función $f:\mathbb{R}^{3}\rightarrow\mathbb{R}^{3}$ dada por
$$f(x,y,z)=\left(f_{1}(x,y,z),f_{2}(x,y,z),f_{3}(x,y,z)\right)$$
cuya matriz jacobiana es
$$\left( \begin{matrix}
\frac{\partial f_{1}}{\partial x}&\frac{\partial f_{1}}{\partial y}&\frac{\partial f_{1}}{\partial z}\\
\frac{\partial f_{2}}{\partial x}&\frac{\partial f_{2}}{\partial y}&\frac{\partial f_{2}}{\partial z}\\
\frac{\partial f_{3}}{\partial x}&\frac{\partial f_{3}}{\partial y}&\frac{\partial f_{3}}{\partial z}\
\end{matrix}\right)$$
Con los elementos de esta matriz se forman importantes combinaciones que son la divergencia y el rotacional, conocidos también como invariantes de primer orden de esta matriz. La razón por la que se llaman invariantes es porque el valor de dichas combinaciones no se altera al efectuar un cambio de coordenadas.

Definición. Dada la matriz Jacobiana $$\left( \begin{matrix}
\textcolor{Red}{\frac{\partial f_{1}}{\partial x}}&\frac{\partial f_{1}}{\partial y}&\frac{\partial f_{1}}{\partial z}\\
\frac{\partial f_{2}}{\partial x}&\textcolor{Red}{\frac{\partial f_{2}}{\partial y}}&\frac{\partial f_{2}}{\partial z}\\
\frac{\partial f_{3}}{\partial x}&\frac{\partial f_{3}}{\partial y}&\textcolor{Red}{\frac{\partial f_{3}}{\partial z}}\
\end{matrix}\right)$$
Se define la divergencia de f como
$$div~(f)=\textcolor{Red}{\frac{\partial f_{1}}{\partial x}+\frac{\partial f_{2}}{\partial y}+\frac{\partial f_{3}}{\partial z}}$$
Se puede ver que es igual a la suma de los elementos de la diagonal principal, es decir, que constituye la traza de la matriz jacobiana de f. La defnición de divergencia puede darse también mediante el operador $\nabla$ (nabla)
$$\nabla\cdot f=\left(\frac{\partial}{\partial x},\frac{\partial}{\partial y},\frac{\partial}{\partial z}\right)\cdot \left(f_{1},f_{2},f_{3}\right)=\frac{\partial f_{1}}{\partial x}+\frac{\partial f_{2}}{\partial y}+\frac{\partial f_{3}}{\partial z}$$

Dada la matriz Jacobiana
$$\left( \begin{matrix}
\frac{\partial f_{1}}{\partial x}&\textcolor{Green}{\frac{\partial f_{1}}{\partial y}}&\textcolor{Red}{\frac{\partial f_{1}}{\partial z}}\
\textcolor{Green}{\frac{\partial f_{2}}{\partial x}}&\frac{\partial f_{2}}{\partial y}&\textcolor{Blue}{\frac{\partial f_{2}}{\partial z}}\
\textcolor{Red}{\frac{\partial f_{3}}{\partial x}}&\textcolor{Blue}{\frac{\partial f_{3}}{\partial y}}&\frac{\partial f_{3}}{\partial z}\
\end{matrix}\right)$$
se define el rotacional como
$$rot~(f)=\left(\textcolor{Blue}{\frac{\partial f_{3}}{\partial y}-\frac{\partial f_{2}}{\partial z}},\textcolor{Red}{\frac{\partial f_{3}}{\partial x}-\frac{\partial f_{1}}{\partial z}},\textcolor{Green}{\frac{\partial f_{2}}{\partial x}-\frac{\partial f_{1}}{\partial y}}\right)$$
Y podemos ver que las componentes del rotacional están definidas por las diferencias de los elementos situados simétricamente con respecto a la diagonal principal de la matriz Jacobiana.
La defnición de rotacional puede darse también mediante el operador $\nabla$ (nabla)
$$\nabla\times f=\left|\begin{matrix}\hat{i}&\hat{j}&\hat{k}\\ \frac{\partial}{\partial x}&\frac{\partial}{\partial y}&\frac{\partial}{\partial z}\\f_{1}&f_{2}&f_{3}\end{matrix}\right|=\left(\frac{\partial f_{3}}{\partial y}-\frac{\partial f_{2}}{\partial z},\frac{\partial f_{3}}{\partial x}-\frac{\partial f_{1}}{\partial z},\frac{\partial f_{2}}{\partial x}-\frac{\partial f_{1}}{\partial y}\right)$$

Definición. Sea $f:\mathbb{R}^{n}\rightarrow \mathbb{R}$ definida en el abierto $\Omega$ de $\mathbb{R}^{n}$ tal que $f$ es de clase $C^{2}$ en $\Omega$. La expresión
$$\nabla^{2}f=\frac{\partial^{2}f}{\partial x^{2}}+\frac{\partial^{2}f}{\partial y^{2}}$$
es llamada Laplaciano de f. La ecuación
$$\frac{\partial^{2}f}{\partial x^{2}}+\frac{\partial^{2}f}{\partial y^{2}}=0$$
es llamada la ecuación de Laplace. Las funciones f de clase $C^{2}$ que cumplen la ecuación de Laplace se llaman funciones Armónicas.

Ejercicio. Sean $f,g:A\subset\mathbb{R}^{3}\rightarrow\mathbb{R}^{3}$ dos funciones diferenciables en una región $A\subset\mathbb{R}^{3}$ y $\varphi:\mathbb{R}^{3}\rightarrow\mathbb{R}$
Pruebe que

(a) $div~(f+g)=div~f+div~g$

(b) $div~(\varphi f)=\varphi~div~(f)+grad~(\varphi)\cdot f$
(c) $rot~(f+g)=rot~(f)+rot~g$
(d) Sean $\phi,\psi:A\subset \mathbb{R}^{2}\rightarrow\mathbb{R}$ dos funciones $\psi=\psi(x,y),~\phi=\phi(x,y)$ tales que $$\frac{\partial \phi}{\partial x}=\frac{\partial \psi}{\partial y},~~\frac{\partial \phi}{\partial y}=-\frac{\partial \psi}{\partial x}$$
Demuestre que $\phi,~\psi$ son armónicas.

Solución. Para el inciso (a) se tiene
$$div~(f+g)=\nabla\cdot (f+g)$$
$$=\left(\frac{\partial}{\partial x},\frac{\partial}{\partial y},\frac{\partial}{\partial z}\right)\cdot (f+g)$$
$$=\frac{\partial}{\partial x}(f+g)+\frac{\partial}{\partial y}(f+g)+\frac{\partial}{\partial z}(f+g)$$
$$=\frac{\partial}{\partial x}f+\frac{\partial}{\partial x}g+\frac{\partial}{\partial y}f+\frac{\partial}{\partial y}g+\frac{\partial}{\partial z}f+\frac{\partial}{\partial z}g$$
$$=\frac{\partial}{\partial x}f+\frac{\partial}{\partial y}f+\frac{\partial}{\partial z}f+\frac{\partial}{\partial x}g+\frac{\partial}{\partial y}g+\frac{\partial}{\partial z}g$$
$$=\nabla\cdot f+\nabla\cdot g$$

Para el inciso (a) se tiene
$$div~(f+g)=\nabla\cdot (f+g)$$
$$=\left(\frac{\partial}{\partial x},\frac{\partial}{\partial y},\frac{\partial}{\partial z}\right)\cdot (f+g)$$
$$=\frac{\partial}{\partial x}(f+g)+\frac{\partial}{\partial y}(f+g)+\frac{\partial}{\partial z}(f+g)$$
$$=\frac{\partial}{\partial x}f+\frac{\partial}{\partial x}g+\frac{\partial}{\partial y}f+\frac{\partial}{\partial y}g+\frac{\partial}{\partial z}f+\frac{\partial}{\partial z}g$$
$$=\frac{\partial}{\partial x}f+\frac{\partial}{\partial y}f+\frac{\partial}{\partial z}f+\frac{\partial}{\partial x}g+\frac{\partial}{\partial y}g+\frac{\partial}{\partial z}g$$
$$=\nabla\cdot f+\nabla\cdot g$$

Para el inciso (c) se tiene
$$\nabla\times (f+g)=\left(\frac{\partial}{\partial x},\frac{\partial}{\partial y},\frac{\partial}{\partial z}\right)\times(f_{1}+g_{1},f_{2}+g_{2},f_{3}+g_{3})$$
$$=\left(\frac{\partial (f_{3}+g_{3})}{\partial y}-\frac{\partial (f_{2}+g_{2})}{\partial z},\frac{\partial (f_{3}+g_{3})}{\partial x}-\frac{\partial (f_{1}+g_{1})}{\partial z},\frac{\partial (f_{2}+g_{2})}{\partial x}-\frac{\partial (f_{1}+g_{1})}{\partial y}\right)$$
$$=\left[\left(\frac{\partial f_{3}}{\partial y}-\frac{\partial f_{2}}{\partial z}\right)+\left(\frac{\partial g_{3}}{\partial y}-\frac{\partial g_{2}}{\partial z}\right),\left(\frac{\partial f_{3}}{\partial x}-\frac{\partial f_{1}}{\partial z}\right)+\left(\frac{\partial g_{3}}{\partial x}-\frac{\partial g_{1}}{\partial z}\right),\left(\frac{\partial f_{2}}{\partial x}-\frac{\partial f_{1}}{\partial y}\right)+\left(\frac{\partial g_{2}}{\partial x}-\frac{\partial g_{1}}{\partial y}\right)\right]$$
$$=\nabla\times f+\nabla\times g$$

Para el inciso (d) se tiene
$$\frac{\partial \phi}{\partial x}=\frac{\partial \psi}{\partial y},~~~~\frac{\partial \phi}{\partial y}=-\frac{\partial \psi}{\partial x}$$
por lo que
$$\frac{\partial^{2} \phi}{\partial x^{2}}=\frac{\partial}{\partial x}\left(\frac{\partial \psi}{\partial y}\right)$$
$$=\frac{\partial^{2}\psi}{\partial x\partial y}$$
por otro lado
$$\frac{\partial^{2} \phi}{\partial y^{2}}=\frac{\partial}{\partial y}\left(-\frac{\partial \psi}{\partial x}\right)$$
$$=-\frac{\partial^{2}\psi}{\partial y\partial x}$$
por lo tanto
$$\frac{\partial^{2} \phi}{\partial x^{2}}+\frac{\partial^{2} \phi}{\partial y^{2}}=\frac{\partial^{2}\psi}{\partial x\partial y}-\frac{\partial^{2}\psi}{\partial y\partial x}=0$$
Analogamente se tiene
$$\frac{\partial^{2} \psi}{\partial x^{2}}=\frac{\partial}{\partial x}\left(-\frac{\partial \phi}{\partial y}\right)$$
$$=-\frac{\partial^{2}\phi}{\partial x\partial y}$$
por otro lado
$$\frac{\partial^{2} \psi}{\partial y^{2}}=\frac{\partial}{\partial y}\left(\frac{\partial \phi}{\partial x}\right)$$
$$=\frac{\partial^{2}\phi}{\partial y\partial x}$$
por lo tanto
$$\frac{\partial^{2} \psi}{\partial x^{2}}+\frac{\partial^{2} \psi}{\partial y^{2}}=-\frac{\partial^{2}\phi}{\partial x\partial y}+\frac{\partial^{2}\phi}{\partial y\partial x}=0$$
como las funciones $\psi,~\phi$ satisfacen la ecuación de Laplace entonces ambas funciones son armónicas.

Convergencia e integración

Por Lizbeth Fernández Villegas

Introducción

Así como ya hicimos comparaciones de continuidad o diferenciabilidad del límite de una sucesión de funciones a partir de sus términos, en esta ocasión lo haremos con funciones integrables.

Partimos de una sucesión de funciones donde para cada $n \in \mathbb{N}, \, f_n:[a,b] \to \mathbb{R}, \, a,b \in \mathbb{R}.$ Supón además que $(f_n)_{n \in \mathbb{N}}$ converge puntualmente a una función $f$ en $[a,b].$

Si cada una de las funciones $f_n$ son integrables, ¿será $f$ también integrable?

¿La sucesión de integrales converge? ¿Su límite coincide con la integral del límite? Veamos el siguiente:

Ejemplo.

Considera el conjunto $\mathbb{Q} \cap [0,1].$ Como es numerable, podemos identificarlo como $\mathbb{Q} \cap [0,1] = \{ x_n: n \in \mathbb{N} \}.$ Para cada $n \in \mathbb{N}$ definimos $\mathcal{X}_{\{x_n\}}$ como la función característica dada por:

\begin{equation*}
\mathcal{X}_{\{x_n\}} = \begin{cases}
1 & \text{si $x = x_n$} \\
0 & \text{si $x \neq x_n$}
\end{cases}
\end{equation*}

Función $\mathcal{X}_{\{x_n\}}.$

Ahora, para cada $n \in \mathbb{N}$ definimos $f_n = \mathcal{X}_{\{x_1\}}+…+\mathcal{X}_{\{x_n\}}.$

Función $f_n.$

Entonces la función $f_n$ es integrable en $[a,b]$ y la sucesión $(f_n)_{n \in \mathbb{N}}$ converge puntualmente a la función:

\begin{equation*}
\mathcal{X}_{ \, \mathbb{Q} \cap [0,1]} = \begin{cases}
1 & \text{si $x \in \mathbb{Q} \cap [0,1]$} \\
0 & \text{si $x \notin\mathbb{Q} \cap [0,1]$}
\end{cases}
\end{equation*}

Pero $\mathcal{X}_{ \, \mathbb{Q} \cap [0,1]}$ no es integrable en $[0,1].$ Por lo tanto la convergencia puntual podría no bastar para que el límite sea integrable. ¿Y si la convergencia es uniforme?

Proposición: Sea $(f_n)_{n \in \mathbb{N}}$ una sucesión de funciones integrables en $[a,b]$ que converge uniformemente a una función $f$ en $[a,b].$ Entonces $f$ es integrable y
$$\int_{a}^{b} f = \underset{n \to \infty}{lim} \, \int_{a}^{b} f_n.$$

Demostración:
Para cada $n \in \mathbb{N}$ sea $\large{\varepsilon_n} := \underset{a \leq x \leq b}{sup}|f_n(x) – f(x)|.$
Entonces $f_n \, – \, \large{\varepsilon_n} \leq f \leq f_n + \varepsilon_n,$ de modo que las integrales superior e inferior de $f$ satisfacen:
$\int_{a}^{b} (f_n \, – \, \large{\varepsilon_n}) \, dx \leq \underline{\int} f \, dx\leq \overline{\int} f \, dx \leq \int_{a}^{b}(f_n + \large{\varepsilon_n}) \, dx$

Entonces $0 \leq \overline{\int} f \, dx – \underline{\int} f \, dx \leq \int_{a}^{b}(f_n + \large{\varepsilon_n}) \, dx – \int_{a}^{b} (f_n – \large{\varepsilon_n}) \, dx = 2\large{\varepsilon_n}[b-a].$
Dado que $\large{\varepsilon_n} \to 0$ porque $(f_n)_{n \in \mathbb{N}} \to f$ de manera uniforme, se sigue que $\overline{\int} f=\underline{\int} f.$ Por lo tanto $f$ es integrable.

Podemos ver también que
$\left| \int_{a}^{b} f \, dx \, – \, \int_{a}^{b} f_n \, dx \right| \leq \large{\varepsilon_n}[b-a] \to 0$ lo que demuestra que
$$\int_{a}^{b} f = \underset{n \to \infty}{lim} \, \int_{a}^{b} f_n.$$

Es importante mencionar que la convergencia uniforme no es una condición necesaria para que se de esta igualdad. Veamos el siguiente:

Ejemplo.

Para cada $n \in \mathbb{N}$ sea $f_n(x) = x^n$ con $x \in [0,1].$ En la entrada Convergencia uniforme y continuidad mostramos que la sucesión $(x^n)_{n \in \mathbb{N}} \, $ converge puntualmente a la función:

\begin{equation*}
f(x)= \begin{cases}
0 & \text{ si $0\leq x<1$}\\
1 & \text{ si $x=1$}
\end{cases}
\end{equation*}

Si calculamos las integrales tenemos que para cada $n \in \mathbb{N}:$

$\large{\int_{0}^{1}x^n} \, dx = \dfrac{1}{n+1} \to 0 = \large{\int_{0}^{1} f(x)} \, dx.$

Por lo tanto
$$ \int_{0}^{1}f(x) \, dx =\underset{n \to \infty}{lim} \, \int_{0}^{1}f_n(x) \, dx.$$

Las condiciones de este ejemplo pueden generalizarse. Antes conozcamos algunas definiciones:

Definición. Sucesión uniformemente acotada: Sea $(f_n)_{n \in \mathbb{N}} \,$ una sucesión de funciones con $f_n: A \subset \mathbb{R} \to \mathbb{R}, \, n \in \mathbb{N}$. Diremos que es uniformemente acotada en $A$ si existe $M >0 \in \mathbb{R}$ tal que $|f_n(x)| \leq M$ para cualquier $x \in A$ y cualquier $n \in \mathbb{N}.$

Definición. Sucesión acotadamente convergente: Una sucesión de funciones $(f_n)_{n \in \mathbb{N}} \,$ con $f_n: A \subset \mathbb{R} \to \mathbb{R}, \, n \in \mathbb{N}$ es acotadamente convergente en $A$ si converge puntualmente y es uniformemente acotada en $A.$

Proposición: Sea $(f_n)_{n \in \mathbb{N}} \,$ una sucesión acotadamente convergente en $[a,b]$ donde cada función es integrable en $[a,b],$ y que la función límite $f$ es integrable en $[a,b].$ Supongamos también que existe una partición $P$ de $[a,b],$ a saber, $P=\{x_0,x_1,…,x_m\},$ tal que la sucesión $(f_n)_{n \in \mathbb{N}} \,$ es uniformemente convergente hacia $f$ en cada subintervalo $[c,d] \subset [a,b]$ que no contenga ninguno de los puntos $x_k \in P.$ Entonces:

$$ \underset{n \to \infty}{lim} \, \int_{a}^{b} f_n(x) \, dx = \int_{a}^{b} f(x) \, dx.$$

Demostración:
Dado que $f$ es acotada y $(f_n)_{n \in \mathbb{N}} \,$ es uniformemente acotada, existe $M >0$ tal que $|f(x)| \leq M$ para cada $x \in [a,b]$ y para cualquier $n \in \mathbb{N}.$
Sea $\varepsilon > 0$ tal que $2 \varepsilon < \norm{P},$
sea $h = \frac{\varepsilon}{2m},$ donde $m$ es el múmero de subintervalos de $P,$
considera una nueva partición $P’$ de $[a,b]$ dada por:
$P’=\{x_0, \, x_0+h,\, x_1-h,\, x_1+h, \, … \, ,x_{m-1}-h, \, x_{m-1}+h, \, x_m-h, \, x_m\}$

Nota que la función $|f-f_n|$ es integrable en $[a,b]$ y es acotada por $2M.$ Consideremos la integral de esta función en cada uno de los intervalos de la nueva partición $P’.$

Por un lado, consideremos la suma de las integrales de $|f-f_n|$ tomadas sobre los intervalos que sí tienen algún punto de $P,$ es decir los intervalos
$[x_0,x_0+h], \, [x_1-h,x_1+h],…,[x_{m-1}-h,x_{m-1}+h], \, [x_m-h,x_m].$

La suma está dada por:

\begin{align*}
&\int_{x_0}^{x_0+h} |f-f_n|(x)\, dx + \int_{x_1-h}^{x_1+h} |f-f_n|(x)\, dx +…+ \int_{x_{m-1}-h}^{x_{m-1}+h} |f-f_n|(x)\, dx + \int_{x_m-h}^{x_m} |f-f_n|(x)\, dx \\
\leq & 2M(x_0+h-x_0) + 2M(x_1+h-(x_1-h))+…+2M(x_{m-1}+h-(x_{m-1}-h))+2M(x_m-(x_m-h)) \\
=&2Mh+2M(2h)+…+2M(2h)+2Mh \\
=&2M(2hm) \\
=&2M \varepsilon
\end{align*}

El subconjunto restante de $[a,b]$ lo llamaremos $S.$ Está formado por un número finito de intervalos cerrados en los que $(f_n)_{n \in \mathbb{N}} \,$ converge uniformemente hacia $f$ (pues no tiene ningún punto de $P$). Por consiguiente, existe $N \in \mathbb{N}$ tal que para cada $x \in S,$ si $n \geq N \,$ se cumple que
$$|f(x)-f_n(x)| < \varepsilon$$

De modo que la suma de las integrales de $|f-f_n|$ sobre los intervalos de $S$ es a lo sumo $\large{\varepsilon} (b-a),$ luego para cada $n \geq N:$

$\int_{a}^{b}|f(x)-f_n(x)|dx \leq (2M + b-a) \large{\varepsilon} \, \to \, 0.$

Esto demuestra que $\int_{a}^{b}f_n(x)dx \to \int_{a}^{b}f(x)dx$ cuando $n \to \infty .$

En la última sección de Análisis Matemático I hablaremos de la integral de Riemann-Stieljes, que es un concepto que generaliza la integral de Riemann. La proposición vista aquí se puede expresar como sigue:

Proposición. Sucesión de funciones Riemann-Stieljes: Sea $\alpha$ monótona en $[a,b].$ Supón que para cada $n \in \mathbb{N}, \, f_n \in \mathcal{R}(\alpha)$ en $[a,b].$ Si $(f_n)_{n \in \mathbb{N}}$ converge uniformemente a $f$ en $[a,b]$ entonces $f \in \mathcal{R}(\alpha)$ en $[a,b]$ y:

$$\int_{a}^{b} f \, d \alpha = \underset{n \to \infty}{lim} \, \int_{a}^{b} f_n \, d \alpha .$$

Más adelante…

Hablaremos de series de funciones y del límite de ellas. Así conoceremos el concepto de convergencia uniforme pero ahora en sumas infinitas.

Tarea moral

  1. Sea $f_n$ como en el primer ejemplo. Prueba que en efecto la sucesión $(f_n)_{n \in \mathbb{N}} \,$ no converge uniformemente a la función:
    \begin{equation*}
    \mathcal{X}_{ \, \mathbb{Q} \cap [0,1]} = \begin{cases}
    1 & \text{si $x \in \mathbb{Q} \cap [0,1]$} \\
    0 & \text{si $x \notin\mathbb{Q} \cap [0,1]$}
    \end{cases}
    \end{equation*}
  2. Sea $(f_n)_{n \in \mathbb{N}} \,$ una sucesión de funciones acotadas con $f_n: A \subset \mathbb{R} \to \mathbb{R}, \, n \in \mathbb{N}, \,$ tal que converge uniformemente a una función $f:A \to \mathbb{R}.$ Demuestra que $(f_n)_{n \in \mathbb{N}} \,$ es uniformemente acotada en $A.$
  3. Regresa luego de ver la integral de Riemann-Stieljes y demuestra la última proposición de esta sección.

Enlaces: