Archivo del Autor: Angélica Amellali Mercado Aguilar

El Teorema de la función implícita (parte 2)

Por Angélica Amellali Mercado Aguilar

$\textcolor{Red}{\textbf{Teorema de la Función Implícita ($f:\mathbb{R}\rightarrow\mathbb{R}$)}}$

$\textbf{Teorema.}$ Considere la función $y=f(x)$. Sea $(x_{0},y_{0}) \in \mathbb{R}^{2}$ un punto tal que $F(x_{0},y_{0})=0$. Suponga que la función $F$ tiene derivadas parciales continuas en alguna bola con centro $(x_{0},y_{0})$ y que $\displaystyle \frac{\partial F}{\partial y}(x_{0},y_{0})\neq 0$. Entonces $F(x,y)=0$ se puede resolver para $y$ en términos de $x$ y definir así una función $y=f(x)$ con dominio en una vecindad de $(x_{0},y_{0})$, tal que $y_{0}=f(x_{0})$, lo cual tiene derivadas continuas en $\mathcal{V}$ que pueden calcularse como $y’=f'(x)= \displaystyle \frac{\displaystyle \frac{\partial F}{\partial x}(x,y)}{\displaystyle \frac{\partial F}{\partial y}(x,y)}$, $x \in \mathcal{V}$.

$\textbf{Ejercicio}$ Si $$y’=f'(x)=-\displaystyle \frac{\displaystyle \frac{\partial F}{\partial
x}(x,y)}{\displaystyle \frac{\partial F}{\partial y}(x,y)}$$ calcular $y^{»}$

$\small{Solución}$ En este caso
$$y^{»}=-\frac{\left(\frac{\partial F}{\partial y}\right)\left[\frac{\partial^{2} F}{\partial x^{2}}\frac{dx}{dx}+\frac{\partial^{2} F}{\partial y\partial x}\frac{dy}{dx}\right]-\left(\frac{\partial F}{\partial x}\right)\left[\frac{\partial^{2} F}{\partial x\partial y}\frac{dx}{dx}+\frac{\partial^{2} F}{\partial y^{2}}\frac{dy}{dx}\right]}{\left(\frac{\partial F}{\partial y}\right)^{2}}$$
$$=-\frac{\left(\frac{\partial F}{\partial y}\right)\left[\frac{\partial^{2} F}{\partial x^{2}}+\frac{\partial^{2} F}{\partial y\partial x}\left(-\frac{\frac{\partial F}{\partial x}}{\frac{\partial F}{\partial y}}\right)\right]-\left(\frac{\partial F}{\partial x}\right)\left[\frac{\partial^{2} F}{\partial x\partial y}\frac{dx}{dx}+\frac{\partial^{2} F}{\partial y^{2}}\left(-\frac{\frac{\partial F}{\partial x}}{\frac{\partial F}{\partial y}}\right)\right]}{\left(\frac{\partial F}{\partial y}\right)^{2}}$$
$$=-\frac{\left(\frac{\partial F}{\partial y}\right)^{2}\left(\frac{\partial^{2} F}{\partial x^{2}}\right)-\left(\frac{\partial^{2} F}{\partial y\partial x}\right)\left(\frac{\partial F}{\partial x}\right)\left(\frac{\partial F}{\partial y}\right)-\left(\frac{\partial F}{\partial x}\right)\left(\frac{\partial F}{\partial y}\right)\left(\frac{\partial^{2} F}{\partial x\partial y}\right)+\left(\frac{\partial F}{\partial x}\right)^{2}\left(\frac{\partial^{2} F}{\partial y^{2}}\right)}{\left(\frac{\partial F}{\partial y}\right)^{3}}$$
$$=-\frac{\left(\frac{\partial F}{\partial y}\right)^{2}\left(\frac{\partial^{2} F}{\partial x^{2}}\right)-2\left(\frac{\partial^{2} F}{\partial y\partial x}\right)\left(\frac{\partial F}{\partial x}\right)\left(\frac{\partial F}{\partial y}\right)+\left(\frac{\partial F}{\partial x}\right)^{2}\left(\frac{\partial^{2} F}{\partial y^{2}}\right)}{\left(\frac{\partial F}{\partial y}\right)^{3}}$$

$\textcolor{Red}{\textbf{Teorema de la Función Implícita ($f:\mathbb{R}^{2}\rightarrow\mathbb{R}$)}}$

$\textbf{Teorema}$ Considere la función $F(x,y,z)$. Sea $(x_{0},y_{0},z_{0}) \in
\mathbb{R}^{3}$ un punto tal que $F(x_{0},y_{0},z_{0})=0$. Suponga que la
función F tiene derivadas parciales $\displaystyle{\frac{\partial F}{\partial x},~\frac{\partial F}{\partial y},~\frac{\partial F}{\partial z}}$ continuas en alguna bola con
centro $(x_{0},y_{0},z_{0})$ y que $\displaystyle \frac{\partial
F}{\partial z}(x_{0},y_{0},z_{0})\neq 0$.
Entonces $F(x,y,z)=0$ se puede resolver para $z$ en términos de $x,y$
y definir así una función $z=f(x,y)$ con dominio en una vecindad de
$(x_{0},y_{0},z_{0})$, tal que $z_{0}=f(x_{0},y_{0})$, lo cual tiene derivadas continuas
en $\mathcal{V}$ que pueden calcularse como $$\frac{d z}{dx}(x,y)=-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial
x}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}~~~\frac{d z}{dy}(x,y)=-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial
y}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}$$

$\textbf{Ejercicio}$ Si
$$\frac{d z}{dx}(x,y)=-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial
x}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}$$ calcular $$\frac{\partial^{2}F}{\partial x^{2}}$$

$\small{Solución}$ Tenemos que
$$\frac{\partial^{2}F}{\partial x^{2}}=\frac{\partial}{\partial x}\left(-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial
x}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}\right)=-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial x^{2}} \frac{dx}{d x}+ \frac{\partial^{2} F}{\partial y\partial x} \frac{dy}{dx}+ \frac{\partial^{2} F}{\partial z\partial x} \frac{dz}{dx}\right]-\left( \frac{\partial F}{\partial x}\right)\left[ \frac{\partial^{2} F}{\partial x \partial z}\frac{dx}{d x}+ \frac{\partial^{2} F}{\partial y\partial z} \frac{dy}{dx}+ \frac{\partial^{2} F}{\partial z^{2}} \frac{dz}{dx}\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$=-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial x^{2}}+ \frac{\partial^{2} F}{\partial z\partial x} \frac{dz}{dx}\right]-\left( \frac{\partial F}{\partial x}\right)\left[ \frac{\partial^{2} F}{\partial x \partial z}+\frac{\partial^{2} F}{\partial z^{2}} \frac{dz}{dx}\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$=-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial x^{2}}+ \frac{\partial^{2} F}{\partial z\partial x} \left(-\frac{\frac{\partial F}{\partial x}}{\frac{\partial F}{\partial z}}\right)\right]-\left( \frac{\partial F}{\partial x}\right)\left[ \frac{\partial^{2} F}{\partial x \partial z}+\frac{\partial^{2} F}{\partial z^{2}}\left(-\frac{\frac{\partial F}{\partial x}}{\frac{\partial F}{\partial z}}\right)\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$=-\frac{\left( \frac{\partial F}{\partial z}\right)^{2} \frac{\partial^{2} F}{\partial x^{2}}-2 \frac{\partial^{2} F}{\partial z\partial x} \frac{\partial F}{\partial x}\frac{\partial F}{\partial z}+\left(\frac{\partial F}{\partial x}\right)^{2}{\frac{\partial^{2} F}{\partial z^{2}}}}{\left(\frac{\partial F}{\partial z}\right)^{3}}$$

$\textbf{Ejercicio}$ Si
$$\frac{d z}{dy}(x,y)=-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial
y}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}$$ calcular $$\frac{\partial^{2}F}{\partial y^{2}}$$

$\small{Solución}$ tenemos que
$$\frac{\partial^{2}F}{\partial y^{2}}=\frac{\partial}{\partial y}\left(-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial
y}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}\right)=-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial y\partial x} \frac{dx}{d y}+ \frac{\partial^{2} F}{\partial y^{2}} \frac{dy}{dy}+ \frac{\partial^{2} F}{\partial z\partial y} \frac{dz}{dy}\right]-\left( \frac{\partial F}{\partial y}\right)\left[ \frac{\partial^{2} F}{\partial x \partial z}\frac{dx}{d y}+ \frac{\partial^{2} F}{\partial y\partial z} \frac{dy}{dy}+ \frac{\partial^{2} F}{\partial z^{2}} \frac{dz}{dy}\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$=-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial y^{2}}+ \frac{\partial^{2} F}{\partial z\partial y} \frac{dz}{dy}\right]-\left( \frac{\partial F}{\partial y}\right)\left[ \frac{\partial^{2} F}{\partial y \partial z}+\frac{\partial^{2} F}{\partial z^{2}} \frac{dz}{dy}\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$=-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial y^{2}}+ \frac{\partial^{2} F}{\partial z\partial y} \left(-\frac{\frac{\partial F}{\partial y}}{\frac{\partial F}{\partial z}}\right)\right]-\left( \frac{\partial F}{\partial y}\right)\left[ \frac{\partial^{2} F}{\partial y \partial z}+\frac{\partial^{2} F}{\partial z^{2}}\left(-\frac{\frac{\partial F}{\partial y}}{\frac{\partial F}{\partial z}}\right)\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$=-\frac{\left( \frac{\partial F}{\partial z}\right)^{2} \frac{\partial^{2} F}{\partial y^{2}}-2 \frac{\partial^{2} F}{\partial z\partial y} \frac{\partial F}{\partial y}\frac{\partial F}{\partial z}+\left(\frac{\partial F}{\partial y}\right)^{2}{\frac{\partial^{2} F}{\partial z^{2}}}}{\left(\frac{\partial F}{\partial z}\right)^{3}}$$

$\textbf{Ejercicio}$ Si
$$\frac{d z}{dy}(x,y)=-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial
y}}{\displaystyle \frac{\partial F}{\partial z}}$$ calcular $$\frac{\partial^{2}F}{\partial y\partial x}$$

$\small{Solución}$ tenemos que
$$\frac{\partial^{2}F}{\partial y\partial x}=\frac{\partial}{\partial y}\left(\frac{\partial F}{\partial x}\right)=\frac{\partial}{\partial y}\left(-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial
x}}{\displaystyle \frac{\partial F}{\partial z}}\right)=$$
$$-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial y\partial x} + \frac{\partial^{2} F}{\partial z\partial x} \frac{\partial z}{\partial y}\right]-\left(\frac{\partial F}{\partial x}\right)\left[ \frac{\partial^{2} F}{\partial y\partial z} +\frac{\partial^{2} F}{\partial z^{2}}\frac{\partial z}{\partial y}\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$-\frac{\left( \frac{\partial F}{\partial z}\right)\left[ \frac{\partial^{2} F}{\partial y\partial x} + \frac{\partial^{2} F}{\partial z\partial x} \left(-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial
y}}{\displaystyle \frac{\partial F}{\partial z}}\right)\right]-\left(\frac{\partial F}{\partial x}\right)\left[ \frac{\partial^{2} F}{\partial y\partial z} +\frac{\partial^{2} F}{\partial z^{2}}\left(-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial
y}}{\displaystyle \frac{\partial F}{\partial z}}\right)\right]}{\left(\frac{\partial F}{\partial z}\right)^{2}}$$
$$=-\frac{\left( \frac{\partial F}{\partial z}\right)^{2} \frac{\partial^{2} F}{\partial y\partial x}- \frac{\partial^{2} F}{\partial z\partial x} \frac{\partial F}{\partial y}\frac{\partial F}{\partial z}-\frac{\partial^{2} F}{\partial y\partial z} \frac{\partial F}{\partial x}\frac{\partial F}{\partial z}+\frac{\partial^{2} F}{\partial z^{2}}\frac{\partial F}{\partial x}\frac{\partial F}{\partial y}}{\left(\frac{\partial F}{\partial z}\right)^{3}}$$

$\textcolor{Red}{\textbf{Teorema de la Función Implicita (version sistemas de ecuaciones)}}$

Consideremos ahora el sistema

$au+bv-k_{1}x=0$
$cu+dv-k_{2}y=0$

con $a,b,c,d,k_{1},k_{2}$ constantes. Nos preguntamos cuando
podemos resolver el sistema para $u$ y $v$ en términos de $x$ y $y$.
Si escribimos el sistema como

$au+bv=k_{1}x$
$cu+dv=k_{2}y$

y sabemos que este sistema tiene solución si $det
\left|\begin{array}{cc} a&b\\
c&d\end{array}\right|\neq0$ en tal caso escribimos

$u=\displaystyle \frac{1}{det \left|\begin{array}{cc} a&b
\\c&d\end{array}\right|}(k_{1}dx-k_{2}by)$,~~$v=\displaystyle \frac{1}{det \left|\begin{array}{cc} a&b
\\c&d\end{array}\right|}(k_{2}ay-k_{1}cx)$.

Esta solución no cambiaría si consideramos


$au+bv=f_{1}(x,y)$
$cu+dy=f_{2}(x,y)$


donde $f_{1}$ y $f_{2}$ son funciones dadas de $x$ y $y$. La posibilidad de despejar las variables $u$ y $v$ en términos de $x$ y $y$ recae sobre los coeficientes de estas variables en las ecuaciones dadas.

Ahora si consideramos ecuaciones no lineales en $u$ y $v$ escribimos el sistema como

$g_{1}(u,v)=f_{1}(x,y)$
$g_{2}(u,v)=f_{2}(x,y)$

nos preguntamos cuando del sistema podemos despejar a $u$y $v$ en términos de $x$ y $y$. Mas generalmente, consideramos el problema siguiente, dadas las funciones $F$ y $G$ de las variables $u,v,x,y$ nos preguntamos cuando de las expresiones

$F(x,y,u,v)=0$
$G(x,y,u,v)=0$

podemos despejar a $u$ y $v$ en términos de $x$ y $y$ en caso de ser posible diremos que las funciones $u=\varphi_{1}(x,y)$ y $v=\varphi_{2}(x,y)$ son funciones implícitas dadas. Se espera que $\exists’$n funciones $u=\varphi_{1}(x,y)$ y $v=\varphi_{2}(x,y)$ en

$F(x,y,\varphi_{1}(x,y),\varphi_{2}(x,y)$
$G(x,y,\varphi_{1}(x,y),\varphi_{2}(x,y)$

con $(x,y)$ en alguna vecindad $V$. Suponiendo que existen $\varphi_{1}$ y $\varphi_{2}$ veamos sus derivadas

$\displaystyle \frac{\partial F}{\partial x}\displaystyle \frac{\partial x}{\partial x}+\displaystyle \frac{\partial F}{\partial y}\displaystyle
\frac{\partial y}{\partial x}+\displaystyle \frac{\partial
F}{\partial u}\displaystyle \frac{\partial u}{\partial
x}+\displaystyle \frac{\partial F}{\partial v}\displaystyle
\frac{\partial v}{\partial x}=0$ $~~ $ $\Rightarrow$ $~~$ $\displaystyle \frac{\partial F}{\partial u}\displaystyle \frac{\partial u}{\partial x}+\displaystyle \frac{\partial F}{\partial v}\displaystyle \frac{\partial v}{\partial x}=-\displaystyle \frac{\partial F}{\partial x}$

$\displaystyle \frac{\partial G}{\partial x}\displaystyle
\frac{\partial x}{\partial x}+\displaystyle \frac{\partial
G}{\partial y}\displaystyle \frac{\partial y}{\partial
x}+\displaystyle \frac{\partial G}{\partial u}\displaystyle
\frac{\partial u}{\partial x}+\displaystyle \frac{\partial
G}{\partial v}\displaystyle \frac{\partial v}{\partial x}=0$ $~~$ $\Rightarrow$ $~~$ $\displaystyle \frac{\partial G}{\partial
u}\displaystyle \frac{\partial u}{\partial x}+\displaystyle
\frac{\partial G}{\partial v}\displaystyle \frac{\partial
v}{\partial x}=-\displaystyle \frac{\partial G}{\partial x}$

Lo anterior se puede ver como un sistema de 2 ecuaciones con 2 incógnitas $\displaystyle \frac{\partial u}{\partial x}$ y $\displaystyle \frac{\partial v}{\partial x}$. Aquí se ve que para que el sistema tenga solución

$det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|\neq0$ en $(P)$ (el $det$ Jacobiano) y según la regla de Cramer.

$\displaystyle \frac{\partial u}{\partial x}=-\frac{\det
\left|\begin{array}{cc} \displaystyle -\frac{\partial F}{\partial
x}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle -\frac{\partial G}{\partial x}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}{\det
\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}$, $~~$ $\displaystyle \frac{\partial v}{\partial x}=-\frac{\det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle -\frac{\partial F}{\partial x} \\ \displaystyle \frac{\partial G}{\partial u}&\displaystyle -\frac{\partial G}{\partial x}\end{array}\right|}{det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|}$ $~~~~$ (con los dos $det$ Jacobianos).

Análogamente si derivamos con respecto a $y$ obtenemos

$\displaystyle \frac{\partial F}{\partial
u}\displaystyle \frac{\partial u}{\partial y}+\displaystyle
\frac{\partial F}{\partial v}\displaystyle \frac{\partial
v}{\partial y}=-\displaystyle \frac{\partial F}{\partial y}$

$\displaystyle \frac{\partial G}{\partial
u}\displaystyle \frac{\partial u}{\partial y}+\displaystyle
\frac{\partial G}{\partial v}\displaystyle \frac{\partial
v}{\partial y}=-\displaystyle \frac{\partial G}{\partial y}$

de donde
$\displaystyle \frac{\partial u}{\partial y}=-\frac{\det
\left|\begin{array}{cc} \displaystyle -\frac{\partial F}{\partial
y}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle -\frac{\partial G}{\partial y}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}{det
\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|}$, $~~$ $\displaystyle \frac{\partial v}{\partial y}=-\frac{\det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle -\frac{\partial F}{\partial y} \\ \displaystyle \frac{\partial G}{\partial u}&\displaystyle -\frac{\partial G}{\partial y}\end{array}\right|}{det \left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial F}{\partial v} \\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial v}\end{array}\right|}$ $~~~~$ (con los dos $det$ Jacobianos).

Al determinante $det \left|\begin{array}{cc} \displaystyle
\frac{\partial F}{\partial u}&\displaystyle \frac{\partial
F}{\partial v}
\\ \displaystyle \frac{\partial G}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|$ lo llamamos Jacobiano y lo denotamos por $\displaystyle \frac{\partial (F,G)}{\partial (u,v)}$.

$\textcolor{Red}{\textbf{Teorema de la Función Implícita (sistemas de ecuaciones)}}$

$\textbf{Teorema 3.}$ Considere las funciones $z_{1}=F(x,y,u,v)$ y $z_{2}=G(x,y,u,v)$. Sea $P=(x,y,u,v) \in \mathbb{R}^{4}$ un punto tal que $F(P)=G(P)=0$. Suponga que en una bola $\textit{B} \in \mathbb{R}^{4}$ de centro $P$ las funciones $F$ y $G$ tienen (sus cuatro) derivadas parciales continuas. Si el Jacobiano $\displaystyle \frac{\partial
(F,G)}{\partial (u,v)}(P)\neq0$ entonces las expresiones $F(x,y,u,v)=0$ y $G(x,y,u,v)=0$ definen funciones (implícitas) $u=\varphi_{1}(x,y)$ y $v=\varphi_{2}(x,y)$ definidas en una vecindad $v$ de $(x,y)$ las cuales tienen derivadas parciales continuas en $v$ que se pueden calcular como se menciona arriba.

$\small{Demostración}$ Dado que $$det
\left|\begin{array}{cc} \displaystyle \frac{\partial F}{\partial
u}&\displaystyle \frac{\partial F}{\partial v}
\\ \displaystyle \frac{\partial F}{\partial u}&\displaystyle \frac{\partial G}{\partial
v}\end{array}\right|\neq 0$$ entonces $\displaystyle{\frac{\partial F}{\partial u}(p)}$, $\displaystyle{\frac{\partial F}{\partial v}(p)}$, $\displaystyle{\frac{\partial G}{\partial u}(p)}$, $\displaystyle{\frac{\partial G}{\partial v}(p)}$ no son cero al mismo tiempo, podemos suponer sin perdida de generalidad que $\displaystyle{\frac{\partial G}{\partial v}(p)}\neq0$. Entonces la función $z_{1}=G(x,y,u,v)$ satisface las hipótesis del T.F.I y en una bola abierta con centro p, v se puede escribir como $v=\psi(x,y,u)$.

Hacemos ahora
$$H(x,y,u)=F(x,y,u,\psi(x,y,u))$$ y tenemos que
$$\frac{\partial H}{\partial u}=\frac{\partial F}{\partial x}\frac{\partial x}{\partial u}+\frac{\partial F}{\partial y}\frac{\partial y}{\partial u}+\frac{\partial F}{\partial u}\frac{\partial u}{\partial u}+\frac{\partial F}{\partial v}\frac{\partial \psi}{\partial u}=\frac{\partial F}{\partial u}+\frac{\partial F}{\partial v}\frac{\partial \psi}{\partial u}$$

por otro lado
$$\frac{\partial \psi}{\partial u}=-\frac{\frac{\partial G}{\partial u}}{\frac{\partial G}{\partial v}}$$
por lo tanto
$$\frac{\partial H}{\partial u}=\frac{\partial F}{\partial u}+\frac{\partial F}{\partial v}\frac{\partial \psi}{\partial u}=\frac{\partial F}{\partial u}+\frac{\partial F}{\partial v}\left(-\frac{\frac{\partial G}{\partial u}}{\frac{\partial G}{\partial v}}\right)=\frac{\frac{\partial F}{\partial u}\frac{\partial G}{\partial v}-\frac{\partial F}{\partial v}\frac{\partial G}{\partial u}}{\frac{\partial G}{\partial v}}\neq0$$por lo tanto para $H(x,y,u)=0$ tenemos que existe una función $u=\varphi_{1}(x,y)$ y por lo tanto $v=\psi(x,y,u)=\psi(x,y,\varphi_{1}(x,y,u))=\varphi_{2}(x,y)$ y por tanto $u,v $ se pueden expresar en términos de $x,y$ en una vecindad de $p$. $\square$

El Teorema de la Función Implícita

Por Angélica Amellali Mercado Aguilar

$\textcolor{Red}{\textbf{El Teorema de la función implicita versión para funciones $f:\mathbb{R}\rightarrow\mathbb{R}$}}$

$\textbf{Teorema 1.}$ Considere la función $y=f(x)$. Sea $(x_{0},y_{0}) \in
\mathbb{R}^{2}$ un punto tal que $F(x_{0},y_{0})=0$. Suponga que la función $F$ tiene derivadas parciales continuas en alguna bola con centro $(x_{0},y_{0})$ y que $\displaystyle \frac{\partial F}{\partial y}(x_{0},y_{0})\neq 0$. Entonces $F(x,y)=0$ se puede resolver para $y$ en términos de $x$ y definir así una función $y=f(x)$ con dominio en una vecindad de $(x_{0},y_{0})$, tal que $y_{0}=f(x_{0})$, lo cual tiene derivadas continuas en $\mathcal{V}$ que pueden calcularse como $y’=f'(x)=-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial x}(x,y)}{\displaystyle \frac{\partial F}{\partial y}(x,y)}$, $x \in \mathcal{V}$.

$\small{Demostración.}$ Como $\displaystyle{\frac{\partial
F}{\partial y}(x_{0},y_{0})\neq 0}$ supongamos sin perdida de generalidad que $\displaystyle{\frac{\partial F}{\partial y}(x_{0},y_{0})> 0}$. Por ser $\displaystyle{\frac{\partial F}{\partial y}}$ continua en una vecindad de $(x_{0},y_{0})$ entonces exite un cuadrado S, centrado en $(x_{0},y_{0})$ totalmente contenido en esa vecindad, en donde $\displaystyle{\frac{\partial F}{\partial y}(x,y)> 0}$ $\forall~x,y\in S$.Sea
$$S=\left\{(x,y)\in\mathbb{R}^{2}~|~|x-x_{0}|<h~y~|y-y_{0}|<k \right\}$$

En todo punto $(x,y)$ que pertenece a $S$, $\displaystyle{\frac{\partial F}{\partial y}(x,y)>0}$. Esto quiere decir que en $S$, $F$ es creciente y fijando $x_{0}$ en $[x_{0}-h,x_{0}+h]$ se tiene que $F$ es creciente en $[y_{0}-k,y_{0}+k]$ y se anula en $y_{0}$, por lo que
$$F(x_{0},y_{0}-k)<0~~yF(x_{0},y_{0}+k)>0$$ Consideremos ahora el par de funciones $F(x,y_{0}-k)$ y $F(x,y_{0}+k)$ definidas en el intervalo $(x_{0}-k,x_{0}+k)$. Donde ambas funciones solo tienen x como variable. La primera función cumple $F(x_{0},y_{0}-k)<0$ y por ser continua en $x_{0}$, es negativa en toda una vecindad $(x_{0}-h_{1}x_{0}+h_{1})$ de $x_{0}$. Análogamente, la segunda función cumple $F(x_{0},y_{0}+k)>0$ y por ser continua en $x_{0}$, es positiva en toda una vecindad $(x_{0}-h_{2}x_{0}+h_{2})$ de $x_{0}$. Sea $h=\min{h_{1},h_{2}}$. Entonces para toda $x$ tal que $|x-x_{0}|~y~F(x,y_{0}+k)>0$ Fijemos $x$ en el intervalo $(x_{0}-h,x_{0}+h)$, y consideremos a $F(x,y)$, sólo como función de $y$, sobre $[y_{0}-k,y_{0}+k]$. Esta función cumple que

$$F(x,y_{0}-k)<0~y~F(x,y_{0}+k)>0$$

por lo tanto según el teorema del valor intermedio, existe un único y en $(y_{0}-k,y_{0}+k)$ tal que $F(x,y)=0$. Así queda establecida la existencia y unicidad de la función $y=f(x)$. Donde además, $y_{0}=f(x_{0})$, y para todo $x\in(x_{0}-h,x_{0}+h)$ $$F(x,f(x))=0,y~~\frac{\partial F}{\partial y}(x_{0},y_{0})\neq 0$$

Vamos a comprobar que la función es continua, para ello se tiene
$$x\in[x_{0}-h,x_{0}+h]~\Rightarrow~|x-x_{0}|<h$$
tomando $h<\delta$ se tiene
$$|x-x_{0}|<\delta$$
esto quiere decir que
$$|y-y_{0}|<k$$ es decir$$|f(x)-f(x_{0})|,\frac{\partial F}{\partial y}(x_{0},y_{0})$$
existen y son continuas entonces $F$ es diferenciable por lo que
$$F(x_{0}+h,y_{0}+k)-F(x_{0},y_{0})=\frac{\partial F}{\partial x}(x_{0},y_{0})h+\frac{\partial F}{\partial y}(x_{0},y_{0})k+R(h,k)$$
Tenemos que $F$ es continua por lo que
$$F(x_{0}+h,y_{0}+k)-F(x_{0},y_{0})=0sih,k\rightarrow 0$$
también
$$R(h,k)\rightarrow 0sih,k\rightarrow 0$$
por lo que
$$\frac{\partial F}{\partial x}(x_{0},y_{0})h+\frac{\partial F}{\partial y}(x_{0},y_{0})k=0$$
esto es
$$\frac{k}{h}=-\frac{\frac{\partial F}{\partial x}(x_{0},y_{0})}{\frac{\partial F}{\partial y}(x_{0},y_{0})}$$
y cuando $h,k\rightarrow 0$ se tiene
$$\frac{dy}{dx}=-\frac{\frac{\partial F}{\partial x}(x_{0},y_{0})}{\frac{\partial F}{\partial y}(x_{0},y_{0})}$$

$\textbf{Importante:}$ Este es un resultado que garantiza la
existencia de una función $y=f(x)$ definida implícitamente por
$F(x,y)=0$. Esto es, puede resolverse para $y$ en términos de $x$,
pero no nos dice como hacer el despeje.

$\textbf{Ejemplo.}$ Considere la función $F(x,y)=e^{2y+x}+\sin(x^{2}+y)-1$ en el punto (0,0) tenemos $F(0,0)=0$. Las derivadas parciales de $F$ son
$F_{x}=e^{2y+x}+2x\cos(x^{2}+y)$
$F_{y}=2e^{2y+x}+\cos(x^{2}+y)$

que son siempre continuas. Además, $\displaystyle \frac{\partial F}{\partial y}(0,0)=3\neq0$ de modo que $\textbf{T.F.Im.}$ garantiza una vecindad de $x=0$ en la cual podemos definir una función $y=f(x)$ tal que $F(x,f(x))=0$. Obsérvese que en este caso no podemos hacer explícita la función $y=f(x)$ sin embargo tal función existe y su derivada es

$y’=f'(x)=\displaystyle -\frac{\displaystyle \frac{\partial F}{\partial x}}{\displaystyle \frac{\partial F}{\partial y}}=\displaystyle \frac{e^{2y+x}+2x\cos(x^{2}+y)}{2e^{2y+x}+\cos(x^{2}+y)}$

$\textbf{Ejemplo.}$ Considere $F(x,y)=x^{4}-e^{xy^{3}-1}$ en el punto (1,1) $F(1,1)=1-1=0$, $F_{x}=4x^{3}-y^{3}e^{xy^{3}-1}$ Por lo tanto, $F_{x}|{(1,1)}=3$, $F{y}=-3xye^{xy^{3}-1}$
Y así, $F_{y}|_{(1,1)}=-3$, y $\displaystyle \frac{\partial F}{\partial y}=-3\neq0$.

El $\textbf{T.F.Im.}$ nos garantiza que en los alrededores de (1,1) el nivel cero de $F$ se ve como la gráfica de la función $y=f(x)$ y que su derivada es $y’=\displaystyle
\frac{-4x^{3}-y^{3}e^{xy^{3}-1}}{-3xy^{2}e^{xy^{3}-1}}$.

Observe que en este caso la función $F$ permite hacer el despeje en términos de $x$.

$F(x,y)=x^{4}-e^{xy^{3}-1}=0$
$x^{4}=e^{xy^{3}-1}$
$\ln (x^{4})=xy^{3}-1$
$\left(\displaystyle \frac{\ln (x^{4})+1}{x}\right)^{\frac{1}{3}}=y=f(x)$ que al derivar se debe de llegar al mismo resultado.

$\textbf{Ejemplo.}$ Considere $F(x,y)=x^{2}-y^{3}-1$ en el punto $(x_{0},y_{0})$ con $y_{0}\neq 0$ tal que $F(x_{0},y_{0})=0$, $F_{x}=2x,~~F_{y}=2y$
Por lo tanto, $F_{x}|{(x{0},y_{0})}=2x_{0}$,
Y así, $F_{y}|{(x{0},y_{0})}=2y_{0}$, y $\displaystyle \frac{\partial F}{\partial y}=2y_{0}\neq0$.
El $\textbf{T.F.Im.}$ nos garantiza que en los alrededores de $(x_{0},y_{0})$ el
nivel cero de $F$ se ve como la gráfica de la función $y=f(x)$ y que su derivada es
$$y'(x)=-\frac{\frac{\partial F}{\partial x}(x_{0},y_{0})}{\frac{\partial F}{\partial y}(x_{0},y_{0})}$$
en este caso
$$y'(x)=-\frac{2x_{0}}{2y_{0}}=-\frac{x_{0}}{y_{0}}$$
si $y_{0}>0$ tal función es $f(x)=\sqrt{1-x^{2}}$ por lo que
$$y’=-\frac{x}{\sqrt{1-x^{2}}}=-\frac{x}{y}$$
si $y_{0}<0$ tal función es $f(x)=-\sqrt{1-x^{2}}$ por lo que
$$y’=-\frac{-x}{-\sqrt{1-x^{2}}}=-\frac{x}{y}$$

$\textcolor{Red}{\textbf{El Teorema de la función implicita versión para funciones $f:\mathbb{R}^{2}\rightarrow\mathbb{R}$}}$

Considere la función $F(x,y,z)$. Sea $(x_{0},y_{0},z_{0}) \in \mathbb{R}^{3}$ un punto tal que $F(x_{0},y_{0},z_{0})=0$. Suponga que la función $F$ tiene derivadas parciales $\displaystyle{\frac{\partial F}{\partial x},~\frac{\partial F}{\partial y},~\frac{\partial F}{\partial z}}$ continuas en alguna bola con centro $(x_{0},y_{0},z_{0})$ y que $\displaystyle \frac{\partial F}{\partial z}(x_{0},y_{0},z_{0})\neq 0$.
Entonces $F(x,y,z)=0$ se puede resolver para $z$ en términos de $x,y$ y definir así una función $z=f(x,y)$ con dominio en una vecindad de
$(x_{0},y_{0},z_{0})$, tal que $z_{0}=f(x_{0},y_{0})$, lo cual tiene derivadas continuas
en $\mathcal{V}$ que pueden calcularse como $$\frac{d z}{dx}(x,y)=-\displaystyle
\frac{\displaystyle \frac{\partial F}{\partial x}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}~~~\frac{d z}{dy}(x,y)=-\displaystyle \frac{\displaystyle \frac{\partial F}{\partial
y}(x,y)}{\displaystyle \frac{\partial F}{\partial z}(x,y)}$$
$\textbf{Importante:}$ Este es un resultado que garantiza la existencia de una función $z=f(x,y)$ definida implícitamente por $F(x,y,z)=0$. Esto es, puede resolverse para $z$ en términos de $x,y$, pero no nos dice como hacer el despeje.

$\small{Demostración.}$ Consideremos el par de funciones
$$F(x,y,z_{0}-\ell)yF(x,y,z_{0}+\ell)$$
definidas para $(x,y)\in[x_{0}-h,x_{0}+h]\times [y_{0}-k,y_{0}+k]$\La primera satisface
$$F(x_{0},y_{0},z_{0}-\ell)<0$$ la segunda cumple $$F(x_{0},y_{0},z_{0}+\ell)>0$$
Fijemos $(x,y)$ en $[x_{0}-h,x_{0}+h]\times [y_{0}-k,y_{0}+k]$ y consideramos $F(x,y,z)$ solo como función de z, sobre $[z_{0}-\ell,z_{0}+\ell]$. Esta función cumple
$$F(x,y,z_{0}-\ell)<0~y~F(x,y,z_{0}+\ell)>0$$
por lo que al aplicar el Teorema del valor intermedio, obteniendose un único z en $(z_{0}-\ell,z_{0}+\ell)$ en donde $F(x,y,z)=0$.Queda así establecida la existencia y unicidad de la función $z=f(x,y)$ con dominio $[x_{0}-h,x_{0}+h]\times [y_{0}-k,y_{0}+k]$ y rango $[z_{0}-\ell,z_{0}+\ell]$ Vamos a probar que dicha f es continua, para ello si
$$\left(\begin{matrix}x\in [x_{0}-h,y_{0}+h] , y\in [y_{0}-k,y_{0}+k] \end{matrix}\right)~\Rightarrow~\left(\begin{matrix}|x-x_{0}|<h\|y-y_{0}|<k\end{matrix}\right)$$
por lo que
$$|(x,y)-(x_{0},y_{0})|<|x-x_{0}|+|y-y_{0}|<h+k$$
si $h<k$
$$|(x,y)-(x_{0},y_{0})|<2k=\delta$$
donde
$$|f(x,y)-f(x_{0},y_{0})|=|z-z_{0}|<\ell=\epsilon$$
por lo tanto $f(x,y)$ es continua.Ahora si suponemos que $\displaystyle{\frac{\partial F}{\partial x},~\frac{\partial F}{\partial y}},~\frac{\partial F}{\partial z}$ son continuas en los alrededores de $(x_{0},y_{0},z_{0})$ en tonces F es diferenciable y se tiene
$$F(x_{0}+h,y_{0},z_{0}+\ell)-F(x_{0},y_{0},z_{0})=\frac{\partial F}{\partial x}(x_{0},y_{0},z_{0})h+\frac{\partial F}{\partial y}(x_{0},y_{0},z_{0})0+\frac{\partial F}{\partial z}(x_{0},y_{0},z_{0})\ell+R(h,k,\ell)$$

De donde
$$F(x_{0}+h,y_{0},z_{0}+\ell)-F(x_{0},y_{0},z_{0})\rightarrow 0$$
$$R(h,k,\ell)\rightarrow 0$$
por lo que
$$\frac{\partial F}{\partial x}(x_{0},y_{0},z_{0})h+\frac{\partial F}{\partial z}(x_{0},y_{0},z_{0})\ell=0$$
$$~\Rightarrow~\frac{h}{\ell}=-\frac{\frac{\partial F}{\partial x}(x_{0},y_{0},z_{0})}{\frac{\partial F}{\partial z}(x_{0},y_{0},z_{0})}$$
y cuando $h,\ell\rightarrow 0$ se tiene
$$\frac{dz}{dx}=-\frac{\frac{\partial F}{\partial x}(x_{0},y_{0},z_{0})}{\frac{\partial F}{\partial z}(x_{0},y_{0},z_{0})}$$
Análogamente
$$F(x_{0},y_{0}+k,z_{0}+\ell)-F(x_{0},y_{0},z_{0})=\frac{\partial F}{\partial x}(x_{0},y_{0},z_{0})0+\frac{\partial F}{\partial y}(x_{0},y_{0},z_{0})k+\frac{\partial F}{\partial z}(x_{0},y_{0},z_{0})\ell+R(h,k,\ell)$$
De donde
$$F(x_{0},y_{0}+k,z_{0}+\ell)-F(x_{0},y_{0},z_{0})\rightarrow 0$$
$$R(h,k,\ell)\rightarrow 0$$
por lo que
$$\frac{\partial F}{\partial y}(x_{0},y_{0},z_{0})k+\frac{\partial F}{\partial z}(x_{0},y_{0},z_{0})\ell=0$$
$$~\Rightarrow~\frac{k}{\ell}=-\frac{\frac{\partial F}{\partial y}(x_{0},y_{0},z_{0})}{\frac{\partial F}{\partial z}(x_{0},y_{0},z_{0})}$$
y cuando $h,\ell\rightarrow 0$ se tiene
$$\frac{dz}{dy}=-\frac{\frac{\partial F}{\partial y}(x_{0},y_{0},z_{0})}{\frac{\partial F}{\partial z}(x_{0},y_{0},z_{0})}$$ $\square$

El Método de los Mínimos Cuadrados.

Por Angélica Amellali Mercado Aguilar

$\textcolor{Red}{\textbf{El método de mínimos cuadrados}}$

El método de mínimos cuadrados se aplica para ajustar rectas a una serie de datos presentados como punto en el plano.
Suponagamos que se tienen los siguientes datos para las variables $x$,$y$.

Esta situación se puede presentar en estudios experimentales, donde se estudia la variación de cierta magnitud x en función de otra magnitud y. Teóricamente es de esperarse que la relación entre estas variables sea lineal, del tipo
$$y=mx+b$$
El método de mínimos cuadrados nos proporciona un criterio con el cual podremos obtener la mejor recta que representa a los puntos dados. Se desearía tener
$$y_{i}=mx_{i}+b$$
para todos los puntos $(x_{i},y_{i})$ de $i=1,…,n$. Sin embargo, como en general
$$y_{i}\neq mx_{i}+b$$
se pide que la suma de los cuadrados de las diferencias (las desviaciones)
$$y_{i}-(mx_{i}+b)$$
sea la menor posible.

Se requiere
$$S=(y_{1}-(mx_{1}+b))^{2}+(y_{2}-(mx_{2}+b))^{2}+\cdots+(y_{n}-(mx_{n}+b))^{2}$$
$$=\sum_{i=1}^{n}(y_{i}-(mx_{i}+b))^{2}$$
sea lo más pequeña posible. Los valores de m y b que cumplan con esta propiedad, determinan la recta
$$y=mx+b$$
que mejor representa el comportamiento lineal de los puntos $(x_{i},y_{i})$

Consideremos entonces la función f de las variables m y b dada por
$$f(m,b)=\sum_{i=1}^{n}(y_{i}-(mx_{i}+b))^{2}$$
donde los puntos críticos de esta función se obtienen al resolver el sistema
$$\frac{\partial f}{\partial m}=\sum_{i=1}^{n}2(y_{i}-(mx_{i}+b))(-x_{i})=2\sum_{i=1}^{n}x_{i}(y_{i}-(mx_{i}+b))=0$$
$$\frac{\partial f}{\partial b}=\sum_{i=1}^{n}2(y_{i}-(mx_{i}+b))(-1)=-2\sum_{i=1}^{n}(y_{i}-(mx_{i}+b))=0$$
De la segunda ecuación obtenemos
$$\sum_{i=1}^{n}y_{i}-m\sum_{i=1}^{n}x_{i}-\sum_{i=1}^{n}b=0$$
de donde
$$b=\frac{1}{n}\sum_{i=1}^{n}y_{i}-m\left(\frac{1}{n}\sum_{i=1}^{n}x_{i}\right)$$
Llamemos
$$\overline{x}=\frac{1}{n}\sum_{i=1}^{n}x_{i}$$
$$\overline{y}=\frac{1}{n}\sum_{i=1}^{n}y_{i}$$
que son las medias aritméticas de los valores $x_{i},~y_{i}$ respectivamente. Entonces
$$b=\overline{y}-m\overline{x}$$

sustituyendo en la ecuación
$$\frac{\partial f}{\partial m}=0$$
nos queda
$$\sum_{i=1}^{n}x_{i}(y_{i}-mx_{i}-(\overline{y}-m\overline{x}))=0$$
de donde se obtiene
$$m=\frac{\sum_{i=1}^{n}x_{i}(y_{i}-\overline{y})}{\sum_{i=1}^{n}x_{i}(x_{i}-\overline{x})}$$
En resumen, la función
$$f(m,b)=\sum_{i=1}^{n}(y_{i}-(mx_{i}+b))^{2}$$
tiene un único punto crítico para
$$m=\frac{\sum_{i=1}^{n}x_{i}(y_{i}-\overline{y})}{\sum_{i=1}^{n}x_{i}(x_{i}-\overline{x})},~~~b=\overline{y}-m\overline{x}$$
Ahora vamos a verificar que en dicho punto crítico se alcanza un mínimo local, para lo cual recurrimos a nuestro criterio de la segunda derivada, en este caso
$$\frac{\partial^{2} f}{\partial m^{2}}=-2\sum_{i=1}^{n}-x_{i}^{2}=2\sum_{i=1}^{n}x_{i}^{2}$$
$$\frac{\partial^{2} f}{\partial m \partial b}=-\sum_{i=1}^{n}-x_{i}=2\sum_{i=1}^{n}x_{i}$$
$$\frac{\partial^{2} f}{\partial b^{2}}=-2\sum_{i=1}^{n}(-1)=2n$$

Tenemos que
$$\frac{\partial^{2} f}{\partial m^{2}}>0$$
Por otro lado
$$\left(2\sum_{i=1}^{n}x_{i}\right)^{2}-\left(2\sum_{i=1}^{n}x_{i}^{2}\right)(2n)<0$$
esta desigualdad es equivalente a
$$\left(\sum_{i=1}^{n}x_{i}\right)^{2}<n\sum_{i=1}^{n}x_{i}$$
La cual no es mas que la desigualdad de Cauchy-Schwarz aplicada a los vectores $(1,1,…,1)$ y $(x_{1},x_{2},…,x_{n})$ de $\mathbb{R}^{n}$. Por lo que la función f posee un mínimo local en el punto punto crítico dado.

$\textbf{Ejemplo.}$ Se obtuvieron experimentalmente los siguientes valores de las variables x, y, los cuales se sabe que guardan entre sí una relación lineal

Vamos a encontrar la recta que mejor se ajusta a estos datos, según el método de mínimos cuadrados se tiene
$$\overline{x}=\frac{1+2+3+4}{2}=2.5$$
$$\overline{y}=\frac{1.4+1.1+0.7+0.1}{4}=0.825$$
Aplicando la fórmula obtenida para m y b obtenemos
$$m=\frac{\sum_{i=1}^{n}x_{i}(y_{i}-\overline{y})}{\sum_{i=1}^{n}x_{i}(x_{i}-\overline{x})}=\frac{1(1.4-0.825)+2(1.1-0.825)+3(0.7-0.825)+4(0.1-0.825)}{1(1-2.5)+2(2-2.5)+3(3-2.5)+4(4-2.5)}$$
$$=\frac{-2.15}{5}=-0.43$$
$$b=\overline{y}-m\overline{x}=0.825-(0.43)(2.5)=1.9$$

por lo que la recta que mejor ajusta los datos proporcionados

La suma de las diferencias de la recta y real con la y predicha por la ecuación obtenida es
$$-0.07+0.06+0.09-0.08=0$$
Es decir nuestra recta efectivamente compensa los puntos que quedaron por encima con puntos que quedaron por debajo. Gráficamente esto se ve.

La mejor recta que ajusta los datos del ejemplo.

Multiplicadores de Lagrange

Por Angélica Amellali Mercado Aguilar

Para entender el método de los multiplicadores de Lagrange ilustraremos las ideas con un ejemplo.

$\textbf{Ejemplo}$ Sea $f:\mathbb{R}^{2}\rightarrow\mathbb{R}$ dada por
$$f(x,y)=(x+1)^{2}+y^{2}$$
En este caso vamos a encontrar los puntos críticos

$$\nabla f(x,y)=(2(x+1),2y)~\Rightarrow~\nabla f(x,y)=(0,0)~\Leftrightarrow~\begin{matrix}2(x+1)=0\\2y=0\end{matrix}~\Leftrightarrow~\begin{matrix}x=-1\\y=0\end{matrix}$$
por lo tanto el único punto crítico es $(-1,0)$ para ver si es máximo o mínimo nos fijamos que en la función
$$f(x,y)=(x+1)^{2}+y^{2}~\Rightarrow~f(x,y)\geq 0$$
en este caso cuando evaluamos en el punto crítico $(-1,0)$ se tiene
$$f(-1,0)=(-1+1)^{2}+0^{2}=0$$

por lo que podemos decir que el punto $(-1,0)$ es un punto mínimo.

La pregunta ahora es si la función alcanza un valor máximo, para ello debemos restringir el dominio de la función, en este caso al conjunto
$$\left\{(x,y)\in \mathbb{R}^{2}~|~|(x,y)|\leq 2\right\}$$

en la parte roja se calculo que $f$ alcanzaba un valor mínimo en $(-1,0)$ falta ver lo que ocurre en la frontera del conjunto, es decir en la parte azul. Esta parte se puede parametrizar.

donde $\alpha:[0,2\pi]\rightarrow\mathbb{R}^{2}$
Podemos entonces definir la función $g(t)=f\circ \alpha~(t)$ en este caso
$$g(t)=f\circ \alpha (t)=f(\alpha (t))$$
$$=f(2\cos~t,2 sen~t)$$
$$=(2\cos~t+1)^{2}+4 sen^{2}~t$$
$$=4\cos~t+5$$
lo que haremos ahora es encontrar los valores máximos y mínimos sobre g, en este caso

$$g'(t)=-4 sen t$$
por lo que
$$g'(t)=0~\Leftrightarrow~-4 sen t=0~\Leftrightarrow~t=0,~t=\pi,~t=2\pi$$
evaluando en g se tiene

$$g(0)=4\cos^{2}(0)+5$$
$$=9$$
$$g(\pi)=4\cos\pi+5$$
$$=1$$
$$g(2\pi)=4\cos^{2}(2\pi)+5$$
$$=9$$
se tiene entonces que el máximo valor se alcanza en $t=0$, $t=2\pi$ y el mínimo valor se alcanza en $t=\pi$
Ahora sobre la frontera se tiene

$$\alpha(0)=(2\cos~0,2 sen~0)=(2,0)$$
$$\alpha(\pi)=(2\cos\pi, sen\pi)=(-2,0)$$
$$\alpha(2\pi)=(2\cos~2\pi, sen~2\pi)=(2,0)$$
por lo tanto tenenmos que el valor mínimo de f sobre el conjunto es 1 y que este valor se alcanza en $(-2,0)$

y su valor máximo sobre el conjunto es 9 y que este valor se alcanza en $(-2,0)$.\Por lo tanto comparando los valores de f en los puntos críticos que estan en el interior del conjunto
$$\left\{(x,y)\in\mathbb{R}^{2}~|~||(x,y)||=2\right\}$$
junto con los valores en la frontera de dicho conjunto, concluimos que f alcanza sus valores máximo y mínimo en los puntos $(-1,0)$ y $(2,0)$

El conjunto
$$\left\{(x,y)\in \mathbb{R}^{2}~|~||(x,y)||\leq 2\right\}$$
se puede considerarse como el conjunto de nivel de una función $g:\mathbb{R}^{2}\rightarrow\mathbb{R}$ en el caso de nuestro ejemplo la función g es
$$g(x,y)=x^{2}+y^{2}$$
Vamos a considerar los conjuntos de nivel de la función
$$f(x,y)=(x+1)^{2}+y^{2}$$
para $c=1$ y $c=9$ (que son los valores extremos que alcanzo f sobre el nivel 4 de g)

Observamos que estos conjuntos de nivel $N_{1}(f)$ y $N_{9}(f)$ se intersectan tangencialmente con $N_{4}(g)$ en los puntos $(-2,0)$ y $(2,0)$ que son justo los puntos en donde f alcanza sus valores extremos sobre la frontera del conjunto.Recordando que el gradiente de una función en un punto $x_{0}$ es ortogonal al conjunto de nivel que contiene a este punto, concluimos que los vectores
$$\nabla f(-2,0), \nabla g(-2,0)$$

deben de ser paralelos y lo mismo para

$$\nabla f(2,0),~\nabla g(2,0)$$
vamos averificar
$$\left(\begin{matrix}\nabla f(-2,0)=(-2,0)\\ \nabla g(-2,0)=(-4,0)\end{matrix}\right)~\Rightarrow~\nabla f(-2,0)=\frac{1}{2}\nabla g(-2,0)$$
$$\left(\begin{matrix}\nabla f(2,0)=(6,0)\\ \nabla g(2,0)=(4,0)\end{matrix}\right)~\Rightarrow~\nabla f(2,0)=\frac{3}{2}\nabla g(2,0)$$

Conjeturamos lo siguiente:
Si tenemos una función $f$ para la cual queremos calcular sus valores extremos sobre un conjunto de nivel de una función $g$ y localizar los puntos de este conjunto en los cuales alcanza estos valores extremos, es suficiente con encontrar los puntos $\hat{x}\in N_{c}(g)$ en los cuales se satisface que

$$\nabla f(\hat{x})=\lambda\nabla g(\hat{x})$$

$\textbf{Teorema 1.}$ $\textcolor{Red}{\textbf{Método de los multiplicadores de
lagrange}}$. Sean $f:u\subset \mathbb{R}^n\rightarrow \mathbb{R}$ y $g: u\subset \mathbb{R}^n\rightarrow \mathbb{R}$ funciones $C^1$ con valores reales dados. Sean $x_0 \in u$ y $g(x_0)=c$, y sea $S$ el conjunto de nivel de $g$ con valor $c$. Suponer $\nabla g(x_0)\neq 0$. Si $f|_s$ (f restringida a s) tiene un máximo o un mínimo local en $S$, en $x_0$, entonces existe un número real $\lambda$ tal que $\nabla f(x_0)=\lambda\nabla g(x_0)$.

$Demostración$ Para $n=3$ el espacio tangente o plano tangente de $S$ en $x_0$ es el
espacio ortogonal a $\nabla g(x_0)$ y para $n$ arbitraria podemos dar la misma definición de espacio tangente de $S$ en $x_0$. Esta definición se puede motivar al considerar tangentes a trayectorias $c(t)$ que estan en $s$, como sigue: si $c(t)$ es una trayectoria en $S$ y $c(0)=x_0$, entonces $c'(0)$ es un vector tangente a $S$ en $x_0$, pero
$$\frac{dg(c(t))}{dt}=\frac{d}{dt}(c)=0$$
Por otro lado usando regla de la cadena
$$\left.\frac{d}{dt}g(c(t))\right|{t=0}=\nabla g(x_0)\cdot c'(0)$$

de manera que $\nabla g(x_0)\cdot c'(0)=0$, esto es, $c'(0)$ es ortogonal a $\nabla g(x_0)$. Si $f|_s$ tiene un máximo en $x_0$, entonces $f(c(t))$ tiene un máximo en $t=0$. Por cálculo de una variable, $\displaystyle\left.\frac{df(c(t))}{dt}\right|{t=0}=0$. Entonces por regla de la cadena

$$0=\displaystyle\left.\frac{df(c(t))}{dt}\right|_{t=0}=\nabla f(x_0)\cdot c'(0)$$
Asi, $\nabla f(x_0)$ es perpendicular a la tangente de toda curva en $S$ y entonces tambien es perpendicular al espacio tangente completo de $S$ en $x_0$. Como el espacio perpendicular a este espacio tangente es una recta, $\nabla f(x_0)$ y $\nabla g(x_0)$ son paralelos. Como $\nabla g(x_0)\neq 0$, se deduce que $\nabla f(x_0)$ es multiplo de $\nabla g(x_0)$. $\square$

$\textbf{Ejemplo}$ Use el método de los multiplicadores de Lagrange para encontrar los valores extremos de la función $f:\mathbb{R}^{2}\rightarrow\mathbb{R}$ dada por
$$f(x,y)=2x+3y$$ sobre la restricción
$$x^{2}+y^{2}=4$$

$\small{Solución}$ En este caso la restricción la vemos como el conjunto de nivel cero de la función
$$g(x,y)=x^{2}+y^{2}-4$$
y tenemos entonces que
$$\left(\begin{matrix}\nabla f=(2,3)\\ \nabla g=(2x,2y)\end{matrix}\right)~\Rightarrow~(2,3)=\lambda (2x,2y)$$
tenemos el sistema

$$\left(\begin{matrix}2=2 \lambda x\\ 3= \lambda 2y \end{matrix}\right)~\Rightarrow~\left(\begin{matrix}\lambda=\frac{1}{x}\\ \lambda =\frac{3}{2}y \end{matrix}\right)~\Rightarrow~\frac{1}{x}=\frac{3}{2}y~\Rightarrow~y=\frac{3}{2}x$$
dicho valor se sustituye en la restricción

$$x^{2}+\left(\frac{3}{2}x\right)^{2}=4~\Rightarrow~x^{2}+\frac{9}{4}x^{2}=4~\Rightarrow~\frac{13}{4}x^{2}=4~\Rightarrow~13x^{2}=16~\Rightarrow~x^{2}=\frac{16}{13}~\Rightarrow~|x|=\frac{4}{\sqrt{13}}$$
por lo que
$$\left(\begin{matrix}y=\frac{3}{2}(\frac{4}{\sqrt{13}})=\frac{6}{\sqrt{13}}\\y=-\frac{3}{2}(\frac{4}{\sqrt{13}})=-\frac{6}{\sqrt{13}} \end{matrix}\right)$$
evaluando en nuestra función

El método de Lagrange se puede utilizar cuando hay más de una ecuación de restricción, pero se debe añadir otro multiplicador por cada restricción adicional. Si se requiere hallar los valores extremos de $f(x,y,z)$ sujetos a las restricciones $g(x,y,z)=0$ y $h(x,y,z)=0$ entonces la condición de Lagrange es
$$\nabla f=\lambda\nabla g+\mu \nabla h$$
sujeto a
$$g(x,y,z)=0$$
$$h(x,y,z)=0$$

$\textbf{Ejemplo.}$ La intersección del plano
$$x+\frac{1}{2}y+\frac{1}{3}z=0$$
con la esfera
$$x^{2}+y^{2}+z^{2}=1$$ es un circulo. Halle el punto sobre este círculo con coordenada $x$ máxima
$\small{Solución}$ Se requiere maximizar la función
$$f(x,y,z)=x$$
sujeta a
$$x+\frac{1}{2}y+\frac{1}{3}z=0,~~~x^{2}+y^{2}+z^{2}=1$$
tenemos entonces
$$\left(\begin{matrix}\nabla f=(1,0,0)\\ \nabla g=\left(1,\frac{1}{2},\frac{1}{3} \right)\\ \nabla h=\left(2x,2y,2z \right) \end{matrix}\right)~\Rightarrow~(1,0,0)=\lambda \left(1,\frac{1}{2},\frac{1}{3} \right)+\mu (2x,2y,2z)$$

es decir
$$\begin{matrix}\lambda+\mu 2x=1\\ \frac{1}{2}\lambda+\mu 2y=0\\ \frac{1}{3}\lambda+\mu 2z=0 \end{matrix}~\Rightarrow~\begin{matrix}\mu=\frac{1-\lambda}{2x}\\ \lambda=-4\mu y\\ \lambda=-6\mu z\end{matrix}$$
las dos últimas nos llevan a
$$-4\mu y=-6\mu z~\Rightarrow~y=\frac{3}{2}z$$
este valor se sustituye en la primer restricción (plano)
$$x+\frac{1}{2}\left(\frac{3}{2}z\right)+\frac{1}{3}z=0~\Rightarrow~x=-\frac{13}{12}z$$
ambos valores se sustituyen en la segunda restricción (esfera)

$$\left(-\frac{13}{12}z\right)^{2}+\left(\frac{3}{2}z\right)^{2}+z^{2}=1~\Rightarrow~z=\pm\frac{12}{7\sqrt{13}}$$
por lo que los valores de $x,y$ son
$$x=\pm\frac{\sqrt{13}}{7}$$
$$y=\pm\frac{18}{7\sqrt{13}}$$
Tenemos entonces los puntos
$$P=\left(-\frac{\sqrt{13}}{7},\frac{18}{7\sqrt{13}},\frac{12}{7\sqrt{13}}\right),~~Q=\left(\frac{\sqrt{13}}{7},-\frac{18}{7\sqrt{13}},-\frac{12}{7\sqrt{13}}\right)$$
donde $Q$ es el punto con mayor coordenada $x$.

Continuación extremos locales.

Por Angélica Amellali Mercado Aguilar

$\textcolor{Red}{\textbf{Extremos Locales parte 2}}$

Entre las caracteristicas geometricas básicas de la gráficas de una
función estan sus puntos extremos, en los cuales la función alcanza
sus valores mayor y menor.

$\textbf{Definición 1.}$ Si $f:u\subset \mathbb{R}^n \rightarrow
\mathbb{R}$ es una función escalar, dado un punto $x_0 \in u$
se llama mínimo local de $f$ si existe una vecindad $v$ de $x_0$ tal que $\forall x \in v$ , $f(x)>f(x_0)$. De manera analoga, $x_0 \in u$ es un máximo local si existe una vecindad $v$ de $x_0$ tal que $f(x)< f(x_0)$, $\forall \quad x \in v$. El punto $x_0 \in u$ es un extremo local o relativo, si es un mínimo local o máximo local.

$\textbf{Teorema 1.}$ $\textcolor{Red}{\textbf{Criterio de la primera derivada}}$ Si $u \in \mathbb{R}$ es abierto, la función $f:u\subset \mathbb{R}^n \rightarrow \mathbb{R}$ es diferenciable y $x_0 \in u$ es un extremo local entonces $\nabla f(x_0)=0$, esto es $x_0$ es un punto crítico de $f$.

$\small{Demostración}$ Supongamos que $t$ alcanza su máximo local en $x_0$. Entonces para cualquier $h \in \mathbb{R}^n$ la función $g(t)=f(x_0+th)$ tiene un máximo local en $t=0$. Asi, del cálculo de una variable $g'(0)=0$ ya que como $g(0)$ es máximo local, $g(t)\leq g(0)$ para $t > 0$ pequeño

$$\therefore \quad g'(0)=\displaystyle\lim_{t \rightarrow t_0^+}\frac{g(t)-g(0)}{t}=0$$

Análogamente para $t< 0$ pequeño tomamos

$$g'(0)=\displaystyle\lim_{t \rightarrow t_0^-}\frac{g(t)-g(0)}{t}=0$$

Ahora por regla de la cadena $$g'(0)=\frac{\partial f}{\partial x_{1}}(x_{0})h_{1}+\frac{\partial f}{\partial x_{2}}(x_{0})h_{2}+\cdots+\frac{\partial f}{\partial x_{n}}(x_{0})h_{0}=\nabla f(x_{0})\cdot h$$
Así $\nabla f(x_{0})\cdot h=0 \quad \forall \: h$ de modo que $\nabla f(x_{0})=0$. En resumen si $x_0$ es un extremo local, entonces $\displaystyle\frac{\partial f}{\partial x_i}(x_0)=0 \quad \forall~i=1,\ldots,n$. En otras palabras $\nabla f(x_0)=0$.

$\textbf{Ejemplo}$ Hallar los máximos y mínimos de la función $f:\mathbb{R}^2 \rightarrow \mathbb{R}$, definida por $$f(x,y)=x^2+y^2-2x-6y+14$$

$\small{Solución.}$ Debemos identificar los puntos críticos de $f$ resolviendo $\displaystyle{\frac{\partial f}{\partial x}=0}$, $\displaystyle{\frac{\partial f}{\partial y}=0}$ para $x,y$, $$2x-2=0~~~2y-6=0$$ De modo que el punto crítico es $(1,3)$. Como $$f(x,y)=\left(x^{2}-2x+1\right)+\left(y^{2}-6y+9\right)+4=\left(x-1\right)^{2}+\left(y-3\right)^{2}+4$$
tenemos que $f(x,y)\geq 4$ por lo tanto en $(1,3)$ f alcanza un mínimo relativo.

$\textbf{Ejemplo.}$ Considerar la función $f:\mathbb{R}^2 \rightarrow \mathbb{R}$,
$f(x,y)=4-x^2-y^2$ entonces $\displaystyle{\frac{\partial f}{\partial x}=-2x}$, $\displaystyle{\frac{\partial f}{\partial y}=-2y}$. $f$ solo tiene un punto crítico en el origen, donde el valor de $f$ es 4. Como $$f(x,y)=4-(x^{2}+y^{2})$$
tenemos que $f(x,y)\leq 4$ por lo tanto en $(0,0)$ f alcanza un máximo relativo.

$\textbf{Ejemplo}$ En el siguiente ejemplo mostramos que no todo punto critico es un valor extremo\Sea $f(x,y)=x^{2}y+y^{2}x$ tenemos que sus puntos criticos son
$$\frac{\partial f}{\partial x}=2xy+y^{2}~~~\frac{\partial f}{\partial y}=2xy+x^{2}=0$$
por lo tanto

$$\left(\begin{matrix}2xy+y^{2}=0\\2xy+x^{2}=0\end{matrix}\right)\Leftrightarrow\left(\begin{matrix}x=y\\x=-y\end{matrix}\right)$$

tomando $x=-y$ tenemos que
$$2xy+y^{2}=0~\Rightarrow~-2y^{2}+y^{2}=0~\Rightarrow~-y^{2}=0\Rightarrow~y=0~\Rightarrow~x=0$$
tomando $x=y$ tenemos que
$$2xy+y^{2}=0~\Rightarrow~2y^{2}+y^{2}=0~\Rightarrow~-3y^{2}=0\Rightarrow~y=0~\Rightarrow~x=0$$
por lo tanto $(0,0)$ es el único punto critico.

Ahora bien para $f(x,y)$ tomamos $x=y$
$$f(x,x)=2x^{3}$$
la cual es ($<0$ si $x<0$) y ($>0$ si $x>0$) por lo tanto el punto critico $(0,0)$ no es ni máximo ni mínimo local de $f$

Ahora bien para $f(x,y)$ tomamos $x=-y$
$$f(x,-x)=0~~~\forall x$$
por lo tanto el punto critico $(0,0)$ no es ni máximo ni mínimo local de $f$

Para el caso de funciones $f:\mathbb{R}^{3}\rightarrow\mathbb{R}$ tenemos que recordando un poco de la expresión de taylor
$$f(x,y)=f(x_{0},y_{0})+\left(\frac{\partial f}{\partial
x}\right){p}(x-x_{0})+\left(\frac{\partial f}{\partial
y}\right){p}(y-y_{0})+\left(\frac{\partial f}{\partial
z}\right){p}(z-z_{0})+$$

$$\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial
x^{2}}{p}(x-x_{0})^{2}+2\frac{\partial^{2}f}{\partial x \partial
y}{p}(x-x_{0})(y-y_{0})+\frac{\partial^{2}f}{\partial
y^{2}}{p}(y-y_{0})^{2}+2\frac{\partial^{2}f}{\partial
x\partial z}{p}(z-z_{0})(x-x_{0})+2\frac{\partial^{2}f}{\partial
y\partial z}{p}(z-z_{0})(y-y_{0})\right)}$$
$$\textcolor{Red}{+\frac{\partial^{2}f}{\partial z^{2}}_{p}(z-z_{0})}$$

Haciendo $x-x_{0}=h_{1},y-y_{0}=h_{2},z-z_{0}=h_{3}$ podemos escribir el término rojo de la siguiente manera

$$\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2}f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2}f}{\partial y^{2}}h_{2}^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}\right)$$

y también se puede ver como producto de matrices
$$\frac{1}{2!}(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

Si $(x_{0},y_{0},z_{0})$ es un punto critico de la función entonces en la expresión de Taylor
$$f(x,y)=f(x_{0},y_{0})+\left(\frac{\partial f}{\partial
x}\right)_{p}(x-x_{0})+\left(\frac{\partial f}{\partial
y}\right)_{p}(y-y_{0})+\left(\frac{\partial f}{\partial
z}\right){p}(z-z_{0})$$

$$\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial
x^{2}}_{p}(x-x_{0})^{2}+2\frac{\partial^{2}f}{\partial x \partial
y}_{p}(x-x_{0})(y-y_{0})+\frac{\partial^{2}f}{\partial
y^{2}}_{p}(y-y_{0})^{2}+2\frac{\partial^{2}f}{\partial
x\partial z}_{p}(z-z_{0})(x-x_{0})+2\frac{\partial^{2}f}{\partial
y\partial z}_{p}(z-z_{0})(y-y_{0})\right)}$$

$$\textcolor{Red}{+\frac{\partial^{2}f}{\partial
z^{2}}_{p}(z-z_{0})(x-x_{0})}$$

El término
$$\frac{\partial f}{\partial x}{p}(x-x{0})+\frac{\partial f}{\partial y}{p}(y-y{0})+\frac{\partial f}{\partial z}{p}(z-z{0})=0$$
y por lo tanto
$$f(x,y)-f(x_{0},y_{0})=\frac{1}{2!}(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

vamos a determinar el signo de la forma
$$Q(h)=\frac{1}{2!}(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

vamos a trabajar sin el término $\displaystyle{\frac{1}{2!}}$ que no afectara al signo de la expresión, tenemos entonces

$$Q(h)=(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial ^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)=\textcolor{Red}{\frac{\partial^{2}f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2}f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2}f}{\partial y^{2}}h_{2}^{2}}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$
$$=\textcolor{Red}{\frac{\partial^{2}f}{\partial x^{2}}\left(h_{1}+\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}\right)^{2}+\left(\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}\right)h_{2}^{2}}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

hacemos $\displaystyle{b_{1}=\frac{\partial^{2}f}{\partial x^{2}},h_{1}’=\left(h_{1}+\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}\right),b_{2}=\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}},~~h_{2}’=h_{2}}$ y obtenemos

$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

que podemos escribir
$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}\left(h_{1}+\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}-\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}\right)h_{3}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}\left(h_{1}’-\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}’\right)h_{3}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{1}’h_{3}+\left(2\frac{\partial^{2}f}{\partial y\partial z}-\frac{2\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}\right)h_{2}’h_{3}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

hacemos
$$2b_{23}=2\frac{\partial^{2}f}{\partial y\partial z}-\frac{2\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}$$y obtenemos
$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{1}’h_{3}+2b_{23}h_{2}’h_{3}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$
que se puede escribir

$$=b_{1}\left(h_{1}’^{2}+2\frac{\frac{\partial^{2}f}{\partial x\partial z}}{b_{1}}h_{1}’h_{3}+\left(\frac{\frac{\partial^{2}f}{\partial x\partial z}h_{3}}{b_{1}}\right)^{2}\right)+b_{2}\left(h_{2}’^{2}+2\frac{b_{23}}{b_{2}}h_{2}’h_{3}+\left(\frac{b_{23}}{b_{2}}h_{3}\right)^{2}\right)+\left(\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}\right)h_{3}^{2}$$

hacemos
$$b_{3}=\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}$$
y obtenemos

$$=b_{1}\left(h_{1}’^{2}+2\frac{\frac{\partial^{2}f}{\partial x\partial z}}{b_{1}}h_{1}’h_{3}+\left(\frac{\frac{\partial^{2}f}{\partial x\partial z}h_{3}}{b_{1}}\right)^{2}\right)+b_{2}\left(h_{2}’^{2}+2\frac{b_{23}}{b_{2}}h_{2}’h_{3}+\left(\frac{b_{23}}{b_{2}}h_{3}\right)^{2}\right)+b_{3}h_{3}^{2}$$
$$=b_{1}\left(h_{1}’+\frac{\frac{\partial^{2}f}{\partial x\partial z}}{b_{1}}h_{3}\right)^{2}+b_{2}\left(h_{2}’+\frac{b_{23}}{b_{2}}h_{3}\right)^{2}+b_{3}h_{3}^{2}$$
esta última expresión será positiva si y solo si $b_{1}>0~~b_{2}>0$ y $b_{3}>0$ en clases pasadas vimos los dos primeros, veamos ahora que $$b_{3}=\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}>0$$
tenemos entonces que

$$\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}=\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{\frac{\partial^{2}f}{\partial z^{2}}}-\frac{\left(\frac{\partial^{2}f}{\partial y\partial z}-\frac{2\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}\right)^{2}}{\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}}$$

$$=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}-\frac{\frac{\left(\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\left(\frac{\partial^{2}f}{\partial x^{2}}\right)^{2}}}{\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}}=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}-\frac{\left(\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)\frac{\partial^{2}f}{\partial x^{2}}}$$

$$=\frac{\left(\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}\right)\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)-\left(\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)}$$

$$=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}-\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}+\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}-\left(\frac{\partial^{2}f}{\partial y\partial z}\right)^{2}\left(\frac{\partial^{2}f}{\partial x^{2}}\right)^{2}-}{\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)}$$

$$\frac{2\left(\frac{\partial^{2}f}{\partial x^{2}}\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)-\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)}$$
$$=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial z^{2}}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}-\frac{\partial^{2}f}{\partial y^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}-\left(\frac{\partial^{2}f}{\partial y\partial z}\right)^{2}\frac{\partial^{2}f}{\partial x^{2}}+2\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}$$

$$=\frac{\left|\begin{matrix}\frac{\partial^{2}f}{\partial x^{2}}&\frac{\partial^{2}f}{\partial y\partial x}&\frac{\partial^{2}f}{\partial z\partial x}\\\frac{\partial^{2}f}{\partial x\partial y}&\frac{\partial^{2}f}{\partial y^{2}}&\frac{\partial^{2}f}{\partial z\partial y}\\\frac{\partial^{2}f}{\partial x\partial z}&\frac{\partial^{2}f}{\partial y\partial z}&\frac{\partial^{2}f}{\partial z^{2}}\end{matrix}\right|}{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}$$

por lo tanto
$$b_{3}>0~\Leftrightarrow~\left|\begin{matrix}\frac{\partial^{2}f}{\partial x^{2}}&\frac{\partial^{2}f}{\partial y\partial x}&\frac{\partial^{2}f}{\partial z\partial x}\\\frac{\partial^{2}f}{\partial x\partial y}&\frac{\partial^{2}f}{\partial y^{2}}&\frac{\partial^{2}f}{\partial z\partial y}\\\frac{\partial^{2}f}{\partial x\partial z}&\frac{\partial^{2}f}{\partial y\partial z}&\frac{\partial^{2}f}{\partial z^{2}}\end{matrix}\right|>0$$

$\textcolor{Red}{\textbf{Un poco de Algebra Lineal}}$

Si $A\in M_{n\times n}$ una matriz simétrica entonces existe una $B\in M_{n\times n}$ una matriz ortonormal tal que
$$BAB^{T}$$
es una matriz diagonal, es decir

$$BAB^{T}=\left[\begin{matrix}\lambda_{1}&\cdots&0\\0&\ddots&\vdots\\0&\cdots&\lambda_{n}\end{matrix}\right]$$
Las matrices ortonormales se usan para realizar un cambio de base.

Si $F:\mathbb{R}^{n}\rightarrow\mathbb{R}$ es una forma cuadrática que tiene asociada la matriz simétrica A (en una base ortonormal) es decir
$$F(x_{1},x_{2},…,x_{n})=(x_{1}\cdots x_{n})A(x_{1}\cdots x_{n})^{T}$$
existe entonces una base ortonormal tal que la matriz asociada a $F$ en esta nueva base es una matriz diagonal.

Tenemos que si
$$B=\left[\begin{matrix}b_{11}&\cdots&b_{1n}\\\vdots&\ddots&\vdots\\b_{n1}&\cdots&b_{nn}\end{matrix}\right]$$
es tal que $BAB^{T}$ es diagonal entonces
$$(x_{1}\cdots x_{n})=[x_{1}’\cdots x_{n}’]\left[\begin{matrix} b_{11} & \cdots &b_{1n}\\ \vdots&\ddots&\vdots \\b_{n1}&\cdots&b_{nn}\end{matrix}\right]$$
$$=[x_{1}’\cdots x_{n}’]B$$
Por lo que
$$F(x_{1},x_{2},…,x_{n})=(x_{1}\cdots x_{n})A(x_{1}\cdots x_{n})^{T}$$
$$=F(x_{1},x_{2},…,x_{n})=(x_{1}’\cdots x_{n}’)BA(x_{1}’\cdots x_{n}’B)^{T}$$
$$=(x_{1}’\cdots x_{n}’)BAB^{T}(x_{1}’\cdots x_{n})^{T}$$
$$=(x_{1}’\cdots x_{n}’)\left[\begin{matrix}\lambda_{1}&\cdots&0\\0&\ddots&\vdots\\0&\cdots&\lambda_{n}\end{matrix}\right](x_{1}’\cdots x_{n})^{T}$$
$$=\lambda_{1}x_{1}^{2}+\lambda_{2}x_{2}^{2}+\cdots +\lambda_{n}x_{n}^{2}$$

por lo que $F$ es positiva si $\lambda_{1},\cdots,\lambda_{n}$ son positivos, de igual manera $F$ es negativa si $\lambda_{1},\cdots,\lambda_{n}$ son negativos

Si definimos, para cada $k\in{1,\ldots,n}$
$$D_{k}=\left[\begin{matrix}\lambda_{1}&\cdots&0\\ \vdots&\ddots&\vdots\\0&\cdots&\lambda_{k}\end{matrix}\right]$$

entonces
$$\det (D_{k})=\lambda_{1}\cdot \lambda_{2}\cdots \lambda_{k}$$
de tal forma que podemos decir que F es positiva si $\det (D_{k})>0$ y también $F$ es negativa si $\det (D_{k})< 0$ lo cual ocurre si $\det (D_{k})<0$ si k es impar y $\det (D_{k})>0$ si k es par para cada $k\in \left\{1,..,n\right\}$

$\textbf{Definición 2.}$

La forma $Q(x)=xAx^{t}$, que tiene asociada la matriz $A$ (respecto a la base canónica de $\mathbb{R}^{n}$) se dice:
$\textcolor{Red}{\text{Definida positiva}}$, si $Q(x)>0~\forall x \in~\mathbb{R}^{n}$

La forma $Q(x)=xAx^{t}$, que tiene asociada la matriz $A$ (respecto a la base canónica de $\mathbb{R}^{n}$) se dice:
$\textcolor{Red}{\text{Definida negativa}}$, si $Q(x)<0~\forall x\in~\mathbb{R}^{n}$

$\textbf{Definición 3.}$ Si la forma $Q(x)=xAx^{t}$ es definida positiva, entonces $f$ tiene un mínimo local en en $x$. Si la forma $Q(x)=xAx^{t}$ es definida negativa, entonces $f$ tiene un máximo local en en $x$.

$\textbf{Definición 4.}$ Dada una matriz cuadrada $A=a_{ij}j=1,…,ni=1,…,n$ se consideran las submatrices angulares $A_{k}k=1,…,n$ definidas como $$A_{1}=(a_{11})~A_{2}=\left(\begin{matrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{matrix}\right)~~A_{3}=\left(\begin{matrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{matrix}\right),\cdots,A_{n}=A$$
se define $\det A_{k}=\triangle_{k}$

$\textbf{Criterio 1 (a)}$ Se tiene entonces que la forma $Q(x)=xAX^{t}$ es definida positiva si y solo si todos los determinantes $\triangle_{k}~~k=1,…,n$ son números positivos.

$\textbf{Criterio 1 (b)}$ La forma $Q(x)=xAX^{t}$ es definida negativa si y solo si los dterminantes $\triangle_{k}k=1,…,n$ tienen signos alternados comenzando por $\triangle_{1}<0,\triangle_{2}>0,…$ respectivamente.

$\textbf{Ejemplo}$ Consideremos la función $f:\mathbb{R}^3\rightarrow\mathbb{R}$ $f(x,y,z)=\sin x +\sin y + \sin z -\sin(x+y+z)$, el punto $P=\left(\frac{\pi}{2},\frac{\pi}{2},\frac{\pi}{2}\right)$ es
un punto crítico de $f$ y en ese punto la matriz hessiana de
$f$ es $$H(p)=\left[\begin{array}{ccc}
-2 & -1 & -1 \\
-1 & -2 & -1 \\
-1 & -1 & -2 \\
\end{array}
\right]
$$

los determinantes de las submatrices angulares son
$$\Delta_1=det(-2)\qquad \quad $$ $$\Delta_2=det \left[
\begin{array}{cc}
-2 & -1 \
-1 & -2 \
\end{array}
\right]$$

$$\Delta_3=det H(p)=-4$$ puesto que son signos alternantes con $\Delta t< 0$ concluimos que la funcion $f$ tiene en $\left(\frac{\pi}{2},\frac{\pi}{2},\frac{\pi}{2}\right)$ un máximo local. Este máximo local vale $f\left(\frac{\pi}{2},\frac{\pi}{2},\frac{\pi}{2}\right)=4$