Archivo de la categoría: Sin clasificar

Funciones en espacios topológicos compactos

Por Lizbeth Fernández Villegas

Introducción

En esta entrada conoceremos más propiedades de los espacios métricos compactos. Veremos qué ocurre cuando les es aplicada una función continua. Esto nos relacionará dos espacios métricos entre sí a través de los subconjuntos. Podremos concluir información acerca de la imagen de una función cuando ciertas condiciones se cumplen. Comencemos con la siguiente:

Proposición: Sean $(X,d_X)$ y $(Y,d_Y)$ espacios métricos. Si $\phi:X \to Y$ es una función continua y $A \subset X$ es compacto, entonces la imagen de $A$ bajo $\phi$, es decir, $\phi(A),$ es un conjunto compacto en $(Y,d_Y).$

La imagen continua de un compacto es compacta

Demostración:
Sea $\mathcal{C}= \{A_i: i \in \mathcal{I}\}$ una cubierta abierta de $\phi (A)$. Como $\phi$ es continua entonces la imagen inversa de $A_i,$ es decir, el conjunto $\phi ^{-1}(A_i), i \in \mathcal{I}$ es un conjunto abierto en $X$. No es difícil probar que $\{\phi ^{-1}(A_i):i \in \mathcal{I}\}$ es una cubierta abierta de $A.$ (Ejercicio).

La imagen inversa define una cubierta abierta en $X$

Como $A$ es compacto, entonces existe una subcubierta finita $\{\phi ^{-1}(A_{i_1}),\phi ^{-1}(A_{i_2}),…,\phi ^{-1}(A_{i_m}) \}$ con $m \in \mathbb{N}$ tal que $A \subset \underset{1\leq j \leq m}{\bigcup}\phi ^{-1}(A_{i_j}).$ Esto significa que $\{A_{i_1},A_{i_2},…,A_{i_m}\}$ es una subcubierta en $Y$ de $\mathcal{C}$ para $\phi (A)$. (¿Por qué?) Por lo tanto $\phi (A)$ es compacto.

Los conjuntos correspondientes en $X$ definen una cubierta finita en $Y$

Ejemplos

La función valor absoluto en un intervalo cerrado

Considera $\mathbb{R}$ con la métrica euclidiana y la función $f:[-1,1] \to \mathbb{R}$ donde $f(x)= |x|.$ Entonces $f$ es una función continua y $f([-1,1]) = [0,1]$ es compacto en $\mathbb{R}.$

La función $sen(4x)$

Considera $\mathbb{R}$ con la métrica euclidiana y la función $f:[0, \pi ] \to \mathbb{R}$ donde $f(x)= sen(4x).$ Entonces $f$ es una función continua y $f([0, \pi]) = [-1,1]$ es compacto en $\mathbb{R}.$

La función $e^x$

Considera $\mathbb{R}$ con la métrica euclidiana y la función $f:[0, 2 ] \to \mathbb{R}$ donde $f(x)= e^x .$ Entonces $f$ es una función continua y $f([0, 2]) = [1,e^2]$ es compacto en $\mathbb{R}.$

Es resultado conocido que si $\phi: [0,1] \to \mathbb{R}$ es una función continua, entonces $\phi([0,1])= [a,b]$ donde $a = min \{f(x)|0 \leq x \leq 1 \} \, $ y $ \, b = max \{f(x)|0 \leq x \leq 1 \}.$ (Ver Teorema del máximo-mínimo). En efecto $[a,b]$ es un intervalo cerrado en $\mathbb{R}$ y por tanto es compacto.

Bajo la misma idea podemos considerar a la función $\psi: \mathbb{R} \to \mathbb{R}^2$ dada por $\psi(t)=(t,\phi(t))$. Entonces, la curva de esta función es un conjunto compacto en $\mathbb{R}^2$

En la entrada anterior vimos que un conjunto compacto es cerrado y acotado. Podemos concluir el siguiente:

Corolario: Sea $A$ compacto. Entonces una función continua $\phi:A \subset X \to Y$ es acotada, pues la imagen bajo $\phi$ en el compacto es compacta y, por lo tanto, acotada. También podemos concluir que $\phi(A)$ es cerrada.

$\phi$ es acotada

Este resultado nos permite delimitar una función en el espacio euclidiano de $\mathbb{R}$ con dos puntos importantes en el contradominio de la función: el máximo y el mínimo.

Probablemente este resultado te sea familiar de los cursos de cálculo:

Proposición: Sea $f:A\subset \mathbb{R}^n \to \mathbb{R}$ una función continua con $A$ cerrado y acotado (y por tanto compacto en $\mathbb{R}^n$). Entonces $f \,$ alcanza su mínimo y máximo en $A.$

En otros espacios métricos puede generalizarse como sigue:

Proposición: Sea $f:A \to \mathbb{R}$ una función continua con $A$ espacio métrico compacto y $\mathbb{R}$ con la métrica usual. Entonces $f$ alcanza su mínimo y máximo en $A$, es decir, existen puntos $x_1$ y $x_2$ en $A$ tales que para toda $x \in A$ se cumple que:
$$f(x_1) \leq x \leq f(x_2)$$

Demostración:
Si $A$ es compacto, la proposición anterior nos muestra que $f(A)$ es cerrado y acotado. Sea $m_0= inf\{f(x):x \in A\}$. Entonces $m_0 \in \overline{f(A)}$ y como $f(A)$ es cerrado, se concluye que $m_0 \in f(A)$, de modo que existe $x_1 \in A$ tal que $f(x_1)=m_0 \, $ por lo tanto $f$ alcanza su mínimo en $A$.

La demostración de que $f$ alcanza su máximo es análoga y se deja como ejercicio.

Proposición: Sean $(X,d_X)$ y $(Y,d_Y)$ espacios métricos con $X$ compacto y $\phi:X \to Y$ inyectiva y continua. Entonces existe la función inversa $\phi^{-1}$ en $\phi(X)$ y es continua en $\phi(X)$.

Demostración:
Para demostrar que $\phi^{-1}:\phi(X) \to X$ es una función continua, basta probar que la imagen inversa de esta función aplicada en conjuntos cerrados en $X$, es un conjunto cerrado en $Y$. Si $A$ es cerrado en $X$ entonces la imagen inversa respecto a la función $\phi^{-1}$ está dada por $\phi(A)$. Como $A$ es cerrado en un compacto entonces es compacto, de modo que $\phi(A)$ también es compacto y, por lo tanto, es cerrado en $Y$. Esto prueba que $\phi^{-1}$ es continua.

Finalizaremos esta entrada presentando un resultado que se deduce del anterior. La solución se propone como ejercicio al lector:

Proposición: Si $\phi:X \to Y$ es una función biyectiva y continua entre espacios métricos compactos, entonces es un homeomorfismo.

$\phi$ es un homeomorfismo

Más adelante…

Continuaremos visualizando aplicaciones de funciones continuas sobre conjuntos compactos, pero esta vez bajo una nueva definición: la continuidad uniforme.

Tarea moral

  1. Como parte de la prueba de la primera proposición, muestra que en efecto $\{\phi ^{-1}(A_i):i \in \mathcal{I}\}$ es una cubierta abierta de $A$.
  2. Argumenta la parte de la demostración de la primera proposición, en la que se afirma que si $A \subset \underset{1\leq j \leq m}{\bigcup}\phi ^{-1}(A_{i_j}),$ entonces $\{A_{i_1},A_{i_2},…,A_{i_m}\}$ es una subcubierta en $Y$ de $\mathcal{C}$ para $\phi (A)$.
  3. Prueba que si $f:A \to \mathbb{R}$ es una función continua con $A \subset \mathbb{R}^n$ cerrado y acotado, entonces $f$ alcanza su máximo en $A.$
  4. Prueba que si $X$ y $Y$ son homeomorfos, entonces $X$ es compacto si y solo si $Y$ es compacto.
  5. Demuestra que si $\phi:X \to Y$ es una función biyectiva y continua entre espacios métricos compactos, entonces es un homeomorfismo.

Enlaces

El Método de los Mínimos Cuadrados.

Por Angélica Amellali Mercado Aguilar

$\textcolor{Red}{\textbf{El método de mínimos cuadrados}}$

El método de mínimos cuadrados se aplica para ajustar rectas a una serie de datos presentados como punto en el plano.
Suponagamos que se tienen los siguientes datos para las variables $x$,$y$.

Esta situación se puede presentar en estudios experimentales, donde se estudia la variación de cierta magnitud x en función de otra magnitud y. Teóricamente es de esperarse que la relación entre estas variables sea lineal, del tipo
$$y=mx+b$$
El método de mínimos cuadrados nos proporciona un criterio con el cual podremos obtener la mejor recta que representa a los puntos dados. Se desearía tener
$$y_{i}=mx_{i}+b$$
para todos los puntos $(x_{i},y_{i})$ de $i=1,…,n$. Sin embargo, como en general
$$y_{i}\neq mx_{i}+b$$
se pide que la suma de los cuadrados de las diferencias (las desviaciones)
$$y_{i}-(mx_{i}+b)$$
sea la menor posible.

Se requiere
$$S=(y_{1}-(mx_{1}+b))^{2}+(y_{2}-(mx_{2}+b))^{2}+\cdots+(y_{n}-(mx_{n}+b))^{2}$$
$$=\sum_{i=1}^{n}(y_{i}-(mx_{i}+b))^{2}$$
sea lo más pequeña posible. Los valores de m y b que cumplan con esta propiedad, determinan la recta
$$y=mx+b$$
que mejor representa el comportamiento lineal de los puntos $(x_{i},y_{i})$

Consideremos entonces la función f de las variables m y b dada por
$$f(m,b)=\sum_{i=1}^{n}(y_{i}-(mx_{i}+b))^{2}$$
donde los puntos críticos de esta función se obtienen al resolver el sistema
$$\frac{\partial f}{\partial m}=\sum_{i=1}^{n}2(y_{i}-(mx_{i}+b))(-x_{i})=2\sum_{i=1}^{n}x_{i}(y_{i}-(mx_{i}+b))=0$$
$$\frac{\partial f}{\partial b}=\sum_{i=1}^{n}2(y_{i}-(mx_{i}+b))(-1)=-2\sum_{i=1}^{n}(y_{i}-(mx_{i}+b))=0$$
De la segunda ecuación obtenemos
$$\sum_{i=1}^{n}y_{i}-m\sum_{i=1}^{n}x_{i}-\sum_{i=1}^{n}b=0$$
de donde
$$b=\frac{1}{n}\sum_{i=1}^{n}y_{i}-m\left(\frac{1}{n}\sum_{i=1}^{n}x_{i}\right)$$
Llamemos
$$\overline{x}=\frac{1}{n}\sum_{i=1}^{n}x_{i}$$
$$\overline{y}=\frac{1}{n}\sum_{i=1}^{n}y_{i}$$
que son las medias aritméticas de los valores $x_{i},~y_{i}$ respectivamente. Entonces
$$b=\overline{y}-m\overline{x}$$

sustituyendo en la ecuación
$$\frac{\partial f}{\partial m}=0$$
nos queda
$$\sum_{i=1}^{n}x_{i}(y_{i}-mx_{i}-(\overline{y}-m\overline{x}))=0$$
de donde se obtiene
$$m=\frac{\sum_{i=1}^{n}x_{i}(y_{i}-\overline{y})}{\sum_{i=1}^{n}x_{i}(x_{i}-\overline{x})}$$
En resumen, la función
$$f(m,b)=\sum_{i=1}^{n}(y_{i}-(mx_{i}+b))^{2}$$
tiene un único punto crítico para
$$m=\frac{\sum_{i=1}^{n}x_{i}(y_{i}-\overline{y})}{\sum_{i=1}^{n}x_{i}(x_{i}-\overline{x})},~~~b=\overline{y}-m\overline{x}$$
Ahora vamos a verificar que en dicho punto crítico se alcanza un mínimo local, para lo cual recurrimos a nuestro criterio de la segunda derivada, en este caso
$$\frac{\partial^{2} f}{\partial m^{2}}=-2\sum_{i=1}^{n}-x_{i}^{2}=2\sum_{i=1}^{n}x_{i}^{2}$$
$$\frac{\partial^{2} f}{\partial m \partial b}=-\sum_{i=1}^{n}-x_{i}=2\sum_{i=1}^{n}x_{i}$$
$$\frac{\partial^{2} f}{\partial b^{2}}=-2\sum_{i=1}^{n}(-1)=2n$$

Tenemos que
$$\frac{\partial^{2} f}{\partial m^{2}}>0$$
Por otro lado
$$\left(2\sum_{i=1}^{n}x_{i}\right)^{2}-\left(2\sum_{i=1}^{n}x_{i}^{2}\right)(2n)<0$$
esta desigualdad es equivalente a
$$\left(\sum_{i=1}^{n}x_{i}\right)^{2}<n\sum_{i=1}^{n}x_{i}$$
La cual no es mas que la desigualdad de Cauchy-Schwarz aplicada a los vectores $(1,1,…,1)$ y $(x_{1},x_{2},…,x_{n})$ de $\mathbb{R}^{n}$. Por lo que la función f posee un mínimo local en el punto punto crítico dado.

$\textbf{Ejemplo.}$ Se obtuvieron experimentalmente los siguientes valores de las variables x, y, los cuales se sabe que guardan entre sí una relación lineal

Vamos a encontrar la recta que mejor se ajusta a estos datos, según el método de mínimos cuadrados se tiene
$$\overline{x}=\frac{1+2+3+4}{2}=2.5$$
$$\overline{y}=\frac{1.4+1.1+0.7+0.1}{4}=0.825$$
Aplicando la fórmula obtenida para m y b obtenemos
$$m=\frac{\sum_{i=1}^{n}x_{i}(y_{i}-\overline{y})}{\sum_{i=1}^{n}x_{i}(x_{i}-\overline{x})}=\frac{1(1.4-0.825)+2(1.1-0.825)+3(0.7-0.825)+4(0.1-0.825)}{1(1-2.5)+2(2-2.5)+3(3-2.5)+4(4-2.5)}$$
$$=\frac{-2.15}{5}=-0.43$$
$$b=\overline{y}-m\overline{x}=0.825-(0.43)(2.5)=1.9$$

por lo que la recta que mejor ajusta los datos proporcionados

La suma de las diferencias de la recta y real con la y predicha por la ecuación obtenida es
$$-0.07+0.06+0.09-0.08=0$$
Es decir nuestra recta efectivamente compensa los puntos que quedaron por encima con puntos que quedaron por debajo. Gráficamente esto se ve.

La mejor recta que ajusta los datos del ejemplo.

Multiplicadores de Lagrange

Por Angélica Amellali Mercado Aguilar

Para entender el método de los multiplicadores de Lagrange ilustraremos las ideas con un ejemplo.

$\textbf{Ejemplo}$ Sea $f:\mathbb{R}^{2}\rightarrow\mathbb{R}$ dada por
$$f(x,y)=(x+1)^{2}+y^{2}$$
En este caso vamos a encontrar los puntos críticos

$$\nabla f(x,y)=(2(x+1),2y)~\Rightarrow~\nabla f(x,y)=(0,0)~\Leftrightarrow~\begin{matrix}2(x+1)=0\\2y=0\end{matrix}~\Leftrightarrow~\begin{matrix}x=-1\\y=0\end{matrix}$$
por lo tanto el único punto crítico es $(-1,0)$ para ver si es máximo o mínimo nos fijamos que en la función
$$f(x,y)=(x+1)^{2}+y^{2}~\Rightarrow~f(x,y)\geq 0$$
en este caso cuando evaluamos en el punto crítico $(-1,0)$ se tiene
$$f(-1,0)=(-1+1)^{2}+0^{2}=0$$

por lo que podemos decir que el punto $(-1,0)$ es un punto mínimo.

La pregunta ahora es si la función alcanza un valor máximo, para ello debemos restringir el dominio de la función, en este caso al conjunto
$$\left\{(x,y)\in \mathbb{R}^{2}~|~|(x,y)|\leq 2\right\}$$

en la parte roja se calculo que $f$ alcanzaba un valor mínimo en $(-1,0)$ falta ver lo que ocurre en la frontera del conjunto, es decir en la parte azul. Esta parte se puede parametrizar.

donde $\alpha:[0,2\pi]\rightarrow\mathbb{R}^{2}$
Podemos entonces definir la función $g(t)=f\circ \alpha~(t)$ en este caso
$$g(t)=f\circ \alpha (t)=f(\alpha (t))$$
$$=f(2\cos~t,2 sen~t)$$
$$=(2\cos~t+1)^{2}+4 sen^{2}~t$$
$$=4\cos~t+5$$
lo que haremos ahora es encontrar los valores máximos y mínimos sobre g, en este caso

$$g'(t)=-4 sen t$$
por lo que
$$g'(t)=0~\Leftrightarrow~-4 sen t=0~\Leftrightarrow~t=0,~t=\pi,~t=2\pi$$
evaluando en g se tiene

$$g(0)=4\cos^{2}(0)+5$$
$$=9$$
$$g(\pi)=4\cos\pi+5$$
$$=1$$
$$g(2\pi)=4\cos^{2}(2\pi)+5$$
$$=9$$
se tiene entonces que el máximo valor se alcanza en $t=0$, $t=2\pi$ y el mínimo valor se alcanza en $t=\pi$
Ahora sobre la frontera se tiene

$$\alpha(0)=(2\cos~0,2 sen~0)=(2,0)$$
$$\alpha(\pi)=(2\cos\pi, sen\pi)=(-2,0)$$
$$\alpha(2\pi)=(2\cos~2\pi, sen~2\pi)=(2,0)$$
por lo tanto tenenmos que el valor mínimo de f sobre el conjunto es 1 y que este valor se alcanza en $(-2,0)$

y su valor máximo sobre el conjunto es 9 y que este valor se alcanza en $(-2,0)$.\Por lo tanto comparando los valores de f en los puntos críticos que estan en el interior del conjunto
$$\left\{(x,y)\in\mathbb{R}^{2}~|~||(x,y)||=2\right\}$$
junto con los valores en la frontera de dicho conjunto, concluimos que f alcanza sus valores máximo y mínimo en los puntos $(-1,0)$ y $(2,0)$

El conjunto
$$\left\{(x,y)\in \mathbb{R}^{2}~|~||(x,y)||\leq 2\right\}$$
se puede considerarse como el conjunto de nivel de una función $g:\mathbb{R}^{2}\rightarrow\mathbb{R}$ en el caso de nuestro ejemplo la función g es
$$g(x,y)=x^{2}+y^{2}$$
Vamos a considerar los conjuntos de nivel de la función
$$f(x,y)=(x+1)^{2}+y^{2}$$
para $c=1$ y $c=9$ (que son los valores extremos que alcanzo f sobre el nivel 4 de g)

Observamos que estos conjuntos de nivel $N_{1}(f)$ y $N_{9}(f)$ se intersectan tangencialmente con $N_{4}(g)$ en los puntos $(-2,0)$ y $(2,0)$ que son justo los puntos en donde f alcanza sus valores extremos sobre la frontera del conjunto.Recordando que el gradiente de una función en un punto $x_{0}$ es ortogonal al conjunto de nivel que contiene a este punto, concluimos que los vectores
$$\nabla f(-2,0), \nabla g(-2,0)$$

deben de ser paralelos y lo mismo para

$$\nabla f(2,0),~\nabla g(2,0)$$
vamos averificar
$$\left(\begin{matrix}\nabla f(-2,0)=(-2,0)\\ \nabla g(-2,0)=(-4,0)\end{matrix}\right)~\Rightarrow~\nabla f(-2,0)=\frac{1}{2}\nabla g(-2,0)$$
$$\left(\begin{matrix}\nabla f(2,0)=(6,0)\\ \nabla g(2,0)=(4,0)\end{matrix}\right)~\Rightarrow~\nabla f(2,0)=\frac{3}{2}\nabla g(2,0)$$

Conjeturamos lo siguiente:
Si tenemos una función $f$ para la cual queremos calcular sus valores extremos sobre un conjunto de nivel de una función $g$ y localizar los puntos de este conjunto en los cuales alcanza estos valores extremos, es suficiente con encontrar los puntos $\hat{x}\in N_{c}(g)$ en los cuales se satisface que

$$\nabla f(\hat{x})=\lambda\nabla g(\hat{x})$$

$\textbf{Teorema 1.}$ $\textcolor{Red}{\textbf{Método de los multiplicadores de
lagrange}}$. Sean $f:u\subset \mathbb{R}^n\rightarrow \mathbb{R}$ y $g: u\subset \mathbb{R}^n\rightarrow \mathbb{R}$ funciones $C^1$ con valores reales dados. Sean $x_0 \in u$ y $g(x_0)=c$, y sea $S$ el conjunto de nivel de $g$ con valor $c$. Suponer $\nabla g(x_0)\neq 0$. Si $f|_s$ (f restringida a s) tiene un máximo o un mínimo local en $S$, en $x_0$, entonces existe un número real $\lambda$ tal que $\nabla f(x_0)=\lambda\nabla g(x_0)$.

$Demostración$ Para $n=3$ el espacio tangente o plano tangente de $S$ en $x_0$ es el
espacio ortogonal a $\nabla g(x_0)$ y para $n$ arbitraria podemos dar la misma definición de espacio tangente de $S$ en $x_0$. Esta definición se puede motivar al considerar tangentes a trayectorias $c(t)$ que estan en $s$, como sigue: si $c(t)$ es una trayectoria en $S$ y $c(0)=x_0$, entonces $c'(0)$ es un vector tangente a $S$ en $x_0$, pero
$$\frac{dg(c(t))}{dt}=\frac{d}{dt}(c)=0$$
Por otro lado usando regla de la cadena
$$\left.\frac{d}{dt}g(c(t))\right|{t=0}=\nabla g(x_0)\cdot c'(0)$$

de manera que $\nabla g(x_0)\cdot c'(0)=0$, esto es, $c'(0)$ es ortogonal a $\nabla g(x_0)$. Si $f|_s$ tiene un máximo en $x_0$, entonces $f(c(t))$ tiene un máximo en $t=0$. Por cálculo de una variable, $\displaystyle\left.\frac{df(c(t))}{dt}\right|{t=0}=0$. Entonces por regla de la cadena

$$0=\displaystyle\left.\frac{df(c(t))}{dt}\right|_{t=0}=\nabla f(x_0)\cdot c'(0)$$
Asi, $\nabla f(x_0)$ es perpendicular a la tangente de toda curva en $S$ y entonces tambien es perpendicular al espacio tangente completo de $S$ en $x_0$. Como el espacio perpendicular a este espacio tangente es una recta, $\nabla f(x_0)$ y $\nabla g(x_0)$ son paralelos. Como $\nabla g(x_0)\neq 0$, se deduce que $\nabla f(x_0)$ es multiplo de $\nabla g(x_0)$. $\square$

$\textbf{Ejemplo}$ Use el método de los multiplicadores de Lagrange para encontrar los valores extremos de la función $f:\mathbb{R}^{2}\rightarrow\mathbb{R}$ dada por
$$f(x,y)=2x+3y$$ sobre la restricción
$$x^{2}+y^{2}=4$$

$\small{Solución}$ En este caso la restricción la vemos como el conjunto de nivel cero de la función
$$g(x,y)=x^{2}+y^{2}-4$$
y tenemos entonces que
$$\left(\begin{matrix}\nabla f=(2,3)\\ \nabla g=(2x,2y)\end{matrix}\right)~\Rightarrow~(2,3)=\lambda (2x,2y)$$
tenemos el sistema

$$\left(\begin{matrix}2=2 \lambda x\\ 3= \lambda 2y \end{matrix}\right)~\Rightarrow~\left(\begin{matrix}\lambda=\frac{1}{x}\\ \lambda =\frac{3}{2}y \end{matrix}\right)~\Rightarrow~\frac{1}{x}=\frac{3}{2}y~\Rightarrow~y=\frac{3}{2}x$$
dicho valor se sustituye en la restricción

$$x^{2}+\left(\frac{3}{2}x\right)^{2}=4~\Rightarrow~x^{2}+\frac{9}{4}x^{2}=4~\Rightarrow~\frac{13}{4}x^{2}=4~\Rightarrow~13x^{2}=16~\Rightarrow~x^{2}=\frac{16}{13}~\Rightarrow~|x|=\frac{4}{\sqrt{13}}$$
por lo que
$$\left(\begin{matrix}y=\frac{3}{2}(\frac{4}{\sqrt{13}})=\frac{6}{\sqrt{13}}\\y=-\frac{3}{2}(\frac{4}{\sqrt{13}})=-\frac{6}{\sqrt{13}} \end{matrix}\right)$$
evaluando en nuestra función

El método de Lagrange se puede utilizar cuando hay más de una ecuación de restricción, pero se debe añadir otro multiplicador por cada restricción adicional. Si se requiere hallar los valores extremos de $f(x,y,z)$ sujetos a las restricciones $g(x,y,z)=0$ y $h(x,y,z)=0$ entonces la condición de Lagrange es
$$\nabla f=\lambda\nabla g+\mu \nabla h$$
sujeto a
$$g(x,y,z)=0$$
$$h(x,y,z)=0$$

$\textbf{Ejemplo.}$ La intersección del plano
$$x+\frac{1}{2}y+\frac{1}{3}z=0$$
con la esfera
$$x^{2}+y^{2}+z^{2}=1$$ es un circulo. Halle el punto sobre este círculo con coordenada $x$ máxima
$\small{Solución}$ Se requiere maximizar la función
$$f(x,y,z)=x$$
sujeta a
$$x+\frac{1}{2}y+\frac{1}{3}z=0,~~~x^{2}+y^{2}+z^{2}=1$$
tenemos entonces
$$\left(\begin{matrix}\nabla f=(1,0,0)\\ \nabla g=\left(1,\frac{1}{2},\frac{1}{3} \right)\\ \nabla h=\left(2x,2y,2z \right) \end{matrix}\right)~\Rightarrow~(1,0,0)=\lambda \left(1,\frac{1}{2},\frac{1}{3} \right)+\mu (2x,2y,2z)$$

es decir
$$\begin{matrix}\lambda+\mu 2x=1\\ \frac{1}{2}\lambda+\mu 2y=0\\ \frac{1}{3}\lambda+\mu 2z=0 \end{matrix}~\Rightarrow~\begin{matrix}\mu=\frac{1-\lambda}{2x}\\ \lambda=-4\mu y\\ \lambda=-6\mu z\end{matrix}$$
las dos últimas nos llevan a
$$-4\mu y=-6\mu z~\Rightarrow~y=\frac{3}{2}z$$
este valor se sustituye en la primer restricción (plano)
$$x+\frac{1}{2}\left(\frac{3}{2}z\right)+\frac{1}{3}z=0~\Rightarrow~x=-\frac{13}{12}z$$
ambos valores se sustituyen en la segunda restricción (esfera)

$$\left(-\frac{13}{12}z\right)^{2}+\left(\frac{3}{2}z\right)^{2}+z^{2}=1~\Rightarrow~z=\pm\frac{12}{7\sqrt{13}}$$
por lo que los valores de $x,y$ son
$$x=\pm\frac{\sqrt{13}}{7}$$
$$y=\pm\frac{18}{7\sqrt{13}}$$
Tenemos entonces los puntos
$$P=\left(-\frac{\sqrt{13}}{7},\frac{18}{7\sqrt{13}},\frac{12}{7\sqrt{13}}\right),~~Q=\left(\frac{\sqrt{13}}{7},-\frac{18}{7\sqrt{13}},-\frac{12}{7\sqrt{13}}\right)$$
donde $Q$ es el punto con mayor coordenada $x$.

Convergencia puntual y convergencia uniforme

Por Lizbeth Fernández Villegas

Introducción

En entradas anteriores trabajamos ideas de convergencia de sucesiones. En ellas se observa una secuencia de puntos de un espacio métrico y se analiza si se pueden acercar mucho entre ellos o si se acercan a algún otro punto. En esta entrada, y otras correspondientes a la sección, observaremos sucesiones originadas por puntos obtenidos al evaluar funciones. Al comparar distancias entre puntos de la imagen de esas funciones podemos pensar ahora en cercanía de funciones, más aún, en si se aproximan a alguna función específica. ¡Comenzamos!

Sea $A$ un conjunto y $(X,d)$ un espacio métrico. Para cada $n \in \mathbb{N}$ considera una función $f_n:A \to X.$ Esto define una sucesión de funciones $(f_n)_{n \in \mathbb{N}}.$

Representación de una sucesión de funciones

A partir de un punto $a \in A$ (fijo) podemos definir otra sucesión con los valores que cada una de las funciones anteriores asignan a ese punto. Es decir, con los términos $f_1(a), f_2(a), f_3(a), …$ definimos la sucesión $(f_n(a))_{n \in \mathbb{N}}.$

Representación de una sucesión $(f_n(a))_{n \in \mathbb{N}}.$

Es natural preguntarse si esa sucesión de puntos es convergente. Gráficamente podemos observar que esto depende de cómo están definidas las funciones y también del valor $a$ elegido en el dominio $A.$ Por ejemplo, en el siguiente dibujo, la sucesión generada con las funciones evaluadas en $a_1$ es convergente, pues los puntos se van aproximando al eje horizontal. Por otro lado, la generada a partir del punto $a_2$ no lo es; sus puntos tienden a infinito.

Sucesiones $(f_n(a_1))_{n \in \mathbb{N}} \,$ y $(f_n(a_2))_{n \in \mathbb{N}},$

Para formalizar estas ideas, al final de esta sección se te pedirá demostrar que la sucesión de funciones del ejemplo anterior evaluadas en $a_1$ (un punto menor que cero), es convergente. ¿Cuál es el límite? Por el contrario, para un punto mayor que cero la sucesión tiende a infinito. ¿Qué pasa al evaluar las funciones en cero?

Pero en un conjunto donde todos los puntos $a$ forman sucesiones convergentes $(f_n(a))_{n \in \mathbb{N}},$ podemos pensar en cada límite de esas sucesiones como el valor que otra función $f$ asigna en cada punto $a.$ Eso inspira la siguiente:

Definición. Convergencia puntual: Si $(f_n)_{n \in \mathbb{N}} \,$ es una sucesión de funciones donde para cada $n \in \mathbb{N}$ se tiene $f_n: A \to X,$ decimos que $(f_n)_{n \in \mathbb{N}} \,$ converge puntualmente en $A$ a una función $f:A \to X$ si para cada punto $a \in A$ se cumple que $\underset {n \to \infty}{lim} \, f_n(a) = f(a).$

Aunque la sucesión de funciones del ejemplo anterior no converge puntualmente en $\mathbb{R},$ sí lo hace en el intervalo $(- \infty , 0].$ Converge puntualmente a la función dada por:

\begin{equation*}
f(x) = \begin{cases}
0 & \text{si $x < 0$} \\
1 & \text{si $x = 0$}
\end{cases}
\end{equation*}

La sucesión de funciones converge puntualmente a la función $f.$

La función $f$ recibe el nombre de límite puntual de la sucesión de funciones $(f_n)_{n \in \mathbb{N}}.$

De acuerdo con la definición de convergencia puntual, para cada $\varepsilon >0$ y cada $a \in A$ se requiere de la existencia de un número $N_a \in \mathbb{N}$ tal que $\forall \, n\geq N_a, \, d(f_n(a),f(a)) < \varepsilon.$

Es importante notar que, incluso cuando todas las sucesiones $(f_n(a))_{n \in \mathbb{N}} \,$ son convergentes, posiblemente el natural $N_a \,$ que satisface la definición de convergencia será diferente al variar el punto $a$ en el dominio, de ahí que lo indiquemos con un subíndice.

Tomemos nuevamente el ejemplo anterior en el intervalo $(- \infty, 0]$ donde la sucesión de funciones converge puntualmente. Partiendo de un $\varepsilon_0 >0$ fijo, observemos las siguientes sucesiones, en distintos valores del intervalo.

Puntos dentro del radio $\varepsilon_0$

Mientras que para el punto $a_1$ la sucesión se acerca al punto de convergencia $f(a_1) = 0$ en distancias menores que $\varepsilon _0$ a partir del punto evaluado en $f_2,$ para el punto $a_2$ no se acerca lo suficiente sino hasta $f_3.$ Por otra parte, los puntos de las funciones evaluadas en $a_3$ del dibujo, no se acercan en menos que $\varepsilon _0$ a su respectivo punto de convergencia sino hasta a partir de $f_k.$ Entonces, los naturales que satisfacen la condición pueden proponerse como:
$$N_{a_1} = 2; \, N_{a_2}=3; \, N_{a_3} = k$$
¿Es posible reasignar un mismo natural a los puntos $a_1, \, a_2, \, a_3$ y satisfacer también la definición de convergencia?
¿Será posible hacerlo en todos los puntos de $(- \infty ,0]$

Cuando para todo $\varepsilon>0$ sí sea posible asegurar la existencia de un mismo valor natural $N$ que afirme la convergencia de todas las sucesiones $(f_n(a))_{a \in A} \,$ hablaremos de que la sucesión de funciones converge uniformemente:

Definición. Convergencia uniforme: Considera una sucesión de funciones $(f_n)_{n \in \mathbb{N}} \,$ donde para cada $n \in \mathbb{N}, \, f_n:A \to X \, $ con $A$ un conjunto y $(X,d)$ un espacio métrico. Decimos que $(f_n)_{n \in \mathbb{N}} \,$ converge uniformemente a una función $f:A \to X$ si para toda $\varepsilon >0$ existe $N \in \mathbb{N}$ tal que para toda $n \geq N$ y para toda $a \in A$ se cumple que $d(f_n(a),f(a))< \varepsilon.$

En este caso nos referiremos a $f$ como el límite uniforme de $(f_n)_{n \in \mathbb{N}}.$

Ejemplo
Consideremos la misma sucesión de funciones $(n^x)_{n \in \mathbb{N}} \,$ pero ahora con dominio $(- \infty, a]$ con $a < 0.$

Sea $\varepsilon >0$. Toma el $N_a \in \mathbb{N}$ que satisface que $\forall n\geq N_a, \, d(f_n(a),0) < \varepsilon$ el cual existe, pues $f_n(a) \to 0.$ Nota que este mismo natural funciona para probar la convergencia de la sucesión de puntos de funciones evaluadas en cualquier otro punto de $(- \infty,a].$ La demostración de este hecho quedará como ejercicio.

A partir de la función morada, todas las siguientes están dentro de la región de $\varepsilon$ en el dominio.

Nota que si una sucesión $(f_n)$ converge uniformemente a $f$ entonces también converge puntualmente a $f.$ Por el contrario, podemos tener sucesiones que convergen puntualmente pero no uniformemente:

Ejemplo: Aunque la sucesión $(n^x)_{n \in \mathbb{N}} \,$ converge puntualmente en $(- \infty , 0]$ no converge uniformemente en el mismo dominio. Sea $\varepsilon = \frac{1}{2}$ y $k \in \mathbb{N}.$ Como la imagen de $k^x$ es $(0,1]$ entonces existe $a_0 \in (- \infty , 0)$ (donde $(n^{a_0})_{n \in \mathbb{N}} \to 0$) tal que $k^{a_0}> \varepsilon .$ Por lo tanto, el límite no es uniforme.

Esta no es la primera vez que hablamos de identificar distancias entre una función y otra. En la entrada Espacios de funciones definimos el espacio $\mathcal{B}(A,X)$ cuyos elementos son funciones acotadas de un conjunto $A$ en un espacio $X$ y la métrica está dada por:
$$d_\infty(f,g)= \underset{a \in A}{sup \,} \, d(f(a),g(a)), \, f,g \in \mathcal{B}(A,X)$$

Representación distancia entre funciones acotadas

La convergencia uniforme de una sucesión de funciones acotadas es equivalente a la convergencia como elementos del espacio métrico de funciones $\mathcal{B}(A,X),$ es decir:

Proposición: Sea $(f_n)_{n \in \mathbb{N}} \,$ una sucesión en $\mathcal{B}(A,X).$ Entonces, $(f_n)_{n \in \mathbb{N}}$ converge uniformemente a $f: A \to X$ en $A$ si y solo si $(f_n)_{n \in \mathbb{N}}$ converge a $f$ en $\mathcal{B}(A,X).$

Demostración (ida):
Sea $\varepsilon >0.$ Como $(f_n)_{n \in \mathbb{N}}$ converge uniformemente a $f: A \to X$ en $A,$ existe $N \in \mathbb{N} \,$ tal que para cada $k \geq N$ se cumple que para cada $a \in A, \, d(f_k(a),f(a)) < \frac{\varepsilon}{2} .$

1. $f$ está en el espacio $\mathcal{B}(A,X):$
Como $f_N$ es acotada, existen $x_0 \in X$ y $M \in \mathbb{R}$ tales que para toda $a \in A,$
$d(f_N(a),x_0) \leq M$
En consecuencia $d(f(a),x_0) \leq d(f(a),f_N(a))+d(f_N(a),x_0) < \frac{\varepsilon}{2} + M < \varepsilon + M$
Y como esto es posible $\forall \varepsilon >0$ concluimos que $f$ es acotada.

2. $(f_n)_{n \in \mathbb{N}} \to f$ en $\mathcal{B}(A,X):$
Teniendo a $\varepsilon$ como cota superior del conjunto $\{ d(f_k(a),f(a)) : a \in A \}$ se sigue que $d_\infty(f_k,f)= \underset{a \in A}{sup \,} \, d(f_k(a),f(a)) \leq \frac{\varepsilon}{2} < \varepsilon ,$ lo cual demuestra que $(f_n)_{n \in \mathbb{N}}$ converge a $f$ en $\mathcal{B}(A,X).$

El regreso es análogo y se propone como ejercicio.

Definición. Sucesión uniformemente de Cauchy: Sea $(f_n)_{n \in \mathbb{N}} \,$ una sucesión de funciones con $f_n:A \to X, \, n \in \mathbb{N}.$ Decimos que $(f_n)$ es uniformemente de Cauchy en $A,$ si para todo $\, \varepsilon >0$ existe $N \in \mathbb{N}$ tal que para todo $\, l,m \geq N$ y para todo $ \, a \in A,$
$$d(f_l(a),f_m(a))< \varepsilon .$$

Nota que en la definición solo se menciona que las funciones de la sucesión se vuelven arbitrariamente cercanas dos a dos (en cualquier punto del dominio), a partir de alguna función.

La siguiente imagen muestra una sucesión uniformemente de Cauchy.

$f_k:[0,2] \to \mathbb{R}, \, f_k=\frac{x}{kx+1}, \, k \in \mathbb{N}$

¿Cuándo podremos decir que una sucesión de funciones con esta propiedad converge de manera uniforme?

Para finalizar, veamos el siguiente resultado en espacios donde toda sucesión de Cauchy es convergente.

Teorema. Criterio de convergencia uniforme de Cauchy. Sea $(X,d)$ un espacio métrico completo. Una sucesión de funciones $(f_n)_{n \in \mathbb{N}} \,$ con $f_n:A \to X, \, n \in \mathbb{N}$ converge uniformemente en $A$ si y solo si $(f_n)_{n \in \mathbb{N}}$ es uniformemente de Cauchy en $A.$

Demostración:
Partamos de suponer que $(f_n)_{n \in \mathbb{N}} \,$ converge uniformemente en $A$ a alguna función $f:A \to X.$ Sea $\varepsilon >0.$ Existe $N \in \mathbb{N}$ tal que para cada $l, m \geq N$ se cumple que para cada $a \in A$:
$$d(f_l(a),f_m(a)) \leq d(f_l(a),f_N(a))+d(f_N(a),f_m(a)) < \frac{\varepsilon}{2}+\frac{\varepsilon}{2} = \varepsilon.$$
Por lo tanto $(f_n)_{n \in \mathbb{N}} \,$ es uniformemente de Cauchy en $A.$

Ahora supón que $(f_n)_{n \in \mathbb{N}} \,$ es uniformemente de Cauchy en $A.$ Sea $\varepsilon>0.$ Existe $N \in \mathbb{N}$ tal que para cada $l, m \geq N$ se cumple que para cada $a \in A, \, d(f_l(a),f_m(a))< \varepsilon.$ Esto significa que la sucesión $(f_n(a))_{n \in \mathbb{N}}$ (formada por los puntos de las funciones evaluadas en un $a \in A$ fijo) es de Cauchy. Como $X$ es completo, se sigue que $(f_n(a))_{n \in \mathbb{N}} \to L_a$ para algún $L_a \in X.$
Sea $f:A \to X$ tal que para cada $a \in A, \, f(a) = L_a.$ Queda como ejercicio al lector demostrar que $f$ es el límite uniforme de $(f_n)_{n \in \mathbb{N}}.$

Más adelante…

Observaremos sucesiones de funciones continuas que convergen. ¿Será continua la función límite? ¿Dependerá de si la convergencia es puntual o uniforme?

Tarea moral

  1. Para cada $n \in \mathbb{N}$ considera la función $n^x: \mathbb{R} \to \mathbb{R}.$ Donde tanto en el dominio como en el contradominio, $\mathbb{R}$ tiene la métrica euclidiana. Sea $a \in \mathbb{R}.$ Demuestra que:
    a) Si $a<0$ entonces $(n^a)_{n \in \mathbb{N}}$ es convergente. ¿Cuál es el límite?
    b) Si $a >0$ entonces $(n^a)_{n \in \mathbb{N}}$ tiende a infinito.
    c) ¿Qué ocurre con la sucesión cuando $a=0?$
  2. Consideremos la misma sucesión de funciones $(n^x)_{n \in \mathbb{N}} \,$ pero ahora con dominio $(- \infty, a]$ con $a < 0.$ Sea $\varepsilon >0$. Toma el $N_a \in \mathbb{N}$ que satisface que $\forall n\geq N_a, \, d(f_n(a),0) < \varepsilon$ el cual existe, pues $f_n(a) \to 0.$ Demuestra que para todo $a^*<a$ también se cumple que $\forall n\geq N_a, \, d(f_n(a^*),0) < \varepsilon$ y por tanto la convergencia en $(- \infty,a]$ es uniforme.
  3. Demuestra el regreso de la siguiente proposición:
    Sea $(f_n)_{n \in \mathbb{N}} \,$ una sucesión en $\mathcal{B}(A,X).$ Entonces, $(f_n)_{n \in \mathbb{N}}$ converge uniformemente a $f: A \to X$ en $A$ si y solo si $(f_n)_{n \in \mathbb{N}}$ converge a $f$ en $\mathcal{B}(A,X).$
  4. En la demostración del criterio de convergencia uniforme de Cauchy, demuestra que $f$ como fue definida, es el límite uniforme de $(f_n)_{n \in \mathbb{N}}.$
  5. Supón que para cada $x \in A$ se cumple que $\underset{n \in \mathbb{N}}{lim} \, f_n(x) =f(x).$ Si definimos $M_n$ como $M_n=\underset{n \in \mathbb{N}}{sup} \, \, d(f_n(x),f(x))$ entonces $f_n \to f$ de manera uniforme si y solo si $M_n \to 0$ en $\mathbb{R}.$

Enlaces:

Continuación extremos locales.

Por Angélica Amellali Mercado Aguilar

$\textcolor{Red}{\textbf{Extremos Locales parte 2}}$

Entre las caracteristicas geometricas básicas de la gráficas de una
función estan sus puntos extremos, en los cuales la función alcanza
sus valores mayor y menor.

$\textbf{Definición 1.}$ Si $f:u\subset \mathbb{R}^n \rightarrow
\mathbb{R}$ es una función escalar, dado un punto $x_0 \in u$
se llama mínimo local de $f$ si existe una vecindad $v$ de $x_0$ tal que $\forall x \in v$ , $f(x)>f(x_0)$. De manera analoga, $x_0 \in u$ es un máximo local si existe una vecindad $v$ de $x_0$ tal que $f(x)< f(x_0)$, $\forall \quad x \in v$. El punto $x_0 \in u$ es un extremo local o relativo, si es un mínimo local o máximo local.

$\textbf{Teorema 1.}$ $\textcolor{Red}{\textbf{Criterio de la primera derivada}}$ Si $u \in \mathbb{R}$ es abierto, la función $f:u\subset \mathbb{R}^n \rightarrow \mathbb{R}$ es diferenciable y $x_0 \in u$ es un extremo local entonces $\nabla f(x_0)=0$, esto es $x_0$ es un punto crítico de $f$.

$\small{Demostración}$ Supongamos que $t$ alcanza su máximo local en $x_0$. Entonces para cualquier $h \in \mathbb{R}^n$ la función $g(t)=f(x_0+th)$ tiene un máximo local en $t=0$. Asi, del cálculo de una variable $g'(0)=0$ ya que como $g(0)$ es máximo local, $g(t)\leq g(0)$ para $t > 0$ pequeño

$$\therefore \quad g'(0)=\displaystyle\lim_{t \rightarrow t_0^+}\frac{g(t)-g(0)}{t}=0$$

Análogamente para $t< 0$ pequeño tomamos

$$g'(0)=\displaystyle\lim_{t \rightarrow t_0^-}\frac{g(t)-g(0)}{t}=0$$

Ahora por regla de la cadena $$g'(0)=\frac{\partial f}{\partial x_{1}}(x_{0})h_{1}+\frac{\partial f}{\partial x_{2}}(x_{0})h_{2}+\cdots+\frac{\partial f}{\partial x_{n}}(x_{0})h_{0}=\nabla f(x_{0})\cdot h$$
Así $\nabla f(x_{0})\cdot h=0 \quad \forall \: h$ de modo que $\nabla f(x_{0})=0$. En resumen si $x_0$ es un extremo local, entonces $\displaystyle\frac{\partial f}{\partial x_i}(x_0)=0 \quad \forall~i=1,\ldots,n$. En otras palabras $\nabla f(x_0)=0$.

$\textbf{Ejemplo}$ Hallar los máximos y mínimos de la función $f:\mathbb{R}^2 \rightarrow \mathbb{R}$, definida por $$f(x,y)=x^2+y^2-2x-6y+14$$

$\small{Solución.}$ Debemos identificar los puntos críticos de $f$ resolviendo $\displaystyle{\frac{\partial f}{\partial x}=0}$, $\displaystyle{\frac{\partial f}{\partial y}=0}$ para $x,y$, $$2x-2=0~~~2y-6=0$$ De modo que el punto crítico es $(1,3)$. Como $$f(x,y)=\left(x^{2}-2x+1\right)+\left(y^{2}-6y+9\right)+4=\left(x-1\right)^{2}+\left(y-3\right)^{2}+4$$
tenemos que $f(x,y)\geq 4$ por lo tanto en $(1,3)$ f alcanza un mínimo relativo.

$\textbf{Ejemplo.}$ Considerar la función $f:\mathbb{R}^2 \rightarrow \mathbb{R}$,
$f(x,y)=4-x^2-y^2$ entonces $\displaystyle{\frac{\partial f}{\partial x}=-2x}$, $\displaystyle{\frac{\partial f}{\partial y}=-2y}$. $f$ solo tiene un punto crítico en el origen, donde el valor de $f$ es 4. Como $$f(x,y)=4-(x^{2}+y^{2})$$
tenemos que $f(x,y)\leq 4$ por lo tanto en $(0,0)$ f alcanza un máximo relativo.

$\textbf{Ejemplo}$ En el siguiente ejemplo mostramos que no todo punto critico es un valor extremo\Sea $f(x,y)=x^{2}y+y^{2}x$ tenemos que sus puntos criticos son
$$\frac{\partial f}{\partial x}=2xy+y^{2}~~~\frac{\partial f}{\partial y}=2xy+x^{2}=0$$
por lo tanto

$$\left(\begin{matrix}2xy+y^{2}=0\\2xy+x^{2}=0\end{matrix}\right)\Leftrightarrow\left(\begin{matrix}x=y\\x=-y\end{matrix}\right)$$

tomando $x=-y$ tenemos que
$$2xy+y^{2}=0~\Rightarrow~-2y^{2}+y^{2}=0~\Rightarrow~-y^{2}=0\Rightarrow~y=0~\Rightarrow~x=0$$
tomando $x=y$ tenemos que
$$2xy+y^{2}=0~\Rightarrow~2y^{2}+y^{2}=0~\Rightarrow~-3y^{2}=0\Rightarrow~y=0~\Rightarrow~x=0$$
por lo tanto $(0,0)$ es el único punto critico.

Ahora bien para $f(x,y)$ tomamos $x=y$
$$f(x,x)=2x^{3}$$
la cual es ($<0$ si $x<0$) y ($>0$ si $x>0$) por lo tanto el punto critico $(0,0)$ no es ni máximo ni mínimo local de $f$

Ahora bien para $f(x,y)$ tomamos $x=-y$
$$f(x,-x)=0~~~\forall x$$
por lo tanto el punto critico $(0,0)$ no es ni máximo ni mínimo local de $f$

Para el caso de funciones $f:\mathbb{R}^{3}\rightarrow\mathbb{R}$ tenemos que recordando un poco de la expresión de taylor
$$f(x,y)=f(x_{0},y_{0})+\left(\frac{\partial f}{\partial
x}\right){p}(x-x_{0})+\left(\frac{\partial f}{\partial
y}\right){p}(y-y_{0})+\left(\frac{\partial f}{\partial
z}\right){p}(z-z_{0})+$$

$$\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial
x^{2}}{p}(x-x_{0})^{2}+2\frac{\partial^{2}f}{\partial x \partial
y}{p}(x-x_{0})(y-y_{0})+\frac{\partial^{2}f}{\partial
y^{2}}{p}(y-y_{0})^{2}+2\frac{\partial^{2}f}{\partial
x\partial z}{p}(z-z_{0})(x-x_{0})+2\frac{\partial^{2}f}{\partial
y\partial z}{p}(z-z_{0})(y-y_{0})\right)}$$
$$\textcolor{Red}{+\frac{\partial^{2}f}{\partial z^{2}}_{p}(z-z_{0})}$$

Haciendo $x-x_{0}=h_{1},y-y_{0}=h_{2},z-z_{0}=h_{3}$ podemos escribir el término rojo de la siguiente manera

$$\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2}f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2}f}{\partial y^{2}}h_{2}^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}\right)$$

y también se puede ver como producto de matrices
$$\frac{1}{2!}(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

Si $(x_{0},y_{0},z_{0})$ es un punto critico de la función entonces en la expresión de Taylor
$$f(x,y)=f(x_{0},y_{0})+\left(\frac{\partial f}{\partial
x}\right)_{p}(x-x_{0})+\left(\frac{\partial f}{\partial
y}\right)_{p}(y-y_{0})+\left(\frac{\partial f}{\partial
z}\right){p}(z-z_{0})$$

$$\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial
x^{2}}_{p}(x-x_{0})^{2}+2\frac{\partial^{2}f}{\partial x \partial
y}_{p}(x-x_{0})(y-y_{0})+\frac{\partial^{2}f}{\partial
y^{2}}_{p}(y-y_{0})^{2}+2\frac{\partial^{2}f}{\partial
x\partial z}_{p}(z-z_{0})(x-x_{0})+2\frac{\partial^{2}f}{\partial
y\partial z}_{p}(z-z_{0})(y-y_{0})\right)}$$

$$\textcolor{Red}{+\frac{\partial^{2}f}{\partial
z^{2}}_{p}(z-z_{0})(x-x_{0})}$$

El término
$$\frac{\partial f}{\partial x}{p}(x-x{0})+\frac{\partial f}{\partial y}{p}(y-y{0})+\frac{\partial f}{\partial z}{p}(z-z{0})=0$$
y por lo tanto
$$f(x,y)-f(x_{0},y_{0})=\frac{1}{2!}(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

vamos a determinar el signo de la forma
$$Q(h)=\frac{1}{2!}(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

vamos a trabajar sin el término $\displaystyle{\frac{1}{2!}}$ que no afectara al signo de la expresión, tenemos entonces

$$Q(h)=(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial ^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)=\textcolor{Red}{\frac{\partial^{2}f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2}f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2}f}{\partial y^{2}}h_{2}^{2}}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$
$$=\textcolor{Red}{\frac{\partial^{2}f}{\partial x^{2}}\left(h_{1}+\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}\right)^{2}+\left(\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}\right)h_{2}^{2}}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

hacemos $\displaystyle{b_{1}=\frac{\partial^{2}f}{\partial x^{2}},h_{1}’=\left(h_{1}+\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}\right),b_{2}=\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}},~~h_{2}’=h_{2}}$ y obtenemos

$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

que podemos escribir
$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}\left(h_{1}+\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}-\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}\right)h_{3}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}\left(h_{1}’-\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}’\right)h_{3}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{1}’h_{3}+\left(2\frac{\partial^{2}f}{\partial y\partial z}-\frac{2\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}\right)h_{2}’h_{3}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

hacemos
$$2b_{23}=2\frac{\partial^{2}f}{\partial y\partial z}-\frac{2\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}$$y obtenemos
$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{1}’h_{3}+2b_{23}h_{2}’h_{3}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$
que se puede escribir

$$=b_{1}\left(h_{1}’^{2}+2\frac{\frac{\partial^{2}f}{\partial x\partial z}}{b_{1}}h_{1}’h_{3}+\left(\frac{\frac{\partial^{2}f}{\partial x\partial z}h_{3}}{b_{1}}\right)^{2}\right)+b_{2}\left(h_{2}’^{2}+2\frac{b_{23}}{b_{2}}h_{2}’h_{3}+\left(\frac{b_{23}}{b_{2}}h_{3}\right)^{2}\right)+\left(\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}\right)h_{3}^{2}$$

hacemos
$$b_{3}=\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}$$
y obtenemos

$$=b_{1}\left(h_{1}’^{2}+2\frac{\frac{\partial^{2}f}{\partial x\partial z}}{b_{1}}h_{1}’h_{3}+\left(\frac{\frac{\partial^{2}f}{\partial x\partial z}h_{3}}{b_{1}}\right)^{2}\right)+b_{2}\left(h_{2}’^{2}+2\frac{b_{23}}{b_{2}}h_{2}’h_{3}+\left(\frac{b_{23}}{b_{2}}h_{3}\right)^{2}\right)+b_{3}h_{3}^{2}$$
$$=b_{1}\left(h_{1}’+\frac{\frac{\partial^{2}f}{\partial x\partial z}}{b_{1}}h_{3}\right)^{2}+b_{2}\left(h_{2}’+\frac{b_{23}}{b_{2}}h_{3}\right)^{2}+b_{3}h_{3}^{2}$$
esta última expresión será positiva si y solo si $b_{1}>0~~b_{2}>0$ y $b_{3}>0$ en clases pasadas vimos los dos primeros, veamos ahora que $$b_{3}=\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}>0$$
tenemos entonces que

$$\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}=\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{\frac{\partial^{2}f}{\partial z^{2}}}-\frac{\left(\frac{\partial^{2}f}{\partial y\partial z}-\frac{2\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}\right)^{2}}{\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}}$$

$$=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}-\frac{\frac{\left(\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\left(\frac{\partial^{2}f}{\partial x^{2}}\right)^{2}}}{\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}}=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}-\frac{\left(\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)\frac{\partial^{2}f}{\partial x^{2}}}$$

$$=\frac{\left(\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}\right)\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)-\left(\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)}$$

$$=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}-\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}+\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}-\left(\frac{\partial^{2}f}{\partial y\partial z}\right)^{2}\left(\frac{\partial^{2}f}{\partial x^{2}}\right)^{2}-}{\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)}$$

$$\frac{2\left(\frac{\partial^{2}f}{\partial x^{2}}\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)-\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)}$$
$$=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial z^{2}}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}-\frac{\partial^{2}f}{\partial y^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}-\left(\frac{\partial^{2}f}{\partial y\partial z}\right)^{2}\frac{\partial^{2}f}{\partial x^{2}}+2\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}$$

$$=\frac{\left|\begin{matrix}\frac{\partial^{2}f}{\partial x^{2}}&\frac{\partial^{2}f}{\partial y\partial x}&\frac{\partial^{2}f}{\partial z\partial x}\\\frac{\partial^{2}f}{\partial x\partial y}&\frac{\partial^{2}f}{\partial y^{2}}&\frac{\partial^{2}f}{\partial z\partial y}\\\frac{\partial^{2}f}{\partial x\partial z}&\frac{\partial^{2}f}{\partial y\partial z}&\frac{\partial^{2}f}{\partial z^{2}}\end{matrix}\right|}{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}$$

por lo tanto
$$b_{3}>0~\Leftrightarrow~\left|\begin{matrix}\frac{\partial^{2}f}{\partial x^{2}}&\frac{\partial^{2}f}{\partial y\partial x}&\frac{\partial^{2}f}{\partial z\partial x}\\\frac{\partial^{2}f}{\partial x\partial y}&\frac{\partial^{2}f}{\partial y^{2}}&\frac{\partial^{2}f}{\partial z\partial y}\\\frac{\partial^{2}f}{\partial x\partial z}&\frac{\partial^{2}f}{\partial y\partial z}&\frac{\partial^{2}f}{\partial z^{2}}\end{matrix}\right|>0$$

$\textcolor{Red}{\textbf{Un poco de Algebra Lineal}}$

Si $A\in M_{n\times n}$ una matriz simétrica entonces existe una $B\in M_{n\times n}$ una matriz ortonormal tal que
$$BAB^{T}$$
es una matriz diagonal, es decir

$$BAB^{T}=\left[\begin{matrix}\lambda_{1}&\cdots&0\\0&\ddots&\vdots\\0&\cdots&\lambda_{n}\end{matrix}\right]$$
Las matrices ortonormales se usan para realizar un cambio de base.

Si $F:\mathbb{R}^{n}\rightarrow\mathbb{R}$ es una forma cuadrática que tiene asociada la matriz simétrica A (en una base ortonormal) es decir
$$F(x_{1},x_{2},…,x_{n})=(x_{1}\cdots x_{n})A(x_{1}\cdots x_{n})^{T}$$
existe entonces una base ortonormal tal que la matriz asociada a $F$ en esta nueva base es una matriz diagonal.

Tenemos que si
$$B=\left[\begin{matrix}b_{11}&\cdots&b_{1n}\\\vdots&\ddots&\vdots\\b_{n1}&\cdots&b_{nn}\end{matrix}\right]$$
es tal que $BAB^{T}$ es diagonal entonces
$$(x_{1}\cdots x_{n})=[x_{1}’\cdots x_{n}’]\left[\begin{matrix} b_{11} & \cdots &b_{1n}\\ \vdots&\ddots&\vdots \\b_{n1}&\cdots&b_{nn}\end{matrix}\right]$$
$$=[x_{1}’\cdots x_{n}’]B$$
Por lo que
$$F(x_{1},x_{2},…,x_{n})=(x_{1}\cdots x_{n})A(x_{1}\cdots x_{n})^{T}$$
$$=F(x_{1},x_{2},…,x_{n})=(x_{1}’\cdots x_{n}’)BA(x_{1}’\cdots x_{n}’B)^{T}$$
$$=(x_{1}’\cdots x_{n}’)BAB^{T}(x_{1}’\cdots x_{n})^{T}$$
$$=(x_{1}’\cdots x_{n}’)\left[\begin{matrix}\lambda_{1}&\cdots&0\\0&\ddots&\vdots\\0&\cdots&\lambda_{n}\end{matrix}\right](x_{1}’\cdots x_{n})^{T}$$
$$=\lambda_{1}x_{1}^{2}+\lambda_{2}x_{2}^{2}+\cdots +\lambda_{n}x_{n}^{2}$$

por lo que $F$ es positiva si $\lambda_{1},\cdots,\lambda_{n}$ son positivos, de igual manera $F$ es negativa si $\lambda_{1},\cdots,\lambda_{n}$ son negativos

Si definimos, para cada $k\in{1,\ldots,n}$
$$D_{k}=\left[\begin{matrix}\lambda_{1}&\cdots&0\\ \vdots&\ddots&\vdots\\0&\cdots&\lambda_{k}\end{matrix}\right]$$

entonces
$$\det (D_{k})=\lambda_{1}\cdot \lambda_{2}\cdots \lambda_{k}$$
de tal forma que podemos decir que F es positiva si $\det (D_{k})>0$ y también $F$ es negativa si $\det (D_{k})< 0$ lo cual ocurre si $\det (D_{k})<0$ si k es impar y $\det (D_{k})>0$ si k es par para cada $k\in \left\{1,..,n\right\}$

$\textbf{Definición 2.}$

La forma $Q(x)=xAx^{t}$, que tiene asociada la matriz $A$ (respecto a la base canónica de $\mathbb{R}^{n}$) se dice:
$\textcolor{Red}{\text{Definida positiva}}$, si $Q(x)>0~\forall x \in~\mathbb{R}^{n}$

La forma $Q(x)=xAx^{t}$, que tiene asociada la matriz $A$ (respecto a la base canónica de $\mathbb{R}^{n}$) se dice:
$\textcolor{Red}{\text{Definida negativa}}$, si $Q(x)<0~\forall x\in~\mathbb{R}^{n}$

$\textbf{Definición 3.}$ Si la forma $Q(x)=xAx^{t}$ es definida positiva, entonces $f$ tiene un mínimo local en en $x$. Si la forma $Q(x)=xAx^{t}$ es definida negativa, entonces $f$ tiene un máximo local en en $x$.

$\textbf{Definición 4.}$ Dada una matriz cuadrada $A=a_{ij}j=1,…,ni=1,…,n$ se consideran las submatrices angulares $A_{k}k=1,…,n$ definidas como $$A_{1}=(a_{11})~A_{2}=\left(\begin{matrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{matrix}\right)~~A_{3}=\left(\begin{matrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{matrix}\right),\cdots,A_{n}=A$$
se define $\det A_{k}=\triangle_{k}$

$\textbf{Criterio 1 (a)}$ Se tiene entonces que la forma $Q(x)=xAX^{t}$ es definida positiva si y solo si todos los determinantes $\triangle_{k}~~k=1,…,n$ son números positivos.

$\textbf{Criterio 1 (b)}$ La forma $Q(x)=xAX^{t}$ es definida negativa si y solo si los dterminantes $\triangle_{k}k=1,…,n$ tienen signos alternados comenzando por $\triangle_{1}<0,\triangle_{2}>0,…$ respectivamente.

$\textbf{Ejemplo}$ Consideremos la función $f:\mathbb{R}^3\rightarrow\mathbb{R}$ $f(x,y,z)=\sin x +\sin y + \sin z -\sin(x+y+z)$, el punto $P=\left(\frac{\pi}{2},\frac{\pi}{2},\frac{\pi}{2}\right)$ es
un punto crítico de $f$ y en ese punto la matriz hessiana de
$f$ es $$H(p)=\left[\begin{array}{ccc}
-2 & -1 & -1 \\
-1 & -2 & -1 \\
-1 & -1 & -2 \\
\end{array}
\right]
$$

los determinantes de las submatrices angulares son
$$\Delta_1=det(-2)\qquad \quad $$ $$\Delta_2=det \left[
\begin{array}{cc}
-2 & -1 \
-1 & -2 \
\end{array}
\right]$$

$$\Delta_3=det H(p)=-4$$ puesto que son signos alternantes con $\Delta t< 0$ concluimos que la funcion $f$ tiene en $\left(\frac{\pi}{2},\frac{\pi}{2},\frac{\pi}{2}\right)$ un máximo local. Este máximo local vale $f\left(\frac{\pi}{2},\frac{\pi}{2},\frac{\pi}{2}\right)=4$