Archivo de la categoría: Sin clasificar

Convergencia puntual y convergencia uniforme

Por Lizbeth Fernández Villegas

Introducción

En entradas anteriores trabajamos ideas de convergencia de sucesiones. En ellas se observa una secuencia de puntos de un espacio métrico y se analiza si se pueden acercar mucho entre ellos o si se acercan a algún otro punto. En esta entrada, y otras correspondientes a la sección, observaremos sucesiones originadas por puntos obtenidos al evaluar funciones. Al comparar distancias entre puntos de la imagen de esas funciones podemos pensar ahora en cercanía de funciones, más aún, en si se aproximan a alguna función específica. ¡Comenzamos!

Sea $A$ un conjunto y $(X,d)$ un espacio métrico. Para cada $n \in \mathbb{N}$ considera una función $f_n:A \to X.$ Esto define una sucesión de funciones $(f_n)_{n \in \mathbb{N}}.$

Representación de una sucesión de funciones

A partir de un punto $a \in A$ (fijo) podemos definir otra sucesión con los valores que cada una de las funciones anteriores asignan a ese punto. Es decir, con los términos $f_1(a), f_2(a), f_3(a), …$ definimos la sucesión $(f_n(a))_{n \in \mathbb{N}}.$

Representación de una sucesión $(f_n(a))_{n \in \mathbb{N}}.$

Es natural preguntarse si esa sucesión de puntos es convergente. Gráficamente podemos observar que esto depende de cómo están definidas las funciones y también del valor $a$ elegido en el dominio $A.$ Por ejemplo, en el siguiente dibujo, la sucesión generada con las funciones evaluadas en $a_1$ es convergente, pues los puntos se van aproximando al eje horizontal. Por otro lado, la generada a partir del punto $a_2$ no lo es; sus puntos tienden a infinito.

Sucesiones $(f_n(a_1))_{n \in \mathbb{N}} \,$ y $(f_n(a_2))_{n \in \mathbb{N}},$

Para formalizar estas ideas, al final de esta sección se te pedirá demostrar que la sucesión de funciones del ejemplo anterior evaluadas en $a_1$ (un punto menor que cero), es convergente. ¿Cuál es el límite? Por el contrario, para un punto mayor que cero la sucesión tiende a infinito. ¿Qué pasa al evaluar las funciones en cero?

Pero en un conjunto donde todos los puntos $a$ forman sucesiones convergentes $(f_n(a))_{n \in \mathbb{N}},$ podemos pensar en cada límite de esas sucesiones como el valor que otra función $f$ asigna en cada punto $a.$ Eso inspira la siguiente:

Definición. Convergencia puntual: Si $(f_n)_{n \in \mathbb{N}} \,$ es una sucesión de funciones donde para cada $n \in \mathbb{N}$ se tiene $f_n: A \to X,$ decimos que $(f_n)_{n \in \mathbb{N}} \,$ converge puntualmente en $A$ a una función $f:A \to X$ si para cada punto $a \in A$ se cumple que $\underset {n \to \infty}{lim} \, f_n(a) = f(a).$

Aunque la sucesión de funciones del ejemplo anterior no converge puntualmente en $\mathbb{R},$ sí lo hace en el intervalo $(- \infty , 0].$ Converge puntualmente a la función dada por:

\begin{equation*}
f(x) = \begin{cases}
0 & \text{si $x < 0$} \\
1 & \text{si $x = 0$}
\end{cases}
\end{equation*}

La sucesión de funciones converge puntualmente a la función $f.$

La función $f$ recibe el nombre de límite puntual de la sucesión de funciones $(f_n)_{n \in \mathbb{N}}.$

De acuerdo con la definición de convergencia puntual, para cada $\varepsilon >0$ y cada $a \in A$ se requiere de la existencia de un número $N_a \in \mathbb{N}$ tal que $\forall \, n\geq N_a, \, d(f_n(a),f(a)) < \varepsilon.$

Es importante notar que, incluso cuando todas las sucesiones $(f_n(a))_{n \in \mathbb{N}} \,$ son convergentes, posiblemente el natural $N_a \,$ que satisface la definición de convergencia será diferente al variar el punto $a$ en el dominio, de ahí que lo indiquemos con un subíndice.

Tomemos nuevamente el ejemplo anterior en el intervalo $(- \infty, 0]$ donde la sucesión de funciones converge puntualmente. Partiendo de un $\varepsilon_0 >0$ fijo, observemos las siguientes sucesiones, en distintos valores del intervalo.

Puntos dentro del radio $\varepsilon_0$

Mientras que para el punto $a_1$ la sucesión se acerca al punto de convergencia $f(a_1) = 0$ en distancias menores que $\varepsilon _0$ a partir del punto evaluado en $f_2,$ para el punto $a_2$ no se acerca lo suficiente sino hasta $f_3.$ Por otra parte, los puntos de las funciones evaluadas en $a_3$ del dibujo, no se acercan en menos que $\varepsilon _0$ a su respectivo punto de convergencia sino hasta a partir de $f_k.$ Entonces, los naturales que satisfacen la condición pueden proponerse como:
$$N_{a_1} = 2; \, N_{a_2}=3; \, N_{a_3} = k$$
¿Es posible reasignar un mismo natural a los puntos $a_1, \, a_2, \, a_3$ y satisfacer también la definición de convergencia?
¿Será posible hacerlo en todos los puntos de $(- \infty ,0]$

Cuando para todo $\varepsilon>0$ sí sea posible asegurar la existencia de un mismo valor natural $N$ que afirme la convergencia de todas las sucesiones $(f_n(a))_{a \in A} \,$ hablaremos de que la sucesión de funciones converge uniformemente:

Definición. Convergencia uniforme: Considera una sucesión de funciones $(f_n)_{n \in \mathbb{N}} \,$ donde para cada $n \in \mathbb{N}, \, f_n:A \to X \, $ con $A$ un conjunto y $(X,d)$ un espacio métrico. Decimos que $(f_n)_{n \in \mathbb{N}} \,$ converge uniformemente a una función $f:A \to X$ si para toda $\varepsilon >0$ existe $N \in \mathbb{N}$ tal que para toda $n \geq N$ y para toda $a \in A$ se cumple que $d(f_n(a),f(a))< \varepsilon.$

En este caso nos referiremos a $f$ como el límite uniforme de $(f_n)_{n \in \mathbb{N}}.$

Ejemplo
Consideremos la misma sucesión de funciones $(n^x)_{n \in \mathbb{N}} \,$ pero ahora con dominio $(- \infty, a]$ con $a < 0.$

Sea $\varepsilon >0$. Toma el $N_a \in \mathbb{N}$ que satisface que $\forall n\geq N_a, \, d(f_n(a),0) < \varepsilon$ el cual existe, pues $f_n(a) \to 0.$ Nota que este mismo natural funciona para probar la convergencia de la sucesión de puntos de funciones evaluadas en cualquier otro punto de $(- \infty,a].$ La demostración de este hecho quedará como ejercicio.

A partir de la función morada, todas las siguientes están dentro de la región de $\varepsilon$ en el dominio.

Nota que si una sucesión $(f_n)$ converge uniformemente a $f$ entonces también converge puntualmente a $f.$ Por el contrario, podemos tener sucesiones que convergen puntualmente pero no uniformemente:

Ejemplo: Aunque la sucesión $(n^x)_{n \in \mathbb{N}} \,$ converge puntualmente en $(- \infty , 0]$ no converge uniformemente en el mismo dominio. Sea $\varepsilon = \frac{1}{2}$ y $k \in \mathbb{N}.$ Como la imagen de $k^x$ es $(0,1]$ entonces existe $a_0 \in (- \infty , 0)$ (donde $(n^{a_0})_{n \in \mathbb{N}} \to 0$) tal que $k^{a_0}> \varepsilon .$ Por lo tanto, el límite no es uniforme.

Esta no es la primera vez que hablamos de identificar distancias entre una función y otra. En la entrada Espacios de funciones definimos el espacio $\mathcal{B}(A,X)$ cuyos elementos son funciones acotadas de un conjunto $A$ en un espacio $X$ y la métrica está dada por:
$$d_\infty(f,g)= \underset{a \in A}{sup \,} \, d(f(a),g(a)), \, f,g \in \mathcal{B}(A,X)$$

Representación distancia entre funciones acotadas

La convergencia uniforme de una sucesión de funciones acotadas es equivalente a la convergencia como elementos del espacio métrico de funciones $\mathcal{B}(A,X),$ es decir:

Proposición: Sea $(f_n)_{n \in \mathbb{N}} \,$ una sucesión en $\mathcal{B}(A,X).$ Entonces, $(f_n)_{n \in \mathbb{N}}$ converge uniformemente a $f: A \to X$ en $A$ si y solo si $(f_n)_{n \in \mathbb{N}}$ converge a $f$ en $\mathcal{B}(A,X).$

Demostración (ida):
Sea $\varepsilon >0.$ Como $(f_n)_{n \in \mathbb{N}}$ converge uniformemente a $f: A \to X$ en $A,$ existe $N \in \mathbb{N} \,$ tal que para cada $k \geq N$ se cumple que para cada $a \in A, \, d(f_k(a),f(a)) < \frac{\varepsilon}{2} .$

1. $f$ está en el espacio $\mathcal{B}(A,X):$
Como $f_N$ es acotada, existen $x_0 \in X$ y $M \in \mathbb{R}$ tales que para toda $a \in A,$
$d(f_N(a),x_0) \leq M$
En consecuencia $d(f(a),x_0) \leq d(f(a),f_N(a))+d(f_N(a),x_0) < \frac{\varepsilon}{2} + M < \varepsilon + M$
Y como esto es posible $\forall \varepsilon >0$ concluimos que $f$ es acotada.

2. $(f_n)_{n \in \mathbb{N}} \to f$ en $\mathcal{B}(A,X):$
Teniendo a $\varepsilon$ como cota superior del conjunto $\{ d(f_k(a),f(a)) : a \in A \}$ se sigue que $d_\infty(f_k,f)= \underset{a \in A}{sup \,} \, d(f_k(a),f(a)) \leq \frac{\varepsilon}{2} < \varepsilon ,$ lo cual demuestra que $(f_n)_{n \in \mathbb{N}}$ converge a $f$ en $\mathcal{B}(A,X).$

El regreso es análogo y se propone como ejercicio.

Definición. Sucesión uniformemente de Cauchy: Sea $(f_n)_{n \in \mathbb{N}} \,$ una sucesión de funciones con $f_n:A \to X, \, n \in \mathbb{N}.$ Decimos que $(f_n)$ es uniformemente de Cauchy en $A,$ si para todo $\, \varepsilon >0$ existe $N \in \mathbb{N}$ tal que para todo $\, l,m \geq N$ y para todo $ \, a \in A,$
$$d(f_l(a),f_m(a))< \varepsilon .$$

Nota que en la definición solo se menciona que las funciones de la sucesión se vuelven arbitrariamente cercanas dos a dos (en cualquier punto del dominio), a partir de alguna función.

La siguiente imagen muestra una sucesión uniformemente de Cauchy.

$f_k:[0,2] \to \mathbb{R}, \, f_k=\frac{x}{kx+1}, \, k \in \mathbb{N}$

¿Cuándo podremos decir que una sucesión de funciones con esta propiedad converge de manera uniforme?

Para finalizar, veamos el siguiente resultado en espacios donde toda sucesión de Cauchy es convergente.

Teorema. Criterio de convergencia uniforme de Cauchy. Sea $(X,d)$ un espacio métrico completo. Una sucesión de funciones $(f_n)_{n \in \mathbb{N}} \,$ con $f_n:A \to X, \, n \in \mathbb{N}$ converge uniformemente en $A$ si y solo si $(f_n)_{n \in \mathbb{N}}$ es uniformemente de Cauchy en $A.$

Demostración:
Partamos de suponer que $(f_n)_{n \in \mathbb{N}} \,$ converge uniformemente en $A$ a alguna función $f:A \to X.$ Sea $\varepsilon >0.$ Existe $N \in \mathbb{N}$ tal que para cada $l, m \geq N$ se cumple que para cada $a \in A$:
$$d(f_l(a),f_m(a)) \leq d(f_l(a),f_N(a))+d(f_N(a),f_m(a)) < \frac{\varepsilon}{2}+\frac{\varepsilon}{2} = \varepsilon.$$
Por lo tanto $(f_n)_{n \in \mathbb{N}} \,$ es uniformemente de Cauchy en $A.$

Ahora supón que $(f_n)_{n \in \mathbb{N}} \,$ es uniformemente de Cauchy en $A.$ Sea $\varepsilon>0.$ Existe $N \in \mathbb{N}$ tal que para cada $l, m \geq N$ se cumple que para cada $a \in A, \, d(f_l(a),f_m(a))< \varepsilon.$ Esto significa que la sucesión $(f_n(a))_{n \in \mathbb{N}}$ (formada por los puntos de las funciones evaluadas en un $a \in A$ fijo) es de Cauchy. Como $X$ es completo, se sigue que $(f_n(a))_{n \in \mathbb{N}} \to L_a$ para algún $L_a \in X.$
Sea $f:A \to X$ tal que para cada $a \in A, \, f(a) = L_a.$ Queda como ejercicio al lector demostrar que $f$ es el límite uniforme de $(f_n)_{n \in \mathbb{N}}.$

Más adelante…

Observaremos sucesiones de funciones continuas que convergen. ¿Será continua la función límite? ¿Dependerá de si la convergencia es puntual o uniforme?

Tarea moral

  1. Para cada $n \in \mathbb{N}$ considera la función $n^x: \mathbb{R} \to \mathbb{R}.$ Donde tanto en el dominio como en el contradominio, $\mathbb{R}$ tiene la métrica euclidiana. Sea $a \in \mathbb{R}.$ Demuestra que:
    a) Si $a<0$ entonces $(n^a)_{n \in \mathbb{N}}$ es convergente. ¿Cuál es el límite?
    b) Si $a >0$ entonces $(n^a)_{n \in \mathbb{N}}$ tiende a infinito.
    c) ¿Qué ocurre con la sucesión cuando $a=0?$
  2. Consideremos la misma sucesión de funciones $(n^x)_{n \in \mathbb{N}} \,$ pero ahora con dominio $(- \infty, a]$ con $a < 0.$ Sea $\varepsilon >0$. Toma el $N_a \in \mathbb{N}$ que satisface que $\forall n\geq N_a, \, d(f_n(a),0) < \varepsilon$ el cual existe, pues $f_n(a) \to 0.$ Demuestra que para todo $a^*<a$ también se cumple que $\forall n\geq N_a, \, d(f_n(a^*),0) < \varepsilon$ y por tanto la convergencia en $(- \infty,a]$ es uniforme.
  3. Demuestra el regreso de la siguiente proposición:
    Sea $(f_n)_{n \in \mathbb{N}} \,$ una sucesión en $\mathcal{B}(A,X).$ Entonces, $(f_n)_{n \in \mathbb{N}}$ converge uniformemente a $f: A \to X$ en $A$ si y solo si $(f_n)_{n \in \mathbb{N}}$ converge a $f$ en $\mathcal{B}(A,X).$
  4. En la demostración del criterio de convergencia uniforme de Cauchy, demuestra que $f$ como fue definida, es el límite uniforme de $(f_n)_{n \in \mathbb{N}}.$
  5. Supón que para cada $x \in A$ se cumple que $\underset{n \in \mathbb{N}}{lim} \, f_n(x) =f(x).$ Si definimos $M_n$ como $M_n=\underset{n \in \mathbb{N}}{sup} \, \, d(f_n(x),f(x))$ entonces $f_n \to f$ de manera uniforme si y solo si $M_n \to 0$ en $\mathbb{R}.$

Enlaces:

Continuación extremos locales.

Por Angélica Amellali Mercado Aguilar

Introducción

Extremos Locales parte 2

Entre las caracteristicas geometricas básicas de la gráficas de una
función estan sus puntos extremos, en los cuales la función alcanza
sus valores mayor y menor.

Definición 1. Si $f:u\subset \mathbb{R}^n \rightarrow
\mathbb{R}$ es una función escalar, dado un punto $x_0 \in u$
se llama mínimo local de $f$ si existe una vecindad $v$ de $x_0$ tal que $\forall x \in v$ , $f(x)>f(x_0)$. De manera analoga, $x_0 \in u$ es un máximo local si existe una vecindad $v$ de $x_0$ tal que $f(x)< f(x_0)$, $\forall \quad x \in v$. El punto $x_0 \in u$ es un extremo local o relativo, si es un mínimo local o máximo local.

Teorema 1. $\textcolor{Red}{\textbf{Criterio de la primera derivada}}$ Si $u \in \mathbb{R}$ es abierto, la función $f:u\subset \mathbb{R}^n \rightarrow \mathbb{R}$ es diferenciable y $x_0 \in u$ es un extremo local entonces $\nabla f(x_0)=0$, esto es $x_0$ es un punto crítico de $f$.

Demostración. Supongamos que $t$ alcanza su máximo local en $x_0$. Entonces para cualquier $h \in \mathbb{R}^n$ la función $g(t)=f(x_0+th)$ tiene un máximo local en $t=0$. Asi, del cálculo de una variable $g'(0)=0$ ya que como $g(0)$ es máximo local, $g(t)\leq g(0)$ para $t > 0$ pequeño

$$\therefore \quad g'(0)=\displaystyle\lim_{t \rightarrow t_0^+}\frac{g(t)-g(0)}{t}=0$$

Análogamente para $t< 0$ pequeño tomamos

$$g'(0)=\displaystyle\lim_{t \rightarrow t_0^-}\frac{g(t)-g(0)}{t}=0$$

Ahora por regla de la cadena $$g'(0)=\frac{\partial f}{\partial x_{1}}(x_{0})h_{1}+\frac{\partial f}{\partial x_{2}}(x_{0})h_{2}+\cdots+\frac{\partial f}{\partial x_{n}}(x_{0})h_{0}=\nabla f(x_{0})\cdot h$$
Así $\nabla f(x_{0})\cdot h=0 \quad \forall \: h$ de modo que $\nabla f(x_{0})=0$. En resumen si $x_0$ es un extremo local, entonces $\displaystyle\frac{\partial f}{\partial x_i}(x_0)=0 \quad \forall~i=1,\ldots,n$. En otras palabras $\nabla f(x_0)=0$.

Ejemplo. Hallar los máximos y mínimos de la función $f:\mathbb{R}^2 \rightarrow \mathbb{R}$, definida por $$f(x,y)=x^2+y^2-2x-6y+14$$

Solución. Debemos identificar los puntos críticos de $f$ resolviendo $\displaystyle{\frac{\partial f}{\partial x}=0}$, $\displaystyle{\frac{\partial f}{\partial y}=0}$ para $x,y$, $$2x-2=0~~~2y-6=0$$ De modo que el punto crítico es $(1,3)$. Como $$f(x,y)=\left(x^{2}-2x+1\right)+\left(y^{2}-6y+9\right)+4=\left(x-1\right)^{2}+\left(y-3\right)^{2}+4$$
tenemos que $f(x,y)\geq 4$ por lo tanto en $(1,3)$ f alcanza un mínimo relativo.

Ejemplo. Considerar la función $f:\mathbb{R}^2 \rightarrow \mathbb{R}$,
$f(x,y)=4-x^2-y^2$ entonces $\displaystyle{\frac{\partial f}{\partial x}=-2x}$, $\displaystyle{\frac{\partial f}{\partial y}=-2y}$. $f$ solo tiene un punto crítico en el origen, donde el valor de $f$ es 4. Como $$f(x,y)=4-(x^{2}+y^{2})$$
tenemos que $f(x,y)\leq 4$ por lo tanto en $(0,0)$ f alcanza un máximo relativo.

Ejemplo. En el siguiente ejemplo mostramos que no todo punto critico es un valor extremo\Sea $f(x,y)=x^{2}y+y^{2}x$ tenemos que sus puntos criticos son
$$\frac{\partial f}{\partial x}=2xy+y^{2}~~~\frac{\partial f}{\partial y}=2xy+x^{2}=0$$
por lo tanto

$$\left(\begin{matrix}2xy+y^{2}=0\\2xy+x^{2}=0\end{matrix}\right)\Leftrightarrow\left(\begin{matrix}x=y\\x=-y\end{matrix}\right)$$

tomando $x=-y$ tenemos que
$$2xy+y^{2}=0~\Rightarrow~-2y^{2}+y^{2}=0~\Rightarrow~-y^{2}=0\Rightarrow~y=0~\Rightarrow~x=0$$
tomando $x=y$ tenemos que
$$2xy+y^{2}=0~\Rightarrow~2y^{2}+y^{2}=0~\Rightarrow~-3y^{2}=0\Rightarrow~y=0~\Rightarrow~x=0$$
por lo tanto $(0,0)$ es el único punto critico.

Ahora bien para $f(x,y)$ tomamos $x=y$
$$f(x,x)=2x^{3}$$
la cual es ($<0$ si $x<0$) y ($>0$ si $x>0$) por lo tanto el punto critico $(0,0)$ no es ni máximo ni mínimo local de $f$

Ahora bien para $f(x,y)$ tomamos $x=-y$
$$f(x,-x)=0~~~\forall x$$
por lo tanto el punto critico $(0,0)$ no es ni máximo ni mínimo local de $f$

Para el caso de funciones $f:\mathbb{R}^{3}\rightarrow\mathbb{R}$ tenemos que recordando un poco de la expresión de taylor
$$f(x,y)=f(x_{0},y_{0})+\left(\frac{\partial f}{\partial
x}\right){p}(x-x_{0})+\left(\frac{\partial f}{\partial
y}\right){p}(y-y_{0})+\left(\frac{\partial f}{\partial
z}\right){p}(z-z_{0})+$$

$$\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial
x^{2}}{p}(x-x_{0})^{2}+2\frac{\partial^{2}f}{\partial x \partial
y}{p}(x-x_{0})(y-y_{0})+\frac{\partial^{2}f}{\partial
y^{2}}{p}(y-y_{0})^{2}+2\frac{\partial^{2}f}{\partial
x\partial z}{p}(z-z_{0})(x-x_{0})+2\frac{\partial^{2}f}{\partial
y\partial z}{p}(z-z_{0})(y-y_{0})\right)}$$
$$\textcolor{Red}{+\frac{\partial^{2}f}{\partial z^{2}}_{p}(z-z_{0})}$$

Haciendo $x-x_{0}=h_{1},y-y_{0}=h_{2},z-z_{0}=h_{3}$ podemos escribir el término rojo de la siguiente manera

$$\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2}f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2}f}{\partial y^{2}}h_{2}^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}\right)$$

y también se puede ver como producto de matrices
$$\frac{1}{2!}(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

Si $(x_{0},y_{0},z_{0})$ es un punto critico de la función entonces en la expresión de Taylor
$$f(x,y)=f(x_{0},y_{0})+\left(\frac{\partial f}{\partial
x}\right)_{p}(x-x_{0})+\left(\frac{\partial f}{\partial
y}\right)_{p}(y-y_{0})+\left(\frac{\partial f}{\partial
z}\right){p}(z-z_{0})$$

$$\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial
x^{2}}_{p}(x-x_{0})^{2}+2\frac{\partial^{2}f}{\partial x \partial
y}_{p}(x-x_{0})(y-y_{0})+\frac{\partial^{2}f}{\partial
y^{2}}_{p}(y-y_{0})^{2}+2\frac{\partial^{2}f}{\partial
x\partial z}_{p}(z-z_{0})(x-x_{0})+2\frac{\partial^{2}f}{\partial
y\partial z}_{p}(z-z_{0})(y-y_{0})\right)}$$

$$\textcolor{Red}{+\frac{\partial^{2}f}{\partial
z^{2}}_{p}(z-z_{0})(x-x_{0})}$$

El término
$$\frac{\partial f}{\partial x}{p}(x-x{0})+\frac{\partial f}{\partial y}{p}(y-y{0})+\frac{\partial f}{\partial z}{p}(z-z{0})=0$$
y por lo tanto
$$f(x,y)-f(x_{0},y_{0})=\frac{1}{2!}(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

vamos a determinar el signo de la forma
$$Q(h)=\frac{1}{2!}(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

vamos a trabajar sin el término $\displaystyle{\frac{1}{2!}}$ que no afectara al signo de la expresión, tenemos entonces

$$Q(h)=(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial ^{2}f}{\partial
z\partial y}\\\frac{\partial^{2}f}{\partial
x\partial z}&\frac{\partial^{2}f}{\partial
y\partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)=\textcolor{Red}{\frac{\partial^{2}f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2}f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2}f}{\partial y^{2}}h_{2}^{2}}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$
$$=\textcolor{Red}{\frac{\partial^{2}f}{\partial x^{2}}\left(h_{1}+\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}\right)^{2}+\left(\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}\right)h_{2}^{2}}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

hacemos $\displaystyle{b_{1}=\frac{\partial^{2}f}{\partial x^{2}},h_{1}’=\left(h_{1}+\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}\right),b_{2}=\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}},~~h_{2}’=h_{2}}$ y obtenemos

$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

que podemos escribir
$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}\left(h_{1}+\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}-\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}\right)h_{3}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}\left(h_{1}’-\frac{\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}h_{2}’\right)h_{3}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{1}’h_{3}+\left(2\frac{\partial^{2}f}{\partial y\partial z}-\frac{2\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}\right)h_{2}’h_{3}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$

hacemos
$$2b_{23}=2\frac{\partial^{2}f}{\partial y\partial z}-\frac{2\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}$$y obtenemos
$$=b_{1}h_{1}’^{2}+b_{2}h_{2}’^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{1}’h_{3}+2b_{23}h_{2}’h_{3}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$
que se puede escribir

$$=b_{1}\left(h_{1}’^{2}+2\frac{\frac{\partial^{2}f}{\partial x\partial z}}{b_{1}}h_{1}’h_{3}+\left(\frac{\frac{\partial^{2}f}{\partial x\partial z}h_{3}}{b_{1}}\right)^{2}\right)+b_{2}\left(h_{2}’^{2}+2\frac{b_{23}}{b_{2}}h_{2}’h_{3}+\left(\frac{b_{23}}{b_{2}}h_{3}\right)^{2}\right)+\left(\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}\right)h_{3}^{2}$$

hacemos
$$b_{3}=\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}$$
y obtenemos

$$=b_{1}\left(h_{1}’^{2}+2\frac{\frac{\partial^{2}f}{\partial x\partial z}}{b_{1}}h_{1}’h_{3}+\left(\frac{\frac{\partial^{2}f}{\partial x\partial z}h_{3}}{b_{1}}\right)^{2}\right)+b_{2}\left(h_{2}’^{2}+2\frac{b_{23}}{b_{2}}h_{2}’h_{3}+\left(\frac{b_{23}}{b_{2}}h_{3}\right)^{2}\right)+b_{3}h_{3}^{2}$$
$$=b_{1}\left(h_{1}’+\frac{\frac{\partial^{2}f}{\partial x\partial z}}{b_{1}}h_{3}\right)^{2}+b_{2}\left(h_{2}’+\frac{b_{23}}{b_{2}}h_{3}\right)^{2}+b_{3}h_{3}^{2}$$
esta última expresión será positiva si y solo si $b_{1}>0~~b_{2}>0$ y $b_{3}>0$ en clases pasadas vimos los dos primeros, veamos ahora que $$b_{3}=\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}>0$$
tenemos entonces que

$$\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{b_{1}}-\frac{b_{23}^{2}}{b_{2}}=\frac{\partial^{2}f}{\partial z^{2}}-\frac{\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{\frac{\partial^{2}f}{\partial z^{2}}}-\frac{\left(\frac{\partial^{2}f}{\partial y\partial z}-\frac{2\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial x^{2}}}\right)^{2}}{\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}}$$

$$=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}-\frac{\frac{\left(\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\left(\frac{\partial^{2}f}{\partial x^{2}}\right)^{2}}}{\frac{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}}=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}}-\frac{\left(\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)\frac{\partial^{2}f}{\partial x^{2}}}$$

$$=\frac{\left(\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}\right)\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)-\left(\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)}$$

$$=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}-\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}+\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}-\left(\frac{\partial^{2}f}{\partial y\partial z}\right)^{2}\left(\frac{\partial^{2}f}{\partial x^{2}}\right)^{2}-}{\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)}$$

$$\frac{2\left(\frac{\partial^{2}f}{\partial x^{2}}\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}\right)-\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}{\frac{\partial^{2}f}{\partial x^{2}}\left(\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}\right)}$$
$$=\frac{\frac{\partial^{2}f}{\partial z^{2}}\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\frac{\partial^{2}f}{\partial z^{2}}\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}-\frac{\partial^{2}f}{\partial y^{2}}\left(\frac{\partial^{2}f}{\partial x\partial z}\right)^{2}-\left(\frac{\partial^{2}f}{\partial y\partial z}\right)^{2}\frac{\partial^{2}f}{\partial x^{2}}+2\frac{\partial^{2}f}{\partial y\partial z}\frac{\partial^{2}f}{\partial x\partial z}\frac{\partial^{2}f}{\partial y\partial x}}{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}$$

$$=\frac{\left|\begin{matrix}\frac{\partial^{2}f}{\partial x^{2}}&\frac{\partial^{2}f}{\partial y\partial x}&\frac{\partial^{2}f}{\partial z\partial x}\\\frac{\partial^{2}f}{\partial x\partial y}&\frac{\partial^{2}f}{\partial y^{2}}&\frac{\partial^{2}f}{\partial z\partial y}\\\frac{\partial^{2}f}{\partial x\partial z}&\frac{\partial^{2}f}{\partial y\partial z}&\frac{\partial^{2}f}{\partial z^{2}}\end{matrix}\right|}{\frac{\partial^{2}f}{\partial y^{2}}\frac{\partial^{2}f}{\partial x^{2}}-\left(\frac{\partial^{2}f}{\partial y\partial x}\right)^{2}}$$

por lo tanto
$$b_{3}>0~\Leftrightarrow~\left|\begin{matrix}\frac{\partial^{2}f}{\partial x^{2}}&\frac{\partial^{2}f}{\partial y\partial x}&\frac{\partial^{2}f}{\partial z\partial x}\\\frac{\partial^{2}f}{\partial x\partial y}&\frac{\partial^{2}f}{\partial y^{2}}&\frac{\partial^{2}f}{\partial z\partial y}\\\frac{\partial^{2}f}{\partial x\partial z}&\frac{\partial^{2}f}{\partial y\partial z}&\frac{\partial^{2}f}{\partial z^{2}}\end{matrix}\right|>0$$

Un poco de Algebra Lineal

Si $A\in M_{n\times n}$ una matriz simétrica entonces existe una $B\in M_{n\times n}$ una matriz ortonormal tal que
$$BAB^{T}$$
es una matriz diagonal, es decir

$$BAB^{T}=\left[\begin{matrix}\lambda_{1}&\cdots&0\\0&\ddots&\vdots\\0&\cdots&\lambda_{n}\end{matrix}\right]$$
Las matrices ortonormales se usan para realizar un cambio de base.

Si $F:\mathbb{R}^{n}\rightarrow\mathbb{R}$ es una forma cuadrática que tiene asociada la matriz simétrica A (en una base ortonormal) es decir
$$F(x_{1},x_{2},…,x_{n})=(x_{1}\cdots x_{n})A(x_{1}\cdots x_{n})^{T}$$
existe entonces una base ortonormal tal que la matriz asociada a $F$ en esta nueva base es una matriz diagonal.

Tenemos que si
$$B=\left[\begin{matrix}b_{11}&\cdots&b_{1n}\\\vdots&\ddots&\vdots\\b_{n1}&\cdots&b_{nn}\end{matrix}\right]$$
es tal que $BAB^{T}$ es diagonal entonces
$$(x_{1}\cdots x_{n})=[x_{1}’\cdots x_{n}’]\left[\begin{matrix} b_{11} & \cdots &b_{1n}\\ \vdots&\ddots&\vdots \\b_{n1}&\cdots&b_{nn}\end{matrix}\right]$$
$$=[x_{1}’\cdots x_{n}’]B$$
Por lo que
$$F(x_{1},x_{2},…,x_{n})=(x_{1}\cdots x_{n})A(x_{1}\cdots x_{n})^{T}$$
$$=F(x_{1},x_{2},…,x_{n})=(x_{1}’\cdots x_{n}’)BA(x_{1}’\cdots x_{n}’B)^{T}$$
$$=(x_{1}’\cdots x_{n}’)BAB^{T}(x_{1}’\cdots x_{n})^{T}$$
$$=(x_{1}’\cdots x_{n}’)\left[\begin{matrix}\lambda_{1}&\cdots&0\\0&\ddots&\vdots\\0&\cdots&\lambda_{n}\end{matrix}\right](x_{1}’\cdots x_{n})^{T}$$
$$=\lambda_{1}x_{1}^{2}+\lambda_{2}x_{2}^{2}+\cdots +\lambda_{n}x_{n}^{2}$$

por lo que $F$ es positiva si $\lambda_{1},\cdots,\lambda_{n}$ son positivos, de igual manera $F$ es negativa si $\lambda_{1},\cdots,\lambda_{n}$ son negativos

Si definimos, para cada $k\in{1,\ldots,n}$
$$D_{k}=\left[\begin{matrix}\lambda_{1}&\cdots&0\\ \vdots&\ddots&\vdots\\0&\cdots&\lambda_{k}\end{matrix}\right]$$

entonces
$$\det (D_{k})=\lambda_{1}\cdot \lambda_{2}\cdots \lambda_{k}$$
de tal forma que podemos decir que F es positiva si $\det (D_{k})>0$ y también $F$ es negativa si $\det (D_{k})< 0$ lo cual ocurre si $\det (D_{k})<0$ si k es impar y $\det (D_{k})>0$ si k es par para cada $k\in \left\{1,..,n\right\}$

Definición 2. La forma $Q(x)=xAx^{t}$, que tiene asociada la matriz $A$ (respecto a la base canónica de $\mathbb{R}^{n}$) se dice:
$\textcolor{Red}{\text{Definida positiva}}$, si $Q(x)>0~\forall x \in~\mathbb{R}^{n}$

La forma $Q(x)=xAx^{t}$, que tiene asociada la matriz $A$ (respecto a la base canónica de $\mathbb{R}^{n}$) se dice:
$\textcolor{Red}{\text{Definida negativa}}$, si $Q(x)<0~\forall x\in~\mathbb{R}^{n}$

Definición 3. Si la forma $Q(x)=xAx^{t}$ es definida positiva, entonces $f$ tiene un mínimo local en en $x$. Si la forma $Q(x)=xAx^{t}$ es definida negativa, entonces $f$ tiene un máximo local en en $x$.

Definición 4. Dada una matriz cuadrada $A=a_{ij}j=1,…,ni=1,…,n$ se consideran las submatrices angulares $A_{k}k=1,…,n$ definidas como $$A_{1}=(a_{11})~A_{2}=\left(\begin{matrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{matrix}\right)~~A_{3}=\left(\begin{matrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{matrix}\right),\cdots,A_{n}=A$$
se define $\det A_{k}=\triangle_{k}$

$\textbf{Criterio 1 (a)}$ Se tiene entonces que la forma $Q(x)=xAX^{t}$ es definida positiva si y solo si todos los determinantes $\triangle_{k}~~k=1,…,n$ son números positivos.

$\textbf{Criterio 1 (b)}$ La forma $Q(x)=xAX^{t}$ es definida negativa si y solo si los dterminantes $\triangle_{k}k=1,…,n$ tienen signos alternados comenzando por $\triangle_{1}<0,\triangle_{2}>0,…$ respectivamente.

Ejemplo. Consideremos la función $f:\mathbb{R}^3\rightarrow\mathbb{R}$ $f(x,y,z)=\sin x +\sin y + \sin z -\sin(x+y+z)$, el punto $P=\left(\frac{\pi}{2},\frac{\pi}{2},\frac{\pi}{2}\right)$ es
un punto crítico de $f$ y en ese punto la matriz hessiana de
$f$ es $$H(p)=\left[\begin{array}{ccc}
-2 & -1 & -1 \\
-1 & -2 & -1 \\
-1 & -1 & -2 \\
\end{array}
\right]
$$

los determinantes de las submatrices angulares son
$$\Delta_1=det(-2)\qquad \quad $$ $$\Delta_2=det \left[
\begin{array}{cc}
-2 & -1 \
-1 & -2 \
\end{array}
\right]$$

$$\Delta_3=det H(p)=-4$$ puesto que son signos alternantes con $\Delta t< 0$ concluimos que la funcion $f$ tiene en $\left(\frac{\pi}{2},\frac{\pi}{2},\frac{\pi}{2}\right)$ un máximo local. Este máximo local vale $f\left(\frac{\pi}{2},\frac{\pi}{2},\frac{\pi}{2}\right)=4$

Aproxiación de Taylor, Extremos Locales.

Por Angélica Amellali Mercado Aguilar

$\textcolor{Red}{\textbf{Aproximación de Taylor para funciones $f:\mathbb{R}^{3}\rightarrow\mathbb{R}$}}$

El caso de la aproximación con $n=2$ nos queda
$$f(x,y)=f(x_{0},y_{0})+\textcolor{Blue}{\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)}+$$

$$\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})(x-x_{0})^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})(x-x_{0})(y-y_{0})+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})(y-y_{0})^{2}\right)}+R_{2}$$
Donde la expresión azul se puede escribir

$$\textcolor{Blue}{\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)=\nabla f(x_{0},y_{0},z_{0})\cdot (h_{1},h_{2},h_{3})}$$
y la expresión en rojo

$$\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial
x^{2}}{p}(x-x{0})^{2}+2\frac{\partial^{2}f}{\partial y \partial
x}{p}(x-x{0})(y-y_{0})+\frac{\partial^{2}f}{\partial
y^{2}}{p}(y-y{0})^{2}\right)}$$ Define una forma cuadratica que
podemos escribir

$$\textcolor{Red}{\frac{1}{2!}(x-x_{0}\quad y-y_{0})\left(\begin{array}{cc}
\frac{\partial^{2}f}{\partial x^{2}}&\frac{\partial^{2}f}{\partial y \partial x}\\
\frac{\partial^{2}f}{\partial x \partial y }&\frac{\partial^{2}f}{\partial y^{2}} \end{array}\right)\left(\begin{array}{c}
x-x_{0} \\y-y_{0} \end{array}\right)}$$

Por lo que el desarrollo de Taylor se puede escribir
$$f(x,y)=f(x_{0},y_{0})+\nabla f(x_{0},y_{0},z_{0})\cdot (h_{1},h_{2},h_{3})+\frac{1}{2!}(x-x_{0}\quad y-y_{0})\left(\begin{array}{cc}
\frac{\partial^{2}f}{\partial x^{2}}&\frac{\partial^{2}f}{\partial y \partial x} \\
\frac{\partial^{2}f}{\partial x \partial y }&\frac{\partial^{2}f}{\partial y^{2}} \end{array}\right)\left(\begin{array}{c}
x-x_{0} \\y-y_{0} \end{array}\right)$$

A la matriz

$$\left(\begin{array}{cc}
\frac{\partial^{2}f}{\partial x^{2}}&\frac{\partial^{2}f}{\partial y \partial x} \\
\frac{\partial^{2}f}{\partial x \partial y }&\frac{\partial^{2}f}{\partial y^{2}} \end{array}\right)$$

se le conoce como matriz Hessiana y se denota $H(x_{0},y_{0})$ por lo que el desarrollo de Taylor se puede escribir
$$f(x,y)=f(x_{0},y_{0})+\nabla f(x_{0},y_{0},z_{0})\cdot (h_{1},h_{2},h_{3})+\frac{1}{2!}(x-x_{0}\quad y-y_{0})(H(x_{0},y_{0}))\left(\begin{array}{c}
x-x_{0} \\y-y_{0} \end{array}\right)$$

$\textcolor{Red}{\textbf{Aproximación de Taylor para funciones $f:\mathbb{R}^{3}\rightarrow\mathbb{R}$}}$

Sea $f:A\subset\mathbb{R}^{3}\rightarrow\mathbb{R}$ y sea $F(t)=f(x_{0}+h_{1}t,y_{0}+h_{2}t,z_{0}+h_{3}t)$ con $t\in[0,1]$, de esta manera f recorre el segmento de $[x_{0},y_{0},z_{0}]$ a $[x_{0}+h_{1}t,y_{0}+h_{2}t,z_{0}+h_{3}t]$. Se tiene entonces que usando la regla de la cadena

$$F'(t)=\frac{\partial f}{\partial x}(x_{0}+h_{1}t,y_{0}+h_{2}t,z_{0}+h_{3}t)\cdot \frac{d(x_{0}+h_{1}t)}{dt}+\frac{\partial f}{\partial y}(x_{0}+h_{1}t,y_{0}+h_{2}t,z_{0}+h_{3}t)\cdot \frac{d(y_{0}+h_{2}t)}{dt}+$$

$$\frac{\partial f}{\partial z}(x_{0}+h_{1}t,y_{0}+h_{2}t,z_{0}+h_{3}t)\cdot \frac{d(z_{0}+h_{3}t)}{dt}=$$

$$\frac{\partial f}{\partial x}(x_{0}+h_{1}t,y_{0}+h_{2}t,z_{0}+h_{3})\cdot h_{1}+\frac{\partial f}{\partial y}(x_{0}+h_{1}t,y_{0}+h_{2}t,z_{0}+h_{3})\cdot h_{2}+\frac{\partial f}{\partial z}(x_{0}+h_{1}t,y_{0}+h_{2}t,z_{0}+h_{3})\cdot h_{3}$$

Vamos ahora a calcular $F^{´´}(t)$

$$F^{´´}(t)=\frac{\partial}{\partial x}\left(\frac{\partial f}{\partial x}h_{1}+ \frac{\partial f}{\partial y}h_{2}+\frac{\partial f}{\partial z}h_{3}\right)h_{1}+\frac{\partial}{\partial y}\left(\frac{\partial f}{\partial x}h_{1}+ \frac{\partial f}{\partial y}h_{2}+\frac{\partial f}{\partial z}h_{3}\right)h_{2}+\frac{\partial}{\partial z}\left(\frac{\partial f}{\partial x}h_{1}+ \frac{\partial f}{\partial y}h_{2}+\frac{\partial f}{\partial z}h_{3}\right)h_{3}=$$

$$\frac{\partial^{2}f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2}f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2}f}{\partial y^{2}}h_{2}^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}$$
Ahora bien si se aplica la fórmula de Taylor con la forma del residuo de Lagrange a la función $$F(t)=f(x_{0}+h_{1}t,y_{0}+h_{2}t)$$ y ponemos $t=0$, y $n=2$ se tiene

$$F(t)=F(0)+\frac{1}{1!}F'(0)t+\frac{1}{2!}F^{´´}(0)t^{2}+R_{2}$$

ahora bien con $t=1$, $x=x_{0}+h_{1}$, $y=y_{0}+h_{2}$, $z=z_{0}+h_{3}$

$$f(x,y)=f(x_{0},y_{0})+\textcolor{Blue}{\left(\frac{\partial f}{\partial
x}\right){p}(x-x_{0})+\left(\frac{\partial f}{\partial
y}\right){p}(y-y_{0})+\left(\frac{\partial f}{\partial
z}\right){p}(z-z_{0})}+$$

$$\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial
x^{2}}{p}(x-x_{0})^{2}+2\frac{\partial^{2}f}{\partial x \partial
y}{p}(x-x_{0})(y-y_{0})+\frac{\partial^{2}f}{\partial
y^{2}}{p}(y-y_{0})^{2}+2\frac{\partial^{2}f}{\partial
x\partial z}{p}(z-z_{0})(x-x_{0})+2\frac{\partial^{2}f}{\partial
y\partial z}{p}(z-z_{0})(y-y_{0})\right)}$$

$$\textcolor{Red}{+\frac{\partial^{2}f}{\partial
z^{2}}{p}(z-z_{0})}+R_{2}$$
Donde la expresión en azul se puede escribir

$$\textcolor{Blue}{\left(\frac{\partial f}{\partial
x}\right){p}(x-x_{0})+\left(\frac{\partial f}{\partial
y}\right){p}(y-y_{0})+\left(\frac{\partial f}{\partial
z}\right){p}(z-z_{0})=\nabla f(x_{0},y_{0},z_{0})\cdot (h_{1},h_{2},h_{3})}$$

y la expresión en rojo
$$\textcolor{Red}{\frac{1}{2!}\left(\frac{\partial^{2}f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2}f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2}f}{\partial y^{2}}h_{2}^{2}+2\frac{\partial^{2}f}{\partial x\partial z}h_{3}h_{1}+2\frac{\partial^{2}f}{\partial y\partial z}h_{3}h_{2}+\frac{\partial^{2}f}{\partial z^{2}}h_{3}^{2}\right)}$$

se puede ver como producto de matrices

$$\frac{1}{2!}(h_{1}~h_{2}~h_{3})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial y \partial x}&\frac{\partial^{2}f}{\partial z \partial x}\\ \frac{\partial^{2}f}{\partial x \partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial z \partial y}\\ \frac{\partial^{2}f}{\partial
x \partial z}&\frac{\partial^{2}f}{\partial y \partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

La matriz
$$\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}&\frac{\partial^{2}f}{\partial
z\partial x}\\\frac{\partial^{2}f}{\partial
x \partial y}&\frac{\partial^{2}f}{\partial
y^{2}}&\frac{\partial^{2}f}{\partial
z \partial y}\\\frac{\partial^{2}f}{\partial
x \partial z}&\frac{\partial^{2}f}{\partial
y \partial z}&\frac{\partial^{2}f}{\partial
z^{2}}\end{matrix}\right)$$
se le conoce como matriz Hessiana y se le denota $H(x_{0},y_{0},z_{0})$, por lo que la aproximación de Taylor se puede escribir

$$f(x,y)=f(x_{0},y_{0})+\nabla f(x_{0},y_{0},z_{0})\cdot (h_{1},h_{2},h_{3})+\frac{1}{2!}(h_{1}~h_{2}~h_{3})H(x_{0},y_{0},z_{0})\left(\begin{matrix}h_{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

$\textbf{Ejemplo}$ Considere la función $f(x,y)=e^{2x+3y}$
$f[(0,0)+(x,y)]=f(0,0) +\nabla f(0,0)\cdot(x,y)+\frac{1}{2}[xy]H(0,0)\left[\begin{array}{c} x\\y\end{array}\right]+r_2(x,y)$

donde $\displaystyle\lim _{(x,y)\rightarrow(0,0)} \displaystyle\frac{r(x,y)}{x^2+y^2}=0$

$\nabla f=\left(\displaystyle\frac{\partial f}{\partial x}, \displaystyle\frac{\partial f}{\partial y}\right)=(2e^{2x+3y},3e^{2x+3y})~~~~ \therefore \nabla f(0,0)=(2,3)$

$$
H(x,y)=\left[\begin{array}{cc}
\displaystyle\frac{\partial ^2f}{\partial x^2} & \displaystyle\frac{\partial ^2f}{\partial y\partial x}\\
\displaystyle\frac{\partial ^2f}{\partial x\partial y} & \displaystyle\frac{\partial ^2f}{\partial y^2}\end{array}\right]=
\left[\begin{array}{cc}
4e^{2x+3} & 6e^{2x+3y}\\
6e^{2x+3y} & 9e^{2x+3y}\end{array}\right] ~~~~ \therefore H(0,0)= \left(\begin{array}{cc} 4&6\\6&9\end{array}\right)
$$

Así

Así $f(x,y)=f(0,0)+(2,3)\cdot (x,y) +\frac{1}{2}[xy]\left(\begin{array}{cc} 4&6\\6&9 \end{array}\right)\left[\begin{array}{c} x\\y\end{array}\right]+r(x,y)$
$\therefore e^{2x+3y}=1+2x+3y+2x^2+6xy\frac{9}{2}y^2+r(x,y)$

$\textcolor{Red}{\textbf{Extremos Locales}}$

Entre las caracteristicas geometricas básicas de la gráficas de una función estan sus puntos extremos, en los cuales la función alcanza sus valores mayor y menor.

$\textbf{Definición 1.}$ Si $f:u\subset \mathbb{R}^n \rightarrow
\mathbb{R}$ es una función escalar, dado un punto $x_0 \in u$
se llama mínimo local de $f$ si existe una vecindad $v$ de $x_0$ tal que $\forall x \in v$ ,$f(x)>f(x_0)$. De manera analoga, $x_0 \in u$ es un máximo local si existe una vecindad $v$ de $x_0$ tal que $f(x)<f(x_0)$, $\forall \quad x \in v$. El punto $x_0 \in u$ es un extremo local o relativo, si es un mínimo local o máximo
local.

En la expresión del desarrollo de Taylor
$$f(x,y)=f(x_{0},y_{0})+\nabla f(x_{0},y_{0},z_{0})\cdot (h_{1},h_{2},h_{3})+\frac{1}{2!}(x-x_{0}\quad y-y_{0})(H(x_{0},y_{0}))\left(\begin{array}{c}
x-x_{0} \\y-y_{0} \end{array}\right)$$
Si consideramos los valores para los cuales

$$\nabla f(x_{0},y_{0},z_{0})=(0,0,0)$$
es decir los puntos críticos del gradiente entonces nuestra aproximación de Taylor nos queda

$$f(x,y)=f(x_{0},y_{0})+\frac{1}{2!}(x-x_{0}\quad y-y_{0})(H(x_{0},y_{0}))\left(\begin{array}{c}
x-x_{0} \\y-y_{0} \end{array}\right)$$
que se puede escribir
$$f(x,y)-f(x_{0},y_{0})=\frac{1}{2!}(x-x_{0}\quad y-y_{0})(H(x_{0},y_{0}))\left(\begin{array}{c}
x-x_{0} \\y-y_{0} \end{array}\right)$$

por lo que el signo del lado izquierdo $f(x,y)-f(x_{0},y_{0})$ dependerá del signo de la expresión
$$\frac{1}{2!}(x-x_{0}\quad y-y_{0})(H(x_{0},y_{0}))\left(\begin{array}{c}
x-x_{0} \\y-y_{0} \end{array}\right)$$

es decir dependerá del signo de la forma
$$\frac{1}{2!}(h_{1}~h_{2})\left(\begin{matrix}\frac{\partial^{2}f}{\partial
x^{2}}&\frac{\partial^{2}f}{\partial
y\partial x}\\\frac{\partial^{2}f}{\partial
x\partial y}&\frac{\partial^{2}f}{\partial
y^{2}}\end{matrix}\right)_{p}\left(\begin{matrix}h{1}\\h_{2}\\h_{3}\end{matrix}\right)$$

$\textbf{Teorema 1.}$ Sea $B=\left[\begin{array}{cc}
a & b \\
b & c \\
\end{array}
\right]$ y $H(h)=\frac{1}{2}[h_1,h_2]\left[
\begin{array}{cc}
a & b \\
b & c \\
\end{array}
\right]\left(
\begin{array}{c}
h_1 \\
h_2
\end{array}
\right)$ entonces $H(h)$ es definida positiva si y solo si $a>0$ y $ac-b^2>0$

$\small{Demostración.}$ Tenemos $$H(h)=\frac{1}{2}[h_1,h_2]\left[
\begin{array}{cc}
a h_1& bh_2 \\
b h_1& ch_2 \
\end{array}
\right]=\frac{1}{2}(ah_1^2+2bh_1h_2+ch_1^2)$$
si completamos el cuadrado
$$H(h)=\frac{1}{2}a\left(h_1+\frac{b}{a}h_2\right)^2+\frac{1}{2}\left(c-\frac{b^2}{a}\right)h_2^2$$
supongamos que $h$ es definida positiva. Haciendo
$h_2=0$ vemos que $a>0$. Haciendo $h_1=-\frac{b}{a}h_2$ $c-\frac{b^2}{a}>0$ ó $ac-b^2>0$. De manera analoga $H(h)$ es definida negativa si y solo si $a<0$ y $ac-b^2>0$. $\square$

Criterio del máximo y del mínimo para funciones de dos variables Sea $f(x,y)$ de clase
$C^3$ en un conjunto abierto $u$ de $\mathbb{R}^2$. Un punto $x_0,y_0$ es un mínimo local (Estricto) de $f$ si se cumple las siguientes tres condiciones:


$I)$ $\frac{\partial f}{\partial x}(x_0,y_0)=\frac{\partial f}{\partial y}(x_0,y_0)$
$II)$$\frac{\partial^2 f}{\partial x^2}(x_0,y_0)> 0$
$III)$ $\left(\frac{\partial^2 f}{\partial x^2}\right)\left(\frac{\partial^2 f}{\partial y^2}\right)-\left(\frac{\partial^2 f}{\partial x \partial y}\right)^2> 0$ en $(x_0,y_0)$ (Discriminante). Si en II) tenemos $<0$ en lugar de $>0$ sin cambiar III)
hay un máximo local.

Matemáticas Financieras: Ejemplos en aplicaciones reales

Por Erick de la Rosa

Introducción

Este apartado considera algunos casos reales en los que podemos aplicar los conocimientos adquiridos a lo largo de éstas notas. Son ejemplos que nos permiten conocer qué tipo de inversiones nos convienen más, como lo es cuando queremos invertir en CETES, ante dicha situación podemos usar el conocimiento adquirido para determinar, el valor de uno de sus títulos, y poner en práctica de forma real, para conocer mejor cual es el manejo real de algunas una de las formulas, evidenciando la forma en la que se pueden utilizar de forma aplicada en alguna situación real.

Aplicación en CETES

Como se estuvo exponiendo a lo largo del desarrollo de éstas notas, las matemáticas financieras son una poderosa herramienta, que nos sirve para determinar el valor del dinero a través del tiempo. Para realizar dicho análisis, vimos una cierta cantidad de conceptos que nos permitieron comprender mejor cómo funciona el mundo de las finanzas, aspectos que la afectan como lo es la inflación, partiendo desde el ejemplo más simple de interés compuesto, hasta llegar al punto de elaborar tablas de amortización, cálculo de valor de bonos, temas en los que se combinaban una enorme cantidad de conceptos para su construcción.

En este apartado, lo que se va a realizar es, mostrar algunos ejemplos con aplicaciones reales, de los conceptos que en éstas notas se estuvieron abordando, para que se pueda tener una mejor comprensión de la importancia del uso de las matemáticas financieras, en el mundo real.

Un ejemplo práctico del uso de las matemáticas financieras, en un caso real es el siguiente:

El precio de un CETE se puede calcular, conociendo su tasa de rendimiento, o su tasa de descuento, y se obtiene utilizando la siguiente ecuación1:

$$P=\frac{VN}{\left(1+\frac{i*t}{360}\right)}$$

donde:

P = Valor del CETE (redondeado a 7 decimales)

VN = Valor Nominal del título en pesos

i = Tasa de rendimiento

t = tiempo o plazo en días del CETE

Si $d$ es la tasa de descuento de un CETE se tiene que:

$$d=\frac{i}{\left(1+\frac{i*t}{360}\right)}$$

despejando $i$,

$$i=\frac{d}{\left(1-\frac{d*t}{360}\right)}$$

Al sustituir éste resultado en la primera ecuación se obtiene el precio de un CETE a partir de su tasa de descuento:

$$P=VN*\left(1-\frac{d*t}{360}\right)$$

Por lo que se tiene que el precio de un CETE está compuesto por el valor presente de su valor nominal.

Ejercicios resueltos

Ejercicio. El 31 de agosto del año 2000, un inversionista compra CETES con las siguientes características:

  • Valor nominal: \$10 pesos
  • Fecha de colocación: 31 de agosto del año 2020
  • Fecha de vencimiento: 28 de septiembre del año 2020
  • Días por vencer del título: 28 días

Suponiendo que está sujeto a una tasa de rendimiento anual del 15%, obtener el valor del CETE.

Solución

Para poder obtener el precio del CETE, se puede hacer por dos caminos, el primero sería calcular el valor presente, usando la tasa de rendimiento. Mientras que la segunda forma de obtenerlo es usando la tasa de descuento que proporcione este rendimiento.

Vamos a realizar utilizando la tasa de rendimiento que nos proporcionaron, calculando su valor presente, esto es:

$$P=\frac{10}{\left(1+\frac{0.15*28}{360}\right)}$$

$$=\frac{10}{1.01205555556}=9.8808805$$

El precio del CETE será de: \$9.8808805

Ahora usando la tasa de descuento, la forma de obtener el precio del CETE quedaría:

$$d=\frac{0.15}{\left(1+\frac{0.14*28}{360}\right)}$$

$$=\frac{0.15}{1.01205555556}=0.1532=15.32%$$

Con base en esta tasa de descuento (15.32%) se determina el precio al cual el inversionista tendrá que liquidar cada uno de los CETES que adquirió. Cabe señalar que es convención del mercado redondear a diezmilésimas las tasas de rendimiento y descuento, esto origina que el precio de un CETE calculado a partir del rendimiento difiera en algunos decimales del precio calculado a partir del descuento.*

$$P=10*\left(1-\frac{0.1532*28}{360}\right)$$

$$=10*(0.98808444)=9.8808444$$

Ejercicio. Supongamos ahora, el siguiente caso: un inversionista compra CETES con las siguientes características:

  • Valor nominal: \$10 pesos
  • Fecha de colocación: 24 de marzo de 2023
  • Fecha de vencimiento: 23 de junio de 2023
  • Duración del título: 91 días
  • Tasa de rendimiento: 4.39%

Solución

**Se obtendrá el precio, usando la tasa de rendimiento, calculando el valor presente, es decir:

$$P=\frac{10}{\left(1+\frac{0.0439*91}{360}\right)}$$

$$=\frac{10}{1.011096944444}=9.8902485$$

El precio del CETE será de: \$9.8902485

Usando la tasa de descuento equivalente al 4.39% el procedimiento para obtener el precio del título es el siguiente:

$$d=\frac{0.0439}{\left(1+\frac{0.0439*91}{360}\right)}$$

$$=\frac{0.0439}{1.011096944444}=0.0434=4.34%$$

$$P=10*\left(1-\frac{0.434*91}{360}\right)$$

$$=10*(0.98902944)=9.8902944$$

Con base en esta tasa de descuento (4.34%) se determina el precio al cual el inversionista tendrá que liquidar cada uno de los CETES que adquirió. Cabe señalar que es convención del mercado redondear a diezmilésimas las tasas de rendimiento y descuento, esto origina que el precio de un CETE calculado a partir del rendimiento difiera en algunos decimales del precio calculado a partir
del descuento.2

Aplicación para calcular el Costo Anual Total (CAT)

Otra aplicación bastante útil, para la que nos sirve las Matemáticas financieras, es cuando nosotros contratamos una tarjeta de crédito, y deseamos saber el costo real que vamos a tener que pagar por la línea de crédito que no otorgan, dicho en otras palabras, deseamos saber cuánto dinero nos va a costar tener a nuestra disposición dichos recursos económicos.

Primero que nada, la definición del CAT, es una forma de poder medir el total de costos y gastos que se tienen que hacer, cuando algún banco nos otorga un crédito, en este caso particular, se va a analizar el caso de una tarjeta de crédito (lo que incluye intereses, comisiones, anualidad, comisiones por apertura, gastos de investigación, seguros, etc.). La importancia de conocer ésta herramienta, nos permite comparar y poder elegir cuál es la mejor opción de banco o institución financiera que nos ofrece la opción con un menor costo.

Para poder calcular el Costo Anual Total, de acuerdo con la circular 21/20093 emitida por el Banco de México, la metodología utilizada para calcular el CAT es la siguiente:

$$\sum_{j=1}^M\frac{A_j}{(1+i)^{t_j}}=\sum_{k=1}^N\frac{B_k}{(1+i)^{S_k}}$$

donde:

$i =$ CAT, expresado como decimal

$M =$ Número total de disposiciones de crédito

$j =$ Número consecutivo que identifica cada crédito

$A_j =$ Monto de la j-ésima disposición de crédito

$N =$ Número total de pagos

$k =$ Número consecutivo que identifica cada pago

$B_k =$ Monto del k-ésimo pago

$t_j =$ Intervalo de tiempo, expresado en años y fracciones de año, que transcurre entre la fecha en que surte efecto el contrato y la fecha j-ésima disposición del crédito

$s_k =$ Intervalo de tiempo, expresado en años y fracciones de año, que transcurre entra la fecha que surte efecto el contrato y la fecha del k-ésimo pago

$\sum =$ Símbolo utilizado para expresar la suma de las cantidades indicadas

Notemos que dentro de la ecuación que se acaba de presentar, se está usando el concepto de valor presente en la expresión $(1+i)^{t_j}$, aunque de forma general, la expresión para calcular el CAT, del lado izquierdo considerando la sumatoria, nos permite obtener la sumas del valor presente de las disposiciones del crédito.

Por otra parte, el lado derecho de la fórmula para calcular el CAT, representa la suma del valor presente de los pagos que se realizaran para liquidar el crédito. Si hacemos un pequeño recordatorio, en general la fórmula que estamos usando, tanto el lado izquierdo como el derecho, ambas en conjunto son una ecuación de valor, concepto que también, fue abordado en su momento, para explicar cómo se realizan las operaciones financieras, es decir, los derechos que tiene el deudor, deben de ser iguales a los del prestamista o acreedor.

Ejercicios resueltos

Para mostrar la forma en que se utiliza la fórmula para calcular el CAT, se propone el siguiente ejemplo3:

Un banco otorga una tarjeta de crédito al señor Luis, por una línea de crédito disponible de \$15,000 pesos, cantidad que el decide gastar, inmediatamente después de haberla recibido. La cantidad de \$15 mil pesos es el valor de $A$ que es una disposición del crédito. Dicho crédito, el señor Luis, considera pagarlo dentro de 2 años, de forma mensual mediante pagos de \$962.33, sin embargo el banco le cobra una comisión por apertura de \$100 pesos.

Solución

Para encontrar le valor de CAT, se hace lo siguiente:

La disposición es $A=15,000$

La expresión anterior la igualamos con los pagos, y nos queda:

$$15000=\frac{100}{(1+i)^{\frac{0}{12}}}+\frac{962.33}{(1+i)^{\frac{1}{12}}}$$

$$+…+\frac{962.33}{(1+i)^{\frac{23}{12}}}+\frac{962.33}{(1+i)^{\frac{24}{12}}}$$

De donde despejando $i$ se obtiene que el Costo Anual Total es de .5736

Expresado como tasa de interés en porcentaje $i=57.4$.

Si a lo anterior, hacemos la sumatoria de cada uno de los pagos, junto con las comisiones, la cantidad total que deberá pagar por dicho crédito, con una tasa CAT del $57.4%$ es de $23,195.85$

  • Ir a Matemáticas Financieras
  • Entrada anterior
  • Entrada siguiente
  1. Información obtenida de https://www.banxico.org.mx/mercados/d/%7B0DE0044F-662D-09D2-C8B3-4F1A8E43655F%7D.pdf ↩︎
  2. información obtenida de: https://www.banxico.org.mx/elib/mercado-valores-gub-en/OEBPS/Rsc/anexo0201.pdf ↩︎
  3. Información obtenida de: https://www.banxico.org.mx/marco-normativo/normativa-emitida-por-el-banco-de-mexico/circular-21-2009/%7B29285862-EDE0-567A-BAFB-D261406641A3%7D.pdf ↩︎

Diferencial de orden N, Teorema de Taylor

Por Angélica Amellali Mercado Aguilar

Diferencial de orden n

$$d^{n}f=\frac{\partial^{n} f}{\partial x^{n}}dx^{n}+\left(\begin{matrix}n\\1\end{matrix}\right)\frac{\partial^{n-1} f}{\partial x^{n-1}\partial y}dx^{n-1}dy+\left(\begin{matrix}n\\2\end{matrix}\right)\frac{\partial^{n-2} f}{\partial x^{n-2}\partial y^{2}}dx^{n-2}dy^{2}+\cdots+$$ $$\left(\begin{matrix}n\\k\end{matrix}\right)\frac{\partial^{n-k} f}{\partial x^{n-k}\partial y^{k}}dx^{n-k}dy^{k}+\cdots+\frac{\partial^{n}f}{\partial y^{n}}dy^{n}$$
que se puede escribir
$$d^{n}f=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$

Ejercicio. Probar usando inducción
$$d^{n}f=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$

Solución. Para n=1 se tiene
$$df=\frac{\partial f}{\partial x}dx+\frac{\partial f}{\partial y}dy$$
Suponemos valido para n

$$d^{n}f=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$
Por demostrar que es valida para n+1
$$d^{n+1}f=d(d^{n}f)=\frac{\partial}{\partial x}\left(\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}\right)dx+\frac{\partial}{\partial y}\left(\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}\right)dy=$$

$$\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n-j}\partial y^{j+1}}dx^{n-j}dy^{j+1}=$$
$$\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\sum_{j=1}^{n+1}\left(\begin{matrix}n\\j-1\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}=$$

$$\frac{\partial^{n+1}f}{\partial x^{n+1}}dx^{n+1}+\sum_{j=1}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\sum_{j=1}^{n}\left(\begin{matrix}n\\j-1\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\frac{\partial^{n+1}f}{\partial y^{n+1}}dy^{n+1}=$$

$$\frac{\partial^{n+1}f}{\partial x^{n+1}}dx^{n+1}+\sum_{j=1}^{n}\left(\left(\begin{matrix}n\\j\end{matrix}\right)+\left(\begin{matrix}n\\j-1\end{matrix}\right)\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\frac{\partial^{n+1}f}{\partial y^{n+1}}dy^{n+1}=$$

$$\frac{\partial^{n+1}f}{\partial x^{n+1}}dx^{n+1}+\sum_{j=1}^{n}\left(\begin{matrix}n+1\\j\end{matrix}\right)\frac{\partial^{n+1}f}{\partial x^{n+1-j}\partial y^{j}}dx^{n+1-j}dy^{j}+\frac{\partial^{n+1}f}{\partial y^{n+1}}dy^{n+1}=\sum_{j=0}^{n+1}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}dx^{n-j}dy^{j}$$

La última fórmula puede expresarse simbólicamente por la ecuación
$$d^{n}f=\left(\frac{\partial}{\partial x}dx+\frac{\partial}{\partial y}dy\right)^{n}f$$

donde primero debe desarrollarse le expresión de la derecha formalmente por medio del teorema del binomio y, a continuación deben sustituirse los términos
$$\frac{\partial^{n}f}{\partial x^{n}}dx^{n},\frac{\partial^{n}f}{\partial x^{n-1}\partial y}dx^{n-1}dy,\cdots,\frac{\partial^{n}f}{\partial y^{n}}dy^{n}$$
por los términos
$$\left(\frac{\partial}{\partial x}dx\right)^{n}f,\left(\frac{\partial}{\partial x}dx\right)^{n-1}\left(\frac{\partial}{\partial y}dy\right)f,\cdots,\left(\frac{\partial}{\partial y}dy\right)^{n}f$$

Teorema de Taylor para funciones $f:A\subset\mathbb{R}^{2}\rightarrow\mathbb{R}$}

Recordando el Teorema de Taylor para funciones $f:\mathbb{R}\rightarrow\mathbb{R}$

Teorema. Si $f(x)$ tiene n-ésima derivada continua en una vecindad de $x_{0}$, entonces en esa vecindad
$$f(x)=f(x_{0})+\frac{1}{1!}f'(x_{0})(x-x_{0})+\frac{1}{2!}f»(x_{0})(x-x_{0})^{2}+\frac{1}{3!}f»'(x_{0})(x-x_{0})^{3}+…+\frac{1}{n!}f^{n}(x_{0})(x-x_{0})^{n}+R_{n}$$
donde
$$R_{n}=\frac{f^{n+1}(\epsilon)}{(n+1)!}(x-x_{0})^{n+1},~donde~\epsilon\in(x_{0},x)$$

Sea $f:A\subset\mathbb{R}^{2}\rightarrow\mathbb{R}$ y sea $F(t)=f(x_{0}+h_{1}t,y_{0}+h_{2}t)$ con $t\in[0,1]$, de esta manera f recorre el segmento de $[x_{0},y_{0}]$ a $[x_{0}+h_{1}t,y_{0}+h_{2}t]$. Se tiene entonces que usando la regla de la cadena
$$F'(t)=\frac{\partial f}{\partial x}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot \frac{d(x_{0}+h_{1}t)}{dt}+\frac{\partial f}{\partial y}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot \frac{d(y_{0}+h_{2}t)}{dt}=$$

$$\frac{\partial f}{\partial x}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot h_{1}+\frac{\partial f}{\partial y}(x_{0}+h_{1}t,y_{0}+h_{2}t)\cdot h_{2}$$
Vamos ahora a calcular $F^{´´}(t)$

$$F^{´´} ( t )=\frac{\partial}{\partial x}\left(\frac{\partial f}{\partial x}h_{1}+ \frac{\partial f}{\partial y}h_{2}\right)h_{1}+\frac{\partial}{\partial y}\left(\frac{\partial f}{\partial x}h_{1}+ \frac{\partial f}{\partial y}h_{2}\right)h_{2}=$$
$$\frac{\partial^{2} f}{\partial x^{2}}h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}h_{2}^{2}$$

simbólicamente se puede escribir
$$F^{»}(t)=\left(\frac{\partial }{\partial x}\cdot h_{1}+\frac{\partial }{\partial y}\cdot h_{2}\right)^{2}f$$
y en general

$$F^{n}(t)=\frac{\partial^{n} f}{\partial x^{n}}h_{1}^{n}+\left(\begin{matrix}n\\1\end{matrix}\right)\frac{\partial^{n-1} f}{\partial x^{n-1}\partial y}h_{1}^{n-1}h_{2}+\left(\begin{matrix}n\\2\end{matrix}\right)\frac{\partial^{n-2} f}{\partial x^{n-2}\partial y^{2}}h_{1}^{n-2}h_{2}^{2}+\cdots+\left(\begin{matrix}n\\k\end{matrix}\right)\frac{\partial^{n-k} f}{\partial x^{n-k}\partial y^{k}}h_{1}^{n-k}h_{2}^{k}+\cdots+\frac{\partial^{n}f}{\partial y^{n}}h_{2}^{n}$$

que simbólicamente se puede escribir
$$F^{n}=\sum_{j=0}^{n}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}h_{1}^{n-j}h_{2}^{j}=\left(\frac{\partial }{\partial x}\cdot h_{1}+\frac{\partial }{\partial y}\cdot h_{2}\right)^{n}f$$

Ahora bien si se aplica la fórmula de Taylor con la forma del residuo de Lagrange a la función $$F(t)=f(x_{0}+h_{1}t,y_{0}+h_{2}t)$$ y ponemos $t=0$, se tiene
$$F(t)=F(0)+\frac{1}{1!}F'(0)t+\frac{1}{2!}F^{»}(0)t^{2}+\frac{1}{3!}F»'(0)t^{3}+…++\frac{1}{n!}F^{^{n}}(0)t^{n}+R_{n}$$
ahora bien con $t=1$
$$f(x_{0}+h_{1},y_{0}+h_{2})=f(x_{0},y_{0})+\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot h_{1}+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot h_{2}\right)+\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})h_{2}^{2}\right)$$
$$+\cdots+\frac{1}{n!}\left(\sum_{j=0}^{n+1}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}(x_{0},y_{0})h_{1}^{n-j}h_{2}^{j}\right)$$

$x=x_{0}+h_{1}$, $y_{0}+h_{2}=y$ por lo que $h_{1}=x-x_{0}$ y $h_{2}=y-y_{0}$ entonces

$$f(x,y)=f(x_{0},y_{0})+\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)+$$

$$\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})(x-x_{0})^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})(x-x_{0})(y-y_{0})+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})(y-y_{0})^{2}\right)+$$

$$\cdots+\frac{1}{n!}\left(\sum_{j=0}^{n+1}\left(\begin{matrix}n\\j\end{matrix}\right)\frac{\partial^{n}f}{\partial x^{n-j}\partial y^{j}}(x_{0},y_{0})(x-x_{0})^{n-j}(y-y_{0})^{j}\right)+R_{n}$$

donde
$$R_{n}=\frac{1}{n+1!}\left((x-x_{0})^{n+1}\frac{\partial^{n+1}f}{\partial x^{n+1}}(\xi,\eta)+\cdots+(y-y_{0})^{n+1}\frac{\partial^{n+1}f}{\partial y^{n+1}}(\xi,\eta)\right)$$ donde $\xi\in(x_{0},x_{0}+h_{1})$ y $\eta\in(y_{0},y_{0}+h_{2})$\En general el residuo $R_{n}$ se anula en un orden mayor que el término $d^{n}f$

Ejemplo. Desarrollar la fórmula de Taylor en $(x_{0},y_{0})=(0,0)$ con $n=3$ para la función $$f(x,y)=e^{y}\cos x$$

Solución. En este caso tenemos que
$$f(0,0)=e^{0}\cos(0)=1$$
Para la diferencial de orden 1
$$\frac{\partial f}{\partial x}(0,0)~\Rightarrow~\frac{\partial (e^{y}\cos(x))}{\partial x}(0,0)~\Rightarrow~-e^{y} sen\left( x\right) \big{|}{(0,0)}=0$$ $$\frac{\partial f}{\partial y}(0,0)~\Rightarrow~\frac{\partial (e^{y} \cos x)}{\partial y}(0,0)~\Rightarrow~-e^{y}\cos(x)\big{|}{(0,0)}=1$$
por lo tanto
$$\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)=\frac{1}{1!}\left((0)(x)+(1)(y)\right)=y$$
Para la diferencial de orden 2
$$\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\ cos x)}{\partial x^{2}}(0,0)~\Rightarrow~-e^{y} \cos~x\big{|}{(0,0)}=-1$$ $$\frac{\partial^{2} f}{\partial y^{2}}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y} \cos x)}{\partial y^{2}}(0,0)~\Rightarrow~e^{y} \cos~x\big{|}{(0,0)}=1$$ $$\frac{\partial^{2} f}{\partial x~\partial y}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial x~\partial y}(0,0)~\Rightarrow~-e^{y} sen~x~ \big{|}{(0,0)}=0$$ Por lo tanto $$\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x{0},y_{0})h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})h_{2}^{2}\right)=\frac{1}{2!}((-1)x^{2}+2(0)xy+(1)y^{2})$$
Para la diferencial de orden 3

$$\frac{\partial^{3} f}{\partial x^{3}}(x_{0},y_{0})~\Rightarrow~e^{y} sen~x\big{|}_{(0,0)}=0$$

$$\frac{\partial^{3} f}{\partial y^{3}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial y^{3}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(0,0)}=1$$

$$\frac{\partial^{3} f}{\partial x^{2}~\partial y}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial x^{2}~\partial y}(0,0)~\Rightarrow~-e^{y}\cos~x\big{|}_{(0,0)}=-1$$

$$\frac{\partial^{3} f}{\partial y^{3}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial y^{3}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(0,0)}=1$$

$$\frac{\partial^{3} f}{\partial x~\partial y^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (e^{y}\cos x)}{\partial x~\partial y^{2}}(0,0)~\Rightarrow~-e^{y} sen~x\big{|}_{(0,0)}=0$$

Por lo tanto
$$\frac{1}{3!}\left(\frac{\partial^{3} f}{\partial x^{3}}h_{1}^{3}+3\frac{\partial^{3} f}{\partial x^{2}\partial y}h_{}1^{2}h_{2}+3\frac{\partial^{3} f}{\partial x\partial y^{2}}h_{1}h_{2}^{2}+\frac{\partial^{3} f}{\partial y^{3}}h_{}2^{3}\right)=$$

$$\frac{1}{3!}\left((0)(x^{3})+3(-1)x^{2}y+3(0)xy^{2}+(1)y^{3}\right)$$
Finalmente para el residuo se tiene

$$\frac{\partial^{4} f}{\partial x^{4}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos(x))}{\partial y^{3}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(\xi,\eta)}=e^{\eta}\cos~\xi$$

$$\frac{\partial^{4} f}{\partial x^{2}\partial y^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos x)}{\partial x^{2}\partial y^{2}}(0,0)~\Rightarrow~-e^{y}\cos~x\big{|}_{(\xi,\eta)}=-e^{\eta}\cos~\xi$$

$$\frac{\partial^{4} f}{\partial x\partial y^{3}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos x)}{\partial x\partial y^{3}}(0,0)~\Rightarrow~-e^{y} sen~x\big{|}_{(\xi,\eta)}=-e^{\eta} sen~\xi$$

$$\frac{\partial^{4} f}{\partial y^{4}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{4} (e^{y}\cos x)}{\partial y^{4}}(0,0)~\Rightarrow~e^{y}\cos~x\big{|}_{(\xi,\eta)}=e^{\eta}\cos~\xi$$

$$R_{3}=\frac{1}{4!}\left(\frac{\partial^{4} f}{\partial x^{4}}h_{1}^{4}+4\frac{\partial^{4} f}{\partial x^{3}\partial y}h_{1}^{3}h_{2}+6\frac{\partial^{4} f}{\partial x^{2}\partial y^{2}}h_{1}^{2}h_{2}^{2}+4\frac{\partial^{4} f}{\partial x\partial y^{3}}h_{1}h_{2}^{3}+\frac{\partial^{4} f}{\partial h_{2}^{4}}dy^{4}\right)$$

$$=\frac{1}{4!}\left(x^{4}e^{\eta}\cos~\xi+4x^{3}ye^{\eta} sen~xi-6x^{2}y^{2}e^{\eta}\cos~\xi-4xy^{3}e^{\eta} sen~\xi+y^{4}e^{\eta}\cos~\xi\right)$$

Por lo que nuestro desarrollo de Taylor nos queda
$$e^{y}\cos~x=1+y+\frac{1}{2}(x^{2}-y^{2})+\frac{1}{6}(x^{3}-3xy^{2})+R_{3}$$
donde
$$R_{3}=\frac{1}{4!}\left(x^{4}e^{\eta}\cos~\xi+4x^{3}ye^{\eta} sen~xi-6x^{2}y^{2}e^{\eta}\cos~\xi-4xy^{3}e^{\eta} sen~\xi+y^{4}e^{\eta}\cos~\xi\right)$$
$\textbf{Ejercicio}$ Use la fórmula de Taylor en
$$f(x,y)=\cos~(x+y)$$
en el punto $(x_{0},y_{0})=(0,0)$ con $n=2$ para comprobar que
$$\lim_{(x,y)\rightarrow(0,0)}\frac{1-\cos~(x+y)}{(x^{2}+y^{2})^{2}}=\frac{1}{2}$$

En este caso para
$$f(x,y)=\cos(x+y)$$
se tiene
$$f(0,0)=\cos(0+0)=1$$
Para la diferencial de orden 1
$$\frac{\partial f}{\partial x}(0,0)~\Rightarrow~\frac{\partial (\cos x+y)}{\partial x}(0,0)~\Rightarrow~- sen(x+y)\big{|}{(0,0)}=0$$ $$\frac{\partial f}{\partial y}(0,0)~\Rightarrow~\frac{\partial (\cos x+y)}{\partial y}(0,0)~\Rightarrow~- sen(x+y)\big{|}{(0,0)}=0$$
por lo tanto

$$\frac{1}{1!}\left(\frac{\partial f}{\partial x}(x_{0},y_{0})\cdot (x-x_{0})+\frac{\partial f}{\partial y}(x_{0},y_{0})\cdot (y-y_{0})\right)=\frac{1}{1!}\left((0)(x)+(0)(y)\right)=0$$

Para la diferencial de orden 2
$$\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})~\Rightarrow~\frac{\partial^{2} (\cos x+y)}{\partial x^{2}}(0,0)~\Rightarrow~-\cos~x+y\big{|}{(0,0)}=-1$$ $$\frac{\partial^{2} f}{\partial y^{2}}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (\cos x+y)}{\partial y^{2}}(0,0)~\Rightarrow~-\cos~x+y\big{|}{(0,0)}=-1$$ $$\frac{\partial^{2} f}{\partial x~\partial y}(x{0},y_{0})~\Rightarrow~\frac{\partial^{2} (\cos x+y)}{\partial x~\partial y}(0,0)~\Rightarrow~-\cos~x+y\big{|}_{(0,0)}=-1$$
Por lo tanto

$$\frac{1}{2!}\left(\frac{\partial^{2} f}{\partial x^{2}}(x_{0},y_{0})h_{1}^{2}+2\frac{\partial^{2} f}{\partial x\partial y}(x_{0},y_{0})h_{1}h_{2}+\frac{\partial^{2} f}{\partial y^{2}}(x_{0},y_{0})h_{2}^{2}\right)=\frac{1}{2!}((-1)x^{2}-2xy+(-1)y^{2})$$
Por lo que nuestro desarrollo de Taylor nos queda
$$\cos(x+y)=1-\frac{x^{2}}{2}-xy-\frac{y^{2}}{2}$$
De manera que

$$\lim_{(x,y)\rightarrow(0,0)}\frac{1-\cos~(x+y)}{(x^{2}+y^{2})^{2}}=\lim_{(x,y)\rightarrow(0,0)}\frac{1-(1-\frac{x^{2}}{2}-xy-\frac{y^{2}}{2})}{(x^{2}+y^{2})^{2}}$$
$$=\lim_{(x,y)\rightarrow(0,0)}\frac{1}{2}\frac{(x^{2}+y^{2})^{2}}{(x^{2}+y^{2})^{2}}=\frac{1}{2}$$