Ecuaciones Diferenciales I: Ecuaciones diferenciales lineales de primer orden – Método por factor integrante

Por Omar González Franco

Las matemáticas son el arte de la explicación.
– Paul Lockhart

Introducción

Hasta ahora sólo hemos hecho un análisis cualitativo de las soluciones a distintas ecuaciones diferenciales, esto nos ha permitido tener un panorama general sobre el comportamiento de dichas soluciones y su implicación al tratarse de la descripción de un fenómeno real ya que recordemos que para alguna ecuación diferencial ordinaria de la forma

$$\dfrac{dy}{dx} = f(x, y) \label{1} \tag{1}$$

podemos obtener su campo de pendientes y a través de él trazar una infinidad de funciones que satisfacen la ecuación.

Ahora comenzaremos a desarrollar métodos analíticos para obtener explícitamente las funciones solución de una ecuación diferencial ordinaria. Cabe mencionar que no siempre será posible resolver de manera analítica una ecuación diferencial por lo que el análisis cualitativo siempre será una herramienta alterna que puede ayudar en esos casos.

Sabemos que hay diferentes tipos de ecuaciones diferenciales, en esta entrada vamos a comenzar con unas de las ecuaciones más sencillas que podemos encontrar, las ecuaciones diferenciales lineales.

Ecuaciones diferenciales lineales de primer orden

En la primer entrada hicimos una clasificación por linealidad de las ecuaciones diferenciales. Vimos que una ecuación diferencial de $n$-ésimo orden es lineal si:

$$a_{n}(x) \dfrac{d^{n}y}{dx^{n}} + a_{n -1}(x) \dfrac{d^{n -1}y}{dx^{n -1}} + \cdots + a_{1}(x) \dfrac{dy}{dx} + a_{0}(x) y = g(x) \label{2} \tag{2}$$

Con las propiedades de que la variable dependiente $y$, así como todas sus derivadas $y^{\prime}, y^{\prime \prime}, \cdots, y^{(n)}$ son de primer grado y los coeficientes $a_{0}, a_{1}, \cdots, a_{n}$, así como la función $g(x)$ dependen a lo sumo de la variable independiente $x$. Una ecuación que no satisface estas propiedades es una ecuación no lineal.

Las primeras ecuaciones que estudiaremos son las ecuaciones diferenciales lineales de primer orden, reduciendo la ecuación (\ref{2}) a primer orden tenemos la siguiente definición.

Como $a_{1}(x) \neq 0$ (ya que si lo es ya no tendríamos una ecuación diferencial), podemos dividir toda la ecuación por este coeficiente.

$$\dfrac{dy}{dx} + \dfrac{a_{0}(x)}{a_{1}(x)} y = \dfrac{g(x)}{a_{1}(x)}$$

Si definimos

$$P(x) = \dfrac{a_{0}(x)}{a_{1}(x)} \hspace{1cm} y \hspace{1cm} Q(x) = \dfrac{g(x)}{a_{1}(x)} \label{4} \tag{4}$$

podemos reescribir la ecuación (\ref{3}) como

$$\dfrac{dy}{dx} + P(x) y = Q(x) \label{5} \tag{5}$$

A esta ecuación se le conoce como la forma canónica y es la definición de ecuación lineal que también encontraremos en la literatura.

Lo que buscamos es una solución de la ecuación diferencial (\ref{5}) en un intervalo $\delta$ donde $P$ y $Q$ sean continuas.

En la forma canónica (\ref{5}), decimos que la ecuación

$$\dfrac{dy}{dx} + P(x) y = 0 \tag{6} \label{6}$$

es la ecuación homogénea, ya que si $g(x) = 0$, entonces $Q(x) = 0$.

Nuestro objetivo es encontrar la forma explícita de la solución $y(x)$ de la ecuación diferencial lineal (\ref{5}). Esta ecuación tiene la propiedad de que la solución general $y(x)$ es la suma de la solución de la ecuación homogénea (\ref{6}) que denotaremos como $y_{h}(x)$ y llamaremos solución homogénea, más la solución de la ecuación no homogénea (\ref{5}) que denotaremos como $y_{p}(x)$ y que llamaremos solución particular, esto es

$$y(x) = y_{h}(x) + y_{p}(x) \label{7} \tag{7}$$

Para mostrar este hecho observemos lo siguiente.

\begin{align*}
\dfrac{dy}{dx} + P(x)y &= \dfrac{d}{dx} (y_{h} + y_{p}) + P(x) (y_{h} + y_{p}) \\
&= \left( \dfrac{d y_{h}}{dx} + P(x) y_{h} \right) + \left( \dfrac{d y_{p}}{dx} + P(x) y_{p} \right) \\
&= 0 + Q(x) \\
&= Q(x)
\end{align*}

Ya que

$$\dfrac{d y_{h}}{dx} + P(x) y_{h} = 0 \hspace{1cm} y \hspace{1cm} \dfrac{d y_{p}}{dx} + P(x) y_{p} = Q(x)$$

Así, para hallar la forma explícita de $y(x)$ debemos hallar la forma explícita de la solución homogénea $y_{h}(x)$ y la forma explícita de la solución particular $y_{p}(x)$ para finalmente sumar ambos resultados.

Solución a ecuaciones diferenciales lineales homogéneas de primer orden

Comencemos por resolver la ecuación diferencial homogénea (\ref{6}) para obtener la solución homogénea $y_{h}(x)$. La ecuación que queremos resolver es

$$a_{1}(x) \frac{dy}{dx} + a_{0}(x) y = 0$$

O bien,

$$\dfrac{dy}{dx} + P(x) y = 0$$

Realicemos un poco de algebra y cálculo.

\begin{align*}
\dfrac{dy}{dx} + P(x) y &= 0 \\
\dfrac{dy}{dx} &= -P(x) y \\
\dfrac{1}{y} \dfrac{dy}{dx} &= -P(x)
\end{align*}

De la última expresión identificamos que

$$\dfrac{d}{dx} (\ln{|y|}) = \dfrac{1}{y} \dfrac{dy}{dx}$$

Sustituimos.

$$\dfrac{d}{dx} (\ln{|y|}) = -P(x)$$

Integremos ambos lados de la ecuación con respecto a la variable $x$.

\begin{align*}
\int \left( \dfrac{d}{dx} (\ln{|y|}) \right) dx &= \int -P(x) dx \\
\ln{|y|} + c &= -\int P(x) dx
\end{align*}

Donde hemos hecho uso del teorema fundamental del cálculo y $c$ es la constante de integración. Apliquemos la exponencial en ambos lados de la ecuación.

\begin{align*}
e^{(\ln{|y|} + c)} &= e^{-\int P(x) dx} \\
e^{\ln{|y|}}e^{c} &= e^{-\int P(x) dx} \\
|y| e^{c} &= e^{-\int P(x) dx} \\
|y| &= e^{-c} e^{-\int P(x) dx} \\
y &= e^{-c} e^{-\int P(x) dx}
\end{align*}

Definimos la constante $k = e^{-c}$, obtenemos finalmente

$$y(x) = k e^{-\int P(x) dx} \label{8} \tag{8}$$

La función (\ref{8}) es solución de la ecuación diferencial homogénea (\ref{6}).

Recordemos que si lo que estamos resolviendo es una ecuación de la forma (\ref{5}), entonces $y(x) = y_{h}(x)$ es la solución de la ecuación diferencial homogénea asociada.

Realicemos un ejemplo.

Es buen momento para aconsejar no memorizar los resultados de los métodos de resolución que estudiemos en el curso y en su lugar aplicar el procedimiento para obtener la solución de una ecuación diferencial. Esto, además de ser una buena práctica, nos ayudará a desarrollar la habilidad de identificar y aplicar los distintos métodos que existen para resolver las distintas ecuaciones diferenciales que se nos puedan presentar. Por supuesto, en ocasiones el método se vuelve demasiado extenso y lo conveniente es hacer uso de resultados intermedios para avanzar más rápido.

¡Resolvamos nuestra primer ecuación diferencial!.

Ejemplo: Obtener la solución de la ecuación diferencial homogénea

$$x \dfrac{dy}{dx} + 2y = 0$$

dada la condición inicial $y(3) = 1$.

Solución: A simple vista verificamos que efectivamente se trata de una ecuación diferencial lineal homogénea, así que podemos aplicar la teoría desarrollada y no sólo eso, además se trata de un problema de valores iniciales.

Comencemos por dividir la ecuación por $x \neq 0$ para obtener la forma (\ref{6}). El resultado es

$$\dfrac{dy}{dx} + \dfrac{2}{x} y = 0$$

Identificamos que $P(x) = \dfrac{2}{x}$.

Como dijimos antes, podemos aplicar directamente el resultado (\ref{8}) y listo, sin embargo haremos todo el desarrollo para comprender bien el método.

La ecuación diferencial la podemos reescribir como

$$\dfrac{1}{y} \dfrac{dy}{dx} = -\dfrac{2}{x}$$

Recordando que

$$\dfrac{d}{dx} (\ln{|y|}) = \dfrac{1}{y} \dfrac{dy}{dx}$$

podemos escribir

$$\dfrac{d}{dx} (\ln{|y|}) = -\dfrac{2}{x}$$

Integremos ambos lados de la ecuación.

$$\int {\dfrac{d}{dx} (\ln{|y|}) dx} = -\int {\dfrac{2}{x} dx}$$

Por un lado tenemos

$$\int {\dfrac{d}{dx} (\ln{|y|}) dx} = \ln{|y|} + c_{1}$$

Por otro lado,

\begin{align*}
\int{P(x) dx} &= \int{\dfrac{2}{x} dx} \\
&= 2 \int{\dfrac{1}{x} dx} \\
&= 2 \ln{|x|} + c_{2}
\end{align*}

Igualando ambos resultados se tiene

$$\ln{|y|} + c_{1} = -(2 \ln{|x|} + c_{2})$$

Si juntamos las dos contantes de integración en una sola podemos escribir

$$\ln{|y|} = -2 \ln{|x|} + k$$

Apliquemos la exponencial en ambos lados.

\begin{align*}
e^{\ln{|y|}} &= e^{ -2 \ln{|x|} + k} \\
|y| &= e^{k} e^{\ln{|x|^{-2}}} \\
y &= Kx^{-2}
\end{align*}

En donde definimos la constante $K = e^{k}$. Por lo tanto, la solución general de la ecuación diferencial dada es

$$y(x) = \dfrac{K}{x^{2}}$$

con $x$ en cualquier intervalo que no contenga al $0$.

Ahora apliquemos la condición inicial para obtener una solución particular. Se debe satisfacer que $y(3) = 1$, evaluemos la función en $3$ e igualemos a $1$.

$$y(3) = \dfrac{K}{3^{2}} = \dfrac{K}{9} = 1$$

De la última igualdad obtenemos que $K = 9$, por lo tanto la solución particular es

$$y(x) = \dfrac{9}{x^{2}}$$

Nota: Para evitar confusiones cabe mencionar que en el ejemplo cuando hablamos de solución general y solución particular nos referimos al contexto general de las ecuaciones diferenciales donde solución general es la función que satisface la ecuación diferencial y tienen contantes arbitrarias, mientras que la solución particular es la función que satisface la ecuación diferencial y cuyas constantes toman un valor específico, por el contrario no nos referimos a la solución general $y = y_{h} + y_{p}$ y solución particular $y_{p}$ vistos al inicio de esta entrada, pues recordemos que en esta sección estamos estudiando ecuaciones diferenciales homogéneas.

$\square$

En conclusión, ahora sabemos resolver ecuaciones diferenciales lineales homogéneas de la forma

$$\dfrac{dy}{dx} + P(x) y = 0$$

cuya solución general es

$$y(x) = k e^{- \int P(x) dx}$$

Ahora veamos el caso no homogéneo en el que $Q(x) \neq 0$.

Solución a ecuaciones diferenciales lineales no homogéneas de primer orden

La ecuación diferencial que intentamos resolver es

$$a_{1}(x) \frac{dy}{dx} + a_{0}(x) y = g(x)$$

O bien,

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

Vamos a estudiar dos métodos distintos para resolver este tipo de ecuaciones, uno de ellos es conocido como método por factor integrante y el otro como método por variación de parámetros. Esta entrada la concluiremos con el desarrollo del primer método y en la siguiente entrada estudiaremos el método por variación de parámetros.

Método por factor integrante

Consideremos la ecuación diferencial lineal no homogénea (\ref{5}). El método por factor integrante consiste en encontrar una función $\mu (x)$ que satisfaga la siguiente relación.

$$\dfrac{d}{dx} (\mu y) = \mu \dfrac{dy}{dx} + \mu P(x) y = \mu Q(x) \label{9} \tag{9}$$

Es decir, que la derivada del producto de $\mu (x)$ con la solución $y(x)$ sea igual a multiplicar la ecuación original por $\mu$. La función $\mu$ debe ser una función dependiente de $x$ y derivable, de manera que, usando la regla del producto

$$\dfrac{d}{dx} (\mu y) = \mu \frac{dy}{dx} + y \dfrac{d\mu}{dx} \label{10} \tag{10}$$

Igualando las ecuaciones (\ref{9}) y (\ref{10}), se tiene

\begin{align*}
\mu \dfrac{dy}{dx} + \mu P(x) y &= \mu \frac{dy}{dx} + y \dfrac{d\mu}{dx} \\
\mu P(x) y &= y \dfrac{d\mu}{dx} \\
\mu P(x) &= \dfrac{d\mu}{dx} \\
P(x) &= \frac{1}{ \mu} \dfrac{d\mu}{dx} \\
P(x) &= \dfrac{d}{dx} (\ln{|\mu}|)
\end{align*}

Integremos la última relación con respecto a $x$.

\begin{align*}
\int{\left( \dfrac{d}{dx} (\ln{|\mu}|) \right) dx} &= \int{P(x) dx} \\
\ln{|\mu|} + c_{1} &= \int{P(x) dx}
\end{align*}

En esta ocasión supongamos que $c_{1} = 0$, veremos más adelante que esto no afecta el resultado. Por otro lado, como $e^{x} > 0$ para toda $x$, en particular

$$e^{\int{P(x) dx}} > 0$$

Entonces aplicando la exponencial en ambos lados de la última expresión se obtiene

$$\mu (x) = e^{\int{P(x) dx}} \tag{11} \label{11}$$

A esta función se le conoce como factor integrante y es siempre positiva.

De la ecuación (\ref{9}) sabemos que

$$\dfrac{d}{dx} (\mu y) = \mu Q(x)$$

Integremos ambos lados de la ecuación con respecto a $x$.

\begin{align*}
\int{\left( \dfrac{d}{dx} (\mu y) \right) dx} &= \int{\mu Q(x) dx} \\
\mu y + c_{2} &= \int{\mu Q(x)} dx \\
y &= \dfrac{1}{\mu} \left( \int{\mu Q(x) dx} \right)
\end{align*}

Donde supusimos nuevamente que $c_{2} = 0$. La última expresión ya nos da la solución que buscamos, con $\mu$ el factor integrante.

Por lo tanto, la solución de la ecuación diferencial lineal no homogénea

$$\dfrac{dy}{dx} + P(x) y = Q(x)$$

es

$$y(x) = \dfrac{1}{e^{\int{P(x) dx}}} \left( \int{e^{\int{P(x) dx}} Q(x) dx} \right) \label{12} \tag{12}$$

O en una forma más compacta

$$y(x) = \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} \right) \label{13} \tag{13}$$

Con $\mu(x)$ el factor integrante (\ref{11}).

El resultado que obtuvimos corresponde a la solución particular $y(x) = y_{p}(x)$, como mencionamos antes, la solución completa o solución general de la ecuación (\ref{5}) es la suma de la solución homogénea más la solución particular

$$y(x) = y_{h}(x) + y_{p}(x)$$

Así, sumando el resultado (\ref{8}) con el resultado (\ref{12}) obtenemos que la solución completa de la ecuación diferencial (\ref{5}) es

$$y(x) = y_{h}(x) + y_{p}(x) = k e^{-\int P(x) dx} + e^{-\int P(x) dx} \left( \int{e^{\int{P(x) dx}} Q(x) dx} \right)$$

Factorizando

$$y(x) = e^{-\int P(x) dx} \left( \int{e^{\int{P(x) dx}} Q(x) dx} + k \right) \label{14} \tag{14}$$

O bien, en términos del factor integrante

$$y(x) = \dfrac{1}{\mu(x)}\left(\int{\mu (x) Q(x) dx} + k \right) \label{15} \tag{15}$$

La ecuación (\ref{15}) es la solución general de las ecuaciones diferenciales lineales de primer orden. En la siguiente entrada mencionaremos el por qué es posible haber tomado como cero a las constantes de integración que aparecieron en el método, sin embargo intenta justificar este hecho con lo visto hasta este momento.

Para concluir realicemos un ejemplo en el que obtengamos la solución homogénea y la solución particular por separado para después sumarlas y obtener la solución general.

Ejemplo: Determinar la solución general de la ecuación diferencial

$$\dfrac{dy}{dx} = -y + x^{2}$$

Solución: Comenzamos por reescribir la ecuación en la forma canónica (\ref{5}).

$$\dfrac{dy}{dx} + y = x^{2}$$

Identificamos que $P(x) = 1$ y $Q(x) = x^{2}$. Con el valor de $P(x)$ calculemos el factor integrante omitiendo las constantes.

$$\mu (x) = e^{\int{P(x) dx}} = e^{\int dx} = e^{x}$$

Esto es,

$$\mu (x) = e^{x}$$

La solución homogénea en términos del factor integrante es

$$y_{h}(x) = k e^{-\int P(x) dx} = \dfrac{k}{\mu(x)}$$

Sustituimos el valor del factor integrante.

$$y_{h}(x) = \dfrac{k}{e^{x}} \label{16} \tag{16}$$

Esta función corresponde a la solución de la ecuación homogénea asociada

$$\dfrac{dy}{dx} + y = 0$$

Para obtener la solución particular usemos el resultado (\ref{13}), donde

$$\int{\mu (x)Q(x) dx} = \int{e^{x} x^{2} dx}$$

Resolvamos la integral usando integración por partes con $u(x) = x^{2}$ y $dv(x) = e^{x}$.

$$\int{e^{x} x^{2} dx} = x^{2} e^{x} -\int{2x e^{x} dx}$$

Para la nueva integral volvemos a hacer integración por partes usando $r(x) = x$ y $ds(x) = e^{x}$.

\begin{align*}
\int{e^{x} x^{2} dx} &= x^{2} e^{x} -2 \left(x e^{x} -\int{e^{x} dx}\right) \\
&= x^{2} e^{x} -2x e^{x} + 2e^{x} \\
&= e^{x}\left(x^{2} -2x + 2\right)
\end{align*}

Podemos omitir las contantes de integración. Sustituyamos este resultado en la solución particular.

\begin{align*}
y_{p}(x) &= \dfrac{1}{\mu (x)} \left( \int{\mu (x)Q(x) dx} \right) \\
&= \dfrac{1}{e^{x}} \left[ e^{x} \left( x^{2} -2x + 2 \right) \right] \\
&= x^{2} -2x + 2 \\
&= x^{2} -2 \left(x-1\right)
\end{align*}

Por lo tanto, la solución particular de la ecuación diferencial no homogénea es

$$y_{p}(x) = x^{2} -2(x -1) \label{17} \tag{17}$$

La solución general la obtenemos de sumar los resultados (\ref{16}) y (\ref{17}).

$$y(x) = \dfrac{k}{e^{x}} + \left( x^{2} -2 \left( x -1\right) \right)$$

Por lo tanto, la solución general de la ecuación diferencial dada es

$$y(x) = x^{2} -2 \left(x-1\right) + \dfrac{k}{e^{x}}$$

$\square$

Con esto concluimos esta entrada, en la siguiente estudiaremos el método de variación de parámetros.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Dadas las siguientes ecuaciones diferenciales lineales de primer orden, obtener las soluciones generales $y(x)$ calculando primero la solución homogénea $y_{h}(x)$, después la solución particular $y_{p}(x)$ y finalmente sumando los resultados. (Se pueden omitir las constantes de integración en el proceso).
  • $\dfrac{dy}{dx} -y = e^{2x}$
  • $\dfrac{dy}{dx} + y = e^{2x}$
  • $x \dfrac{dy}{dx} + 4y = x^{-3}e^{x}$
  • $x^{2} \dfrac{dy}{dx} = -2xy + 3e^{3x}$
  1. Resolver la siguiente ecuación diferencial sujeta a la condición inicial dada (problema con valores iniciales).
  • $\dfrac{dy}{dx} + y = e^{-x}, \hspace{1cm} y(0) = -\dfrac{1}{4}$.
  1. Resolver el siguiente problema.
  • Un marcapasos de corazón consiste en un interruptor, una batería de voltaje constante $E_{0}$, un capacitor con capacitancia constante $C$ y un corazón como un resistor con resistencia constante $R$. Cuando se cierra el interruptor, el capacitor se carga; cuando el interruptor se abre, el capacitor de descarga enviando estímulos eléctricos al corazón. Todo el tiempo el corazón se está estimulando, el voltaje $E$ a través del corazón satisface la ecuación diferencial lineal
    $$\dfrac{dE}{dt} = -\dfrac{1}{RC}E$$
    Resolver la ecuación diferencial sujeta a la condición inicial $E(4) = E_{0}$.
  1. Intenta justificar el hecho de que podamos omitir las constantes de integración en los métodos de resolución vistos.

Más adelante…

¡Ya resolvimos analíticamente nuestras primeras ecuaciones diferenciales!. Gran logro.

En la siguiente entrada estudiaremos el método de variación de parámetros para obtener la solución particular de la ecuación diferencial no homogénea y estableceremos una serie de pasos a seguir para resolver este tipo de ecuaciones sin tener que memorizar las formulas de las soluciones.

Finalmente retomaremos el teorema de existencia y unicidad y lo estudiaremos en el contexto de las ecuaciones diferenciales lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral: Resultados derivados de los teoremas del valor intermedio y del máximo-mínimo

Por Juan Manuel Naranjo Jurado

Introducción

Anteriormente revisamos el teorema del valor intermedio y el teorema del máximo-mínimo. Esta entrada será un complemento a las anteriores, pues estudiaremos resultados derivados de tales teoremas.

La raíz $k$-ésima

Iniciaremos esta entrada probando que todo número real positivo tiene raíz cuadrada y, posteriormente probaremos que todo número real positivo tiene raíz $k$-ésima.

Proposición. Para todo $a \in \mathbb{R}$, $a >0$, existe $b >0$ tal que $b^2 = a$. Es decir, todo real positivo tiene raíz cuadrada.

Demostración.

Sea $a > 0$.

Consideremos la función $f(x) = x^2$, $f$ es continua en $\mathbb{R}$. Notemos que $f(0) = 0^2 = 0$. Además, como $\mathbb{N}$ no está acotado superiormente, existe $n \in \mathbb{N}$ tal que $a<n$. Entonces

$$f(n) = n^2 \quad \text{y} \quad a<n \leq n^2 = f(n).$$

Por lo anterior, se tiene que $f$ es continua en $[0, n]$ y $f(0)<a<f(n)$. Por el teorema del valor intermedio, existe $c \in \mathbb{R}$, $0<c<n$ tal que $f(c)=a$, es decir, $c^2 = a.$
Consideremos $b = c$, entonces $b^2 = a.$

$\square$

Definición. Sean $a > 0$, $b > 0$, $k \in \mathbb{N}$, decimos que $b$ es la raíz $k$-ésima de $a$ si $b^k = a$ y lo denotamos como $b = \sqrt[k]{a}.$

Proposición. Para todo $a >0$, todo $k \in \mathbb{N}$, existe la raíz $k$-ésima de $a.$

Demostración.

Sean $a>0$ y $k \in \mathbb{N}.$

Consideremos la función $f(x) = x^k$, continua en $\mathbb{R}$. Entonces, para algún $n \in \mathbb{N}$ se tiene que

$$f(0) = 0^k = 0 < a < n \leq n^k = f(n).$$

Por el teorema del valor intermedio, existe $b$ tal que $0<b<n$ y $f(b) = a.$

$$\therefore b^k = a.$$

$\square$

Notemos que en la definición dada consideramos únicamente los valores positivos que cumplen $b^k = a,$ de esta forma, $b$ es único.

Proposición. La raíz $k$-ésima es única.

Demostración.

Si existen $b > 0$, $c > 0$ tal que $b^k = a$ y $c^k = a$.
Si $b \neq c$ entonces $b > c$ ó $b<c$.
\begin{gather*}
\text{Si } b < c \Rightarrow b^k < c^k \Rightarrow a < a \text{ (contradicción).} \\
\text{Si } b > c \Rightarrow b^k > c^k \Rightarrow a > a \text{ (contradicción).}
\end{gather*}

$$\therefore b = c.$$

$\square$

Polinomios

Otro de los resultados derivados del teorema del valor intermedio es la existencia de las raíces para cierto tipo de polinomios.

Teorema. Si $n$ es impar, entonces cualquier ecuación de la forma

$$x^n+a_{n-1}x^{n-1}+ \ldots + a_0 = 0$$

tiene una raíz.

Demostración.

La demostración se basa en probar que existen $x_1$ y $x_2$ tales que la función $f(x) = x^n+a_{n-1}x^{n-1}+ \ldots + a_0$ cumple $f(x_1) < 0$ y $f(x_2) >0$. Además, dado que $f$ es continua, podremos usar el teorema del valor intermedio y concluir que existe $x_0$ tal que $f(x_0) = 0$, es decir, que la ecuación $x^n+a_{n-1}x^{n-1}+ \ldots + a_0 = 0$ tiene una raíz.

A continuación haremos una manipulación algebraica que permitirá mostrar de forma más sencilla que mientras $|x| \to \infty$, entonces $f$ tendrá un comportamiento similar a la función $g(x) = x^n$ y considerando que $n$ es impar, entonces para valores positivos lo suficientemente grandes $f$ será positivo, mientras que para valores negativos lo suficientemente grandes, $f$ será negativo.

$$ f(x) = x^n+a_{n-1}x^{n-1}+ \ldots + a_0 = x^n \left( 1+\frac{a_{n-1}}{x} + \frac{a_{n-2}}{x^2} + \ldots + \frac{a_0}{x^n} \right), \quad \text{para } x \neq 0.$$

Daremos inicio a la demostración viendo que

$$\left\lvert \frac{a_{n-1}}{x} + \frac{a_{n-2}}{x^2} + \ldots + \frac{a_0}{x^n} \right\rvert \leq \frac{|a_{n-1}|}{|x|} + \ldots + \frac{|a_{0}|}{|x^n|}.$$

Ahora trataremos de acotar la expresión anterior, para ello estamos buscando $|x|$ lo suficientemente grande para acotar la suma de $n$ términos de la forma $\frac{|a_{n-k}|}{|x^k|} $. Primero vayamos con el denominador y notemos que si $|x|>1$, entonces se tiene que $|x|^k \geq|x|$ para todo $k \in \mathbb{N}$. Esto implica que $\frac{1}{|x|^k } \leq \frac{1}{|x|}.$ Para el numerador es suficiente considerar el máximo de los términos $|a_{n-k}|$ y sumarlo $n$-veces, es decir, el máximo de los $n|a_{n-k}|.$ Sin embargo, por fines algebraicos (visibles en $(2)$), utilizaremos $2n|a_{n-k}|.$

De esta forma, si $$|x| > max\{1, 2n|a_{n-1}|, \dots, 2n|a_0|\}, \tag{1}$$
entonces $|x^k|>|x|$ y

$$\frac{|a_{n-k}|}{|x^k|} < \frac{|a_{n-k}|}{|x|} < \frac{|a_{n-k}|}{2n|a_{n-k}|} = \frac{1}{2n}$$

es decir,

$$\left\lvert \frac{a_{n-1}}{x} + \frac{a_{n-2}}{x^2} + \ldots + \frac{a_0}{x^n} \right\rvert \leq \frac{1}{2n} + \frac{1}{2n} + \ldots + \frac{1}{2n}= \frac{n}{2n} =\frac{1}{2}.$$

$$\Rightarrow -\frac{1}{2} \leq \frac{a_{n-1}}{x} + \ldots + \frac{a_0}{x^n} \leq \frac{1}{2}.$$

Sumando $1$ a la expresión anterior, se sigue que

$$\frac{1}{2} \leq 1 + \frac{a_{n-1}}{x} + \ldots + \frac{a_0}{x^n}. \tag{2}$$

Si consideramos $x_1 < 0$ que satisface $(1)$, entonces $x_1^n < 0$ puesto que $n$ es impar, y de la expresión anterior se obtiene

$$0 > \frac{x_1^n}{2} \geq x_1^n \left( 1 + \frac{a_{n-1}}{x_1} + \ldots + \frac{a_0}{x_1^n} \right) = f(x_1).$$

Por otro lado, si consideramos $x_2 > 0$ tal que satisface $(1)$, entonces $x_2^n >0$ y así tenemos

$$0 < \frac{x_2^n}{2} \leq x_2^n \left( 1 + \frac{a_{n-1}}{x_2} + \ldots + \frac{a_0}{x_2^n} \right) = f(x_2).$$

Por lo cual $f(x_1) < 0$ y $f(x_2) > 0$. Por el teorema del valor intermedio, concluimos que existe $x_0 \in [x_1,x_2]$ tal que $f(x_0) = 0$.

$\square$

Después de haber probado el teorema anterior, podemos notar que fue fundamental en la demostración usar que $n$ es impar. El caso cuando $n$ es par se convierte en un problema más complejo derivado del hecho de que hay algunos polinomios que no tienen solución en los reales, tal es el caso de $x^2+1 = 0$; sin embargo, para este tipo de polinomios podemos probar que existe un mínimo.

Teorema. Si $n$ es par y $f(x) = x^n+a_{n-1}x^{n-1} + \ldots + a_0$, entonces existe un $x_0$ tal que $f(x_0) \leq f(x)$ para todo $x \in \mathbb{R}$.

Demostración.

Por el teorema del máximo-mínimo, sabemos que toda función continua en un intervalo cerrado $[a,b]$ tiene un mínimo en dicho intervalo. Así que nos enfocaremos en encontrar un mínimo para cuando nuestra función esté fuera de tal intervalo.

De forma similar a la demostración anterior, consideremos $M = max\{1, 2n|a_{n-1}|, \dots, 2n|a_0| \}$, entonces para todo $x$ que satisfaga $|x| \geq M$, se tiene que

$$\frac{1}{2} \leq 1 + \frac{a_{n-1}}{x} + \ldots+ \frac{a_0}{x^n}.$$

Como $n$ es par, $x^n>0$ para todo $x$, por tanto

$$\frac{x^n}{2} \leq x^n \left( 1 + \frac{a_{n-1}}{x} + \ldots + \frac{a_0}{x^n} \right) = f(x), \text{si } |x|\geq M.$$

Consideremos ahora el número $f(0)$. Sea $b > 0$ un número tal que $b^n \geq 2f(0)$ y $b>M$. Entonces si $x \geq b$, obtenemos

$$f(x) \geq \frac{x^n}{2} \geq \frac{b^n}{2} \geq f(0). \tag{1}$$

Análogamente, si $x \leq -b$, entonces

$$f(x) \geq \frac{x^n}{2} \geq \frac{(-b)^n}{2}= \frac{b^n}{2} \geq f(0). \tag{2}$$

Por lo que si $x \geq b$ ó $x \leq -b$, entonces $f(x) \geq f(0)$.

Dado que $f$ es continua, podemos aplicar el teorema del máximo-mínimo en el intervalo $[-b,b],$. Por tanto, existe un número $x_0$ tal que si $-b \leq x \leq b$, entonces $f(x_0) \leq f(x)$. En particular, $f(x_0) \leq f(0)$.

Además, por $(1)$ y $(2)$ sabemos que si $x \geq b$ ó $x \leq -b$, entonces $f(x) \geq f(0) \geq f(x_0)$.

Por lo anterior, podemos concluir que $f(x_0) \leq f(x)$ para todo $x$.

$\square$

Más adelante…

En la siguiente entrada daremos la definición de continuidad uniforme y veremos su relación con el concepto que conocemos de continuidad. También revisaremos el concepto de funciones de Lipschitz y el papel que juegan dentro de la continuidad.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Supongamos que $f$ es una función continua en $[0,1]$ y que $f(x)$ pertenece al intervalo $[0,1]$ para cada $x$. Demuestra que $f(x) = x$ para algún $x$.
  • Demuestra que existe algún número $x$ tal que $sen(x) = x-1$.
  • Encuentra la solución al polinomio $x^5+5x^4+2x+1$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal II: El teorema espectral y de descomposición polar complejos

Por Ayax Calderón

Introducción

Ya hablamos de qué son las transformaciones adjuntas en el caso de los espacios hermitianos, que podemos pensar como el equivalente complejo a los espacios euclideanos. A partir de esto, hablamos de quienes son las transformaciones que preservan el producto interior hemitiano (y por lo tanto la norma hermitiana): las transformaciones unitarias.

Lo que haremos ahora es dar el análogo al teorema espectral real, pero para el caso complejo. En el caso real el resultado es para transformaciones o matrices simétricas. En el caso complejo eso no funcionará. Primero, tenemos que introducir a las transformaciones hermitianas, que serán las que sí tendrán un teorema espectral. Ya eligiendo la noción correcta, las demostraciones se parecen mucho a las del caso real, así que solamente las esbozaremos y en caso de ser necesario haremos aclaraciones pertinentes para la versión compleja.

Transformaciones hermitianas

La noción correcta que necesitamos para enunciar y demostrar el teorema espectral es la siguiente.

Definición. Sea $V$ un espacio hermitiano con un producto interior hermitiano $\langle \cdot , \cdot \rangle$. Diremos que una transformación lineal $T:V\to V$ es hermitiana si
$$\langle T(x),y \rangle=\langle x,T(y) \rangle$$ para cualesquiera $x,y\in V$.

Diremos que una matriz $A\in M_n(\mathbb{C})$ es hermitiana si $A=A^*$, donde $A^*=\overline{^tA}$.

La conexión entre las transformaciones hermitianas y las matrices hermitianas es la siguiente.

Teorema. Sea $V$ un espacio hermitiano y $\mathcal{B}=\{e_1,\dots, e_n\}$ una base ortonormal de $V$. Las transformación $T$ es hermitiana si y sólo si la matriz $A=Mat_{\mathcal{B}}(T)$ es hermitiana.

Demostración. Recordemos que si $\mathcal{B}$ es una base ortonormal de $V$, entonces cualquier $x\in V$ se puede expresar como $$x=\displaystyle\sum_{i=1}^n \langle x,e_i \rangle e_i.$$

Entonces $$T(e_j)=\displaystyle\sum_{i=1}^n\langle T(e_j),e_i \rangle e_i$$ y por lo tanto $$A_{ij}=\langle T(e_j),e_i \rangle .$$

Hagamos ahora sí la demostración del si y sólo si. Supongamos primero que $T$ es hermitiana. Tenemos entonces que:

\begin{align*}
A_{ji}&=\langle T(e_i),e_j\rangle\\
&=\langle e_i, T(e_j) \rangle\\
&=\overline{\langle T(e_j),e_i \rangle}\\
&=\overline{A_{ij}}.
\end{align*}

La tercer igualdad se sigue pues para el producto interior hermitiano al intercambiar las entradas se conjuga. Así $A$ es hermitiana.

Supongamos ahora que $A$ es hermitiana, entonces
\begin{align*}
\langle T(x),y \rangle &=\displaystyle\sum_{i=1}^n\sum_{j=1}^n \langle T(x_ie_i),y_je_j \rangle \\
&=\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}A_{ji}\\
&=\sum_{i=1}^n\sum_{j=1}^n x_i\overline{y_j}\overline{A_{ij}}\\
&=\sum_{i=1}^n\sum_{j=1}^n \langle x_ie_i, T(y_j)e_j \rangle\\
&=\langle x,T(y) \rangle.
\end{align*}

Por lo tanto $T$ es hermitiana.

$\square$

El teorema espectral complejo

En el siguiente teorema resumimos tanto los resultados auxiliares para demostrar el teorema espectral en el caso complejo (1 y 2), como el teorema espectral mismo (3).

Teorema. Sea $V$ un espacio hermitiano y $T:V\to V$ una transformación lineal hermitiana. Entonces las siguientes afirmaciones son verdaderas:

  1. Todos los eigenvalores de $T$ son reales.
  2. Si $W$ es un subespacio de $V$ estable bajo $T$, entonces $W^\bot$ también es estable bajo $T$, y las restricciones de $T$ a $W$ y $W^\bot$ son transformaciones lineales hermitianas sobre estos subespacios.
  3. Existe una base ortonormal de $V$ formada por eigenvectores de $T$.

Demostración.

  1. Sea $t$ un eigenvalor de $T$, entonces $T(x)=tx$ para algún vector no nulo $x\in V$. Como $T$ es hermitiana, tenemos lo siguiente. $$t||x||^2=\langle x, tx \rangle =\langle x, T(x) \rangle = \langle T(x), x \rangle = \langle tx,x\rangle = \overline{t}||x||^2.$$ Como $x\neq 0$, podemos cancelar $||x||$ de ambos lados para obtener $t=\overline{t}$ y por lo tanto $t$ es real. Compara esta demostración con la del caso real, ¡en esta ocasión es mucho más sencillo!
  2. Sea $y\in W^\bot$, entonces
    $$\langle x,T(y) \rangle=\langle T(x),y \rangle=0 \hspace{2mm} \forall x\in W,$$
    pues $T(x)\in W$ ya que $W$ es $T$-estable. Entonces $T^*(y)\in W^\bot$ y así $T(W^\bot)\subseteq W^\bot$. Además, $$\langle T_W(x),y \rangle =\langle T(x),y \rangle=\langle x,T(y) \rangle=\langle x,T_W(y) \rangle\hspace{2mm}\forall x,y\in W.$$ Por lo tanto $T_W$ es hermitiana. La prueba de que $T_{W^\bot}$ es hermitiana es análoga.
  3. Por el teorema fundamental de álgebra tenemos que el polinomio característico de $T$ se divide en $\mathbb{C}$. Entonces, por el teorema de Schur existe una base ortonormal $\mathcal{B}$ de $V$ tal que $A= Mat_{\mathcal{B}}(T)$ es una matriz triangular superior. Recordemos que $Mat_{\mathcal{B}}(T^*)=Mat_{\mathcal{B}}(T)^*$, se sigue que
    $$A=Mat_{\mathcal{B}}(T)=Mat_{\mathcal{B}}(T^*)=Mat_{\mathcal{B}}(T)^*=A^*.$$
    Entonces $A$ y $A^*$ son simultaneamente triangulares superiores y por lo tanto $A$ es diagonal. Por ello, $\mathcal{B}$ es una base formada por eigenvectores de $T$.

$\square$

Resulta que el recíproco del último inciso del teorema anterior también es cierto:

Teorema. Si $V$ es un espacio hermitiano y $T:V\to V$ es una transformación lineal hermitiana tal que existe una base $\mathcal{B}$ de $V$ formada por eigenvectores de $T$ con eigenvalores reales, entonces $T$ es hermitiana.

Demostración. Sea $A=Mat_{\mathcal{B}}(T)$. Como los elementos de $\mathcal{B}=\{e_1,\dots, e_n\}$ son eigenvectores de $T$, entonces $A$ es una matriz diagonal. Como por hipótesis todo eigenvector es real, entonces $A$ es de entradas reales, pues $a_{ii}=t_i$. Se sigue que $A=A^*$ y por lo tanto $T$ es hermitiana.

$\square$

Finalmente, enunciamos la versión del teorema espectral para matrices.

Teorema (teorema espectral complejo). Sea $A\in M_n(\mathbb{C})$ una matriz hermitiana. Existe una matriz unitaria $P$ y una matriz diagonal $D$ con entradas reales tal que $A=P^{-1}DP$.

El teorema de descomposición polar complejo

A partir del teorema espectral complejo se puede demostrar también un teorema de descomposición polar complejo. El resultado es el siguiente.

Teorema (descomposición polar compleja). Sea $A\in M_n(\mathbb{C})$ una matriz invertible. Entonces existen una única matriz unitaria $U$ y una única matriz hermitiana $H$ con eigenvalores positivos tales que $A=UH$.

También hay una versión para cuando la transformación no es invertible. La discusión y las pruebas son análogas a lo que se platicó en la entrada de descomposición polar.

Más adelante…

Con esta entrada terminamos la tercera unidad de nuestro curso. En esta tercera unidad las transformaciones que estudiamos cumplen propiedades bonitas: ser ortogonales, diagonales, unitarias, etc. A partir de ello hay clasificaciones muy detalladas: la clasificación de matrices ortogonales, el teorema espectral, el teorema de descomposición polar. En la cuarta unidad hablaremos de otra manera en la que podemos «simplificar» cualquier transformación lineal o matriz: mediante formas canónicas. La ventaja es que la cantidad de matrices que podremos simplificar será mucho mayor, aunque la ligera desventaja es que ya no tendremos una forma «diagonal» sino una «casi diagonal».

Tarea moral

  1. Encuentra una diagonalización de $\begin{pmatrix} 1+i & 2i \\ -2i & 1-i \end{pmatrix}$. Encuentra la descomposición polar de $\begin{pmatrix} 1+i & 1-i \\ 2i & 2-i\end{pmatrix}.$
  2. Sea $U:V\to V$ una transformación lineal sobre un espacio hermitiano $V$. Demuestra o da un contraejemplo de la siguiente afirmación: Si $\norm{U(x)}=\norm{x}$ para cualquier $x\in B$, donde $B$ es una base ortonormal de $V$, entonces $U$ es unitaria.
  3. Demuestra que una matriz unitaria y triangular superior necesariamente es diagonal.
  4. Sea $A$ una matriz cuadrada con descomposición polar $A=WP$. Demuestra que $A$ es normal si y sólo si $WP^2=P^2W$.
  5. Bajo las mismas hipótesis del inciso anterior y haciendo uso de éste, demuestra que $A$ es normal si y sólo si $WP=PW$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Aplicaciones de bases ortogonales en espacios euclideanos

Por Diego Ligani Rodríguez Trejo

Introducción

Cerraremos la tercera unidad con dos entradas relacionadas con tener bases ortogonales y cómo encontrar estas bases. En realidad estos temas ya se vieron en el primer curso de Álgebra Lineal, así que estas entradas más bien estarán escritas como recordatorios de esa teoría.

Las entradas correspondientes en el primer curso de Álgebra Lineal son las siguientes: Bases ortogonales, Bases ortogonales y descomposición de Fourier, Proceso de Gram-Schmidt y Problemas de bases ortogonales y proceso de Gram-Schmidt.

Familias ortogonales y ortonormales

En esta entrada $V$ es un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$ y norma asociada $\norm{\cdot}$.

Definición. Una familia de vectores $(v_i)_{i \in I} \subseteq V$ es ortogonal si
para cualesquiera $i,j$ en $I$ se tiene que $$\langle v_i,v_j \rangle =0.$$ Aquí $I$ es un conjunto de índices cualquiera.

Definición. Diremos que una $(v_i)_{i \in I}$ es ortonormal si es ortogonal y además cada vector tiene norma $1$.

Definición. Una base ortogonal (resp. base ortonormal) es una base del espacio vectorial que además sea ortogonal (resp. ortonormal).

A partir de una familia de vectores $(v_i)_{i\in I}$ cualquiera podemos obtener una familia en donde todos los vectores tienen norma $1$. Basta con reemplazar $v_i$ por $\frac{v_i}{\norm{v_i})$ para todo $i\in I$. Además, es fácil verificar que esto preserva el espacio generado por la familia.

Lo que no es tan sencillo, y recordaremos más adelante, es ver que a partir de cualquier familia de vectores podemos encontrar otra que sea ortogonal y que genere el mismo espacio. Esto está relacionado con el proceso de Gram-Schmidt, que repasaremos en la siguiente entrada. Por el momento, nos enfocaremos a recordar algunas de las ventajas de contar con familias o bases ortogonales/ortonormales.

Independencia lineal de familias ortogonales

La siguiente proposición está demostrada a detalle en la entrada de Bases ortogonales.

Proposición. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$. Cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ con respecto a $\langle \cdot, \cdot \rangle$ y sin vectores cero es linealmente independiente.

La idea de la demostración es sencilla. Si tenemos una combinación lineal $$\sum_{i\in I} \alpha_i v_i=0,$$ entonces hacemos producto interior por cada $v_i$. Tras esto, como la familia es ortogonal, el único elemento que queda es $\alpha_i\langle v_i, v_i\rangle$ y está igualado a cero. Por ser producto interior, $\langle v_i, v_i\rangle\neq 0$, así que $\alpha_i=0$.

Como consecuencia, obtenemos de manera inmediata lo siguiente.

Corolario. Sea $V$ un espacio euclideano de dimensión $n$ con producto interior $\langle \cdot, \cdot \rangle$. Cualquier familia ortogonal $(v_i)_{i \in I} \subseteq V$ con respecto a $\langle \cdot, \cdot \rangle$ y sin vectores cero tiene a lo más $n$ elementos.

Esto es una consecuencia directa de que la dimensión de un espacio vectorial de dimensión finita limita la cantidad de elementos en un conjunto linealmente independiente, lo cual a su vez era consecuencia del lema de Steinitz.

Leer las coordenadas en una base ortonormal

Cuando tenemos una base ortogonal (u ortonormal), es muy sencillo saber quiénes son las coordenadas de un vector dada una base.

Proposición. Sea $V$ un espacio euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortogonal. Para todo $v$ en $V$ tenemos que

\begin{align*}
v&=\sum_{i=1}^n \frac{\langle v,u_i\rangle}{\langle u_i,u_i\rangle} u_i\\
&=\sum_{i=1}^n \frac{\langle v,u_i\rangle}{\norm{u_i}^2} u_i.
\end{align*}

En otras palabras, «la coordenada correspondiente a $u_i$ se obtiene haciendo producto interior con $u_i$ y dividiendo entre el cuadrado de la norma de $u_i$». La demostración completa la puedes encontrar en la entrada de Aplicaciones de bases ortogonales y descomposición de Fourier, pero puedes redescubrirla fácilmente. Basta escribir a $v$ como combinación lineal de los elementos de $\beta$ y aplicar producto punto por cada uno de ellos. De ahí casi todos los términos se eliminan y del que no se puede obtener la coordenada correspondiente.

Cuando la base es ortonormal, las normas de cada $u_i$ son $1$ y entonces obtenemos lo siguiente.

Corolario. Sea $V$ un espacio euclidiano de dimensión $n$ y $\beta=\{u_1, \cdots , u_n\}$ una base ortonormal. Para todo $v$ en $V$ tenemos que

\begin{align*}
v&=\sum_{i=1}^n \langle v,u_i\rangle u_i.
\end{align*}

Tenemos ahora un poco más de vocabulario para decir esto mismo. La proposición anterior es equivalente a decir que:

  • La base dual de una base ortonormal $u_1,\ldots,u_n$ son las formas lineales $\langle \cdot, u_1\rangle, \ldots, \langle \cdot, u_n\rangle$.
  • Cada elemento de una base ortonormal es la representación de Riesz de su elemento respectivo en la base dual.

Esta forma de determinar las coordenadas es tan importante que a veces tiene sentido obtenerla aunque el espacio vectorial que tengamos sea de dimensión infinita.

Descomposición y series de Fourier

Dada una base $u_1,\ldots,u_n$ de un espacio euclideano, la expresión

\begin{align*}
v&=\sum_{i=1}^n \langle v,u_i\rangle u_i.
\end{align*}

es muy importante, y se le conoce como la descomposición de Fourier de $v$ con respecto a $\beta$. En los espacios euclideanos tenemos la igualdad entre ambos lados. Sin embargo, esta expresión también aparece en muchos otros contextos en donde no necesariamente tenemos dimensión finita, y en donde el vector $v$ al que le buscamos su «descomposición» no necesariamente está en el espacio que queremos.

En la entrada Aplicaciones de bases ortogonales y descomposición de Fourier vemos un ejemplo de esto, en donde discutimos cómo se pueden usar los polinomios trigonométricos para aproximar una función.

Descomposición de Fourier, norma y proyecciones

Como consecuencia de la expresión $v=\sum_{i=1}^n \langle v,u_i\rangle u_i$ se obtiene de manera inmediata la norma de un vector.

Proposición. Si $v=\sum_{i=1}^n \langle v,u_i\rangle u_i$ para una base ortonormal $u_1,\ldots,u_n$, entonces $\norm{x}^2=\sum_{i=1}^n \langle v,u_i\rangle^2$.

También, es muy sencillo encontrar la proyección ortogonal de un vector conociendo una base ortonormal del subespacio a donde proyectamos ortogonalmente.

Proposición. Sea $V$ un espacio euclideano y $W$ un subespacio. Sea $u_1,\ldots,u_r$ una base ortonormal de $W$. Entonces para todo vector $v\in V$ se tiene que $$p_W(v)=\sum_{i=1}^r \langle v, u_i \rangle u_i.$$

Desigualdad de Bessel

Las aplicaciones de las bases ortogonales pueden extenderse bastante. Como ejemplo final, enunciamos la desigualdad de Bessel.

Proposición (desigualdad de Bessel). Sea $V$ un espacio euclideano y $u_1,\ldots,u_r$ un conjunto ortonormal de vectores. Entonces $$\sum_{i=1}^r \langle v, v_i \rangle ^2\leq \norm{v}^2$$ para todo $v$ en $V$.

La demostración igualmente está en la entrada Problemas de bases ortogonales, Fourier y procesos de Gram-Schmidt. La idea clave es considerar a $W$ el espacio generado por $u_1,\ldots,u_r$ y calcular $d(v,W)$ usando la fórmula de proyección de la sección anterior, y el resultado de distancia de la entrada anterior.

Más adelante…

En esta entrada repasamos algunas de las aplicaciones que pueden tener las bases ortogonales y ortonormales de un espacio vectorial $V$ con producto interior. En la siguiente entrada recordaremos un resultado crucial: si $V$ es de dimensión finita entonce siempre tiene una base ortonormal.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso. Sin embargo, sirven de ayuda para repasar los conceptos vistos en esta entrada.

  1. Intenta reconstruir todas las demostraciones completas de cada uno de los resultados aquí vistos. En caso de tener dificultades, revisa las demostraciones en las entradas correspondientes.
  2. Las matrices en $M_n(\mathbb{R})$ tienen un producto interior dado por $\langle A,B\rangle=\text{traza}(\text{ }^tAB)$. Encuentra una base ortogonal para este producto interior. Da la descomposición de Fourier con respecto a esta base. Encuentra una base ortogonal para el subespacio de matrices simétricas. ¿Qué diría la desigualdad de Bessen en este caso?
  3. Encuentra en términos del producto punto de $\mathbb{R}^n$ cómo es la matriz de cambio de base de una base ortogonal $\beta$ de $\mathbb{R}^n$ a otra base ortogonal $\beta’$.
  4. Sea $V=\mathbb{R}_2[x]$ el espacio de polinomios reales de grado a lo más $2$. Definimos la función $\langle \cdot,\cdot \rangle: V\times V\to\mathbb{R}$ como sigue: $$\langle p,q\rangle = p(-1)q(-1)+p(0)q(0)+p(1)q(1).$$ Demuestra que $\langle \cdot, \cdot \rangle$ así definida es un producto interior. Encuentra una base ortonormal para este producto interior.
  5. En espacios hermitianos también tiene sentido definir conjuntos de vectores (o bases) ortogonales y ortonormales. Demuestra los análogos a todos los resultados de esta entrada para el caso complejo.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Cálculo Diferencial e Integral I: Límites infinitos

Por Juan Manuel Naranjo Jurado

Introducción

¿Qué sucede cuando $f$ comienza a crecer o decrecer arbitrariamente cuando $x \to x_0$ ó $x \to \infty$? En este sentido, el límite de una función en un punto puede tener un comportamiento divergente y éste será el tema de la presente entrada.

Divergencia en un punto

Iniciaremos dando la definición de divergencia del límite de una función en un punto $x_0$.

Definición. Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}.$

$i$) Se dice que $f$ tiende a $\infty$ cuando $x \rightarrow x_0$ y lo denotamos como $$\lim_{x \to x_0} f(x) = \infty$$
si para todo $M \in \mathbb{R}$ existe $\delta > 0$ tal que para todo $x \in A$ con $0 < |x-x_0|< \delta$, entonces $f(x) > M.$

$ii$) Se dice que $f$ tiende a $- \infty$ cuando $x \rightarrow x_0$ y lo denotamos como $$\lim_{x \to x_0} f(x) = -\infty$$
si para todo $m \in \mathbb{R}$ existe $\delta > 0$ tal que para todo $x \in A$ con $0 < |x-x_0|< \delta$, entonces $f(x) < m.$

Iniciaremos con uno de los ejemplos clásicos.

Ejemplo 1. Prueba que $$\lim_{x \to 0} \frac{1}{x^2} = \infty.$$

Demostración.

Sea $M \in \mathbb{R}$, sin pérdida de generalidad, supongamos que $M > 0$; consideremos $\delta = \frac{1}{\sqrt{M}}$. Si $0 < |x-0| = |x| < \delta = \frac{1}{\sqrt{M}}$, entonces $|x| < \frac{1}{\sqrt{M}}, es decir, \frac{1}{x^2} > M.$

$\square$

Antes de dar el siguiente ejemplo, demostraremos un teorema que nos ayudara a hacer el cálculo de este tipo de límites.

Proposición. Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}$ y $x_0 \in A$. Supongamos que $f(x) \leq g(x)$ para todo $x \in A$ con $x \neq x_0$.

$i)$ Si $$\lim_{x \to x_0} f(x) = \infty, \quad \text{ entonces } \quad \lim_{x \to x_0} g(x) = \infty.$$
$ii)$ Si $$\lim_{x \to x_0} g(x) = -\infty, \quad \text{ entonces } \quad \lim_{x \to x_0} f(x) = -\infty.$$

Demostración.
$i)$ Sea $M \in \mathbb{R}$. Como $f$ tiende a $\infty$ cuando $x \rightarrow x_0$, existe $\delta > 0$ tal que si $0 < |x-x_0| < \delta$, entonces $f(x) > M.$

Por hipótesis $f(x) \leq g(x)$ para todo $x \in A$ con $x \neq x_0$, de esta forma tenemos que si $0 < |x-x_0| < \delta$, entonces $g(x) \geq f(x) > M$. Es decir, $g(x) > M$. Por lo tanto $$\lim_{x \to x_0} g(x) = \infty.$$

$ii)$ La demostración es análoga.

$\square$

Ejemplo 2. Prueba que $$\lim_{x \to 0} \left( \frac{1}{x^2} + |cos(x)| \right) = \infty.$$

Demostración.

Sabemos que

$$\lim_{x \to 0} \frac{1}{x^2} = \infty.$$

Además,
\begin{gather*}
& |cos(x)| \geq 0. \\ \\
\Rightarrow & \frac{1}{x^2} \leq \frac{1}{x^2} + |cos(x)|.
\end{gather*}

Usando el teorema anterior, podemos concluir que

$$\lim_{x \to 0} \left( \frac{1}{x^2} + |cos(x)| \right) = \infty.$$

$\square$

Divergencia en el infinito

La definición de divergencia la podemos extender para los límites en el infinito.

Definición.
$i)$ Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}$. Supongamos que $(a, \infty) \subset A$ para algún $a \in A$. Se dice que $f$ tiende a $\infty$ cuando $x \rightarrow \infty$ y lo denotamos como $$\lim_{x \to \infty} f(x) = \infty$$ si para cualquier $M \in \mathbb{R}$ existe $K \in \mathbb{R}$ tal que para cualquier $x>K$, entonces $f(x) > M.$


$ii)$ Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}$. Supongamos que $(a, \infty) \subset A$ para algún $a \in A$. Se dice que $f$ tiende a $- \infty$ cuando $x \rightarrow \infty$ y lo denotamos como $$\lim_{x \to \infty} f(x) = -\infty$$ si para cualquier $m \in \mathbb{R}$ existe $K \in \mathbb{R}$ tal que para cualquier $x>K$, entonces $f(x) < m.$

Ejemplo 3. Prueba que $$\lim_{x \to \infty} x = \infty.$$

Demostración.

Sea $M \in \mathbb{R}$, consideremos $K = M+1$. Si $x > K$, como $f(x) = x$, entonces $f(x) > M+1 > M$. Es decir, $f(x) > M.$

$\square$

Ejemplo 4. Prueba que $$\lim_{x \to \infty} 3x^2 = \infty.$$

Demostración.

Sea $M \in \mathbb{R}$, consideremos $K = \sqrt{\frac{M}{3}}$. Si $x > K$, se tiene que $x > \sqrt{\frac{M}{3}}$. Lo anterior implica que $3x^2 > M$, es decir, $f(x) > M.$

$\square$

Divergencia lateral

A continuación daremos la definición de divergencia para los límites laterales y finalizaremos esta entrada con un ejemplo de los mismos.

Definición. Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}$. Se dice que el límite por la derecha de $f$ en $x_0$ diverge a infinito si para todo $M \in \mathbb{R}$ existe $\delta > 0$ tal que si $0<x – x_0<\delta$ entonces $f(x) > M$. Y lo denotamos $$\lim_{x \to x_0^+} f(x) = \infty.$$

Análogamente, tenemos la siguiente definición.

Definición. Sean $A \subset \mathbb{R}$ y $f: A \rightarrow \mathbb{R}$. Se dice que el límite por la izquierda de $f$ en $x_0$ diverge a infinito si para todo $M \in \mathbb{R}$ existe $\delta > 0$ tal que si $0<x_0 – x<\delta$ entonces $f(x) > M$. Y lo denotamos $$\lim_{x \to x_0^-} f(x) = \infty.$$

Notemos que existen definiciones análogas para cuando $f$ diverge a $-\infty$ en $x_0$.

Ejemplo 5. $$\lim_{x \to 0^+} \frac{1}{x} = \infty.$$
Demostración.
Sea $M \in \mathbb{R}$, sin pérdida de generalidad, consideremos $M > 0.$

Tomemos $\delta = \frac{1}{M}.$
Si $0<x-0< \delta = \frac{1}{M}$, entonces $f(x) = \frac{1}{x} > M$, así se tiene que

$$\lim_{x \to 0^+} \frac{1}{x} = \infty.$$

$\square$

Más adelante…

En la siguiente entrada haremos uso del límite de una función en toda su extensión y emplearemos las propiedades revisadas en las entradas anteriores mediante la resolución de límites para las funciones trigonométricas que, particularmente, se habían destinado para los temas finales de esta unidad.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $a \in \mathbb{R}$. Prueba que $$\lim_{x \to \infty} x-a = \infty.$$
  • Prueba que $$\lim_{x \to \infty} x^2-x = \infty.$$
  • Escribe las definiciones de divergencia a $-\infty$ para los límites laterales.
  • Usando la definición que propusiste en el ejercicio anterior, prueba que $$\lim_{x \to 0^-} \frac{1}{x} = -\infty.$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»