Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios repetidos

Por Omar González Franco

La matemática es la ciencia del orden y la medida, de bellas
cadenas de razonamientos, todos sencillos y fáciles.
– Descartes

Introducción

El método de valores y vectores propios nos ha permitido obtener las soluciones generales de sistemas lineales homogéneos. Ya vimos los casos en los que los valores propios son reales y distintos y cuando son complejos, en esta entrada presentaremos el caso en el que algunos de los valores propios son repetidos.

En este caso se presenta un problema y es que nosotros sabemos que si una matriz $\mathbf{A}$ de $n \times n$ con componentes constantes tiene $n$ valores propios distintos, entonces tendremos $n$ vectores propios que son linealmente independientes y por tanto tendremos $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Si se presenta el caso en el que algunos valores propios son repetidos, entonces tendremos $k < n$ valores propios que son distintos y por tanto $k$ vectores propios linealmente independientes, lo que significa que nos faltarán $n -k$ soluciones linealmente independientes del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. El problema aquí es ¿cómo obtener las soluciones linealmente independientes que nos faltan?, para así determinar la solución general del sistema lineal. Recordemos que la solución general corresponde a la combinación lineal de las $n$ soluciones linealmente independientes del sistema.

En esta entrada resolveremos este problema y lo interesante es que el concepto de exponencial de una matriz es lo que nos ayudará.

Vectores propios generalizados

De la primera unidad recordemos que la función $y(t) = ce^{at}$ es una solución de la ecuación diferencial escalar $y^{\prime}(t) = ay$ para cualesquiera constantes $a$ y $c$. De manera análoga, se desearía que la función vectorial

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} \label{1} \tag{1}$$

fuera una solución del sistema lineal

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

para cualquier vector constante $\mathbf{K}$.

En la entrada en la que definimos la exponencial de una matriz demostramos que la función $\mathbf{Y}(t) = e^{\mathbf{A} t}$ no sólo es solución del sistema lineal (\ref{2}), sino que incluso es una matriz fundamental de soluciones. También vimos que la derivada de $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es

$$\dfrac{d}{dt} e^{\mathbf{A}t} = \mathbf{A} e^{\mathbf{A}t} \label{3} \tag{3}$$

Usando este resultado mostremos lo siguiente.

$$\dfrac{d}{dt} (e^{\mathbf{A}t} \mathbf{K}) = (\mathbf{A} e^{\mathbf{A}t}) \mathbf{K} = \mathbf{A} (e^{\mathbf{A}t} \mathbf{K}) \label{4} \tag{4}$$

Esto muestra que la función $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K}$ efectivamente es solución del sistema lineal (\ref{2}).

Ahora que sabemos que (\ref{1}) es solución del sistema lineal (\ref{2}) veamos cómo esto puede ayudarnos a encontrar $n$ vectores $\mathbf{K}$ linealmente independientes. Notemos lo siguiente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} = e^{\mathbf{A} t} e^{(\lambda \mathbf{I} -\lambda \mathbf{I})t} \mathbf{K} = e^{(\mathbf{A} -\lambda \mathbf{I})t}e^{\lambda \mathbf{I}t} \mathbf{K} \label{5} \tag{5}$$

para cualquier constante $\lambda$ y en donde hemos usado el hecho de que

$$(\mathbf{A} -\lambda \mathbf{I})(\lambda \mathbf{I}) = (\lambda \mathbf{I})(\mathbf{A} -\lambda \mathbf{I}) \label{6} \tag{6}$$

De acuerdo a la definición de exponencial de una matriz observemos lo siguiente.

$$e^{\lambda \mathbf{I} t} = \sum_{k = 0}^{\infty} \dfrac{(\lambda \mathbf{I} t)^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I}^{k} t^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I} t^{k}}{k!} = \left( \sum_{k = 0}^{\infty} \dfrac{ (\lambda t)^{k}}{k!} \right) \mathbf{I} = e^{\lambda t} \mathbf{I} = e^{\lambda t}$$

Por lo tanto, (\ref{5}) se puede escribir como

$$\mathbf{Y}(t) = e^{\mathbf{A}t} \mathbf{K} = e^{\lambda t} e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} \label{7} \tag{7}$$

Concentrémonos un momento en el término $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ de la solución anterior. Recordando que la exponencial $e^{\mathbf{A} t}$ es

$$e^{\mathbf{A}t} = \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty}\mathbf{A}^{k} \dfrac{t^{k}}{k!} \label{8} \tag{8}$$

entonces la exponencial $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ es

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} = \mathbf{I} + (\mathbf{A} -\lambda \mathbf{I}) t + (\mathbf{A} -\lambda \mathbf{I})^{2} \dfrac{t^{2}}{2!} + \cdots + (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!}$$

y, así mismo

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \left( \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{9} \tag{9}$$

Supongamos que existe un entero $m$, tal que

$$(\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} = \mathbf{0} \label{10} \tag{10}$$

Entonces la serie infinita (\ref{9}) terminará después de $m$ términos, pues si se satisface (\ref{10}), entonces se cumple

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = \mathbf{0} \label{11} \tag{11}$$

Para $l > 0$ entero. Esto es claro debido a que

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = (\mathbf{A} -\lambda \mathbf{I})^{l} \left[ (\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} \right] = \mathbf{0}$$

Por lo tanto,

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \label{12} \tag{12}$$

Así, la solución (\ref{7}) se puede escribir como

\begin{align*}
\mathbf{Y}(t) &= e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \right] \\
&= e^{\lambda t} \left( \sum_{k = 0}^{m -1} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{13} \tag{13}
\end{align*}

No es casualidad que estemos usando la notación $\lambda$ y $\mathbf{K}$, estas cantidades corresponden a los valores y vectores propios de la matriz de coeficientes $\mathbf{A}$ del sistema lineal (\ref{2}), respectivamente.

El vector propio $\mathbf{K}$ que satisface (\ref{10}) recibe un nombre particular.

El resultado que nos interesa es la solución (\ref{13}). En el método de valores y vectores propios lo que hacemos es determinar los valores propios de la matriz $\mathbf{A}$ y con ellos posteriormente determinamos los vectores propios. Los vectores propios se determinan con la ecuación vectorial

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0} \label{14} \tag{14}$$

Observemos que si se satisface (\ref{14}), entonces la serie (\ref{13}) se reduce a $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$ que es la solución que ya conocíamos. Si los valores y vectores propios son complejos simplemente se aplica la teoría de la entrada anterior sobre la misma solución $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$.

A continuación presentamos el algoritmo para encontrar $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Algoritmo para encontrar $n$ soluciones linealmente independientes

  • Primero determinamos todos los valores y vectores propios de $\mathbf{A}$. Si $\mathbf{A}$ tiene $n$ vectores linealmente independientes, entonces el sistema lineal (\ref{2}) tiene $n$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Esto es lo que siempre hemos hecho.
  • Supongamos que $\mathbf{A}$ tiene únicamente $k < n$ vectores propios linealmente independientes, entonces se tendrá sólo $k$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Para determinar soluciones adicionales tomamos un valor propio $\lambda $ de $\mathbf{A}$ y buscamos todos los vectores $\mathbf{K}$ para los cuales se cumple simultáneamente
    $$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{15} \tag{15}$$
    Para cada uno de los vectores propios generalizados $\mathbf{K}$ encontrados, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \right]\label{16} \tag{16}$$
    Esto se obtiene de la solución (\ref{13}). Hacemos esto para todos los valores propios distintos $\lambda $ de $\mathbf{A}$.
  • Si aún no se tienen suficientes soluciones, entonces se buscan todos los vectores propios generalizados $\mathbf{K}$ para los cuales
    $$(\mathbf{A} -\lambda \mathbf{I})^{3} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq \mathbf{0}, \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{17} \tag{17}$$
    Para cada uno de tales vectores $\mathbf{K}$, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \dfrac{t^{2}}{2!}(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \right] \label{18} \tag{18}$$
    Nuevamente, este resultado se obtiene de considerar (\ref{17}) en (\ref{13}).
  • Este procedimiento se puede continuar hasta encontrar $n$ soluciones linealmente independientes.

Los puntos antes establecidos son los pasos a seguir para obtener $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Realicemos un ejemplo en el que apliquemos el algoritmo anterior para que todo quede más claro.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix}$$

Solución: El primer paso es determinar todos los valores y vectores propios de la matriz $\mathbf{A}$. La ecuación característica de $\mathbf{A}$ se obtiene de calcular el siguiente determinante.

$$\begin{vmatrix}
2 -\lambda & 1 & 3 \\ 0 & 2 -\lambda & -1 \\ 0 & 0 & 2 -\lambda
\end{vmatrix} = 0$$

Es sencillo notar que el polinomio característico es

$$P(\lambda) = (2 -\lambda )^{3}$$

y la ecuación característica es

$$(2 -\lambda )^{3} = 0$$

Vemos que la única raíz que se obtiene es $\lambda = 2$, éste es el único valor propio de $\mathbf{A}$ con multiplicidad tres ($r$ = 3). Un vector propio $\mathbf{K} \neq \mathbf{0}$ lo obtenemos de resolver la ecuación vectorial

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema se deduce que $k_{2} = k_{3} = 0$ y $k_{1}$ al ser arbitrario lo elegimos como $k_{1} = 1$. Por lo tanto, un vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{1}(t) = e^{2t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

es una solución del sistema lineal dado. Esta es la única solución linealmente independiente que pudimos encontrar con el método tradicional. La matriz del sistema es de $3 \times 3$, así que nos hacen faltan 2 soluciones linealmente independientes para poder formar un conjunto fundamental de soluciones y, por tanto, formar la solución general.

Pasemos al segundo punto del algoritmo.

Ahora buscamos todos los vectores $\mathbf{K} \neq \mathbf{0}$, tal que se satisface (\ref{15}), es decir

$$(\mathbf{A} -2\mathbf{I})^{2} \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema deducimos que $k_{3} = 0$ y tanto $k_{1}$ como $k_{2}$ son arbitrarios, nosotros les podemos asignar algún valor, pero cuidado, recordemos que una condición adicional que tenemos es que este nuevo vector también satisfaga que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} \neq \mathbf{0}$$

Un vector que satisface (\ref{15}) simultáneamente es

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}$$

En este caso una solución del sistema lineal esta dada por (\ref{16}).

\begin{align*}
\mathbf{Y}_{2}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{Y}_{2}(t) = e^{2t} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix}$$

En este proceso hemos encontrado dos vectores linealmente independientes, a saber

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Ahora procedemos a buscar un vector propio generalizado más que satisfaga (\ref{17}) y tal que la solución sea de la forma (\ref{18}).

\begin{align*}
(\mathbf{A} -2 \mathbf{I})^{3} \mathbf{K} &= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}
\end{align*}

Es claro que cualquier vector es solución de esta ecuación, sin embargo también se debe satisfacer que

$$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq 0 \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq 0$$

Un vector que satisface lo anterior es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}$$

De acuerdo a (\ref{18}) una solución del sistema lineal es

\begin{align*}
\mathbf{Y}_{3}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) + \dfrac{t^{2}}{2}(\mathbf{A} -2 \mathbf{I})^{2} \right] \mathbf{K}_{3} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix} \right] \\
\end{align*}

En este caso los vectores linealmente encontrados son

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}, \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{3} = \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix}$$

Y la tercer solución linealmente independiente es

$$\mathbf{Y}_{3}(t) = e^{2t} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix}$$

Ahora que tenemos las tres soluciones linealmente independientes del sistema lineal dado podemos concluir que la solución general del sistema es

$$\mathbf{Y}(t) = e^{2t} \left[ c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right]$$

Las constantes $c_{1}$, $c_{2}$ y $c_{3}$ se determinan a partir de los valores iniciales.

$$\mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix} = c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}+ c_{3} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} = \begin{pmatrix}
c_{1} \\ c_{2} \\ c_{3}
\end{pmatrix} $$

Esto implica que $c_{1} = 1$, $c_{2} = 2$ y $c_{3} = 1$. Por lo tanto, la solución particular del sistema lineal es

$$\mathbf{Y}(t) = e^{2t} \left[ \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + 2 \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right] = e^{2t} \begin{pmatrix}
1+ 5t -\dfrac{1}{2}t^{2} \\ 2 -t \\ 1
\end{pmatrix}$$

$\square$

Para concluir con el método de valores y vectores propios enunciaremos un importante teorema que es bueno tener en cuenta cuando trabajamos con valores y vectores propios. Este resultado es conocido como teorema de Cayley – Hamilton, la demostración no la haremos ya que se requiere de teoría de álgebra lineal que no veremos en este curso, pero que por supuesto puedes revisar en entradas de la materia correspondiente.

Teorema de Cayley – Hamilton

En el ejemplo anterior obtuvimos que la ecuación característica de la matriz $\mathbf{A}$ es

$$P(\lambda) = (2 -\lambda)^{3} = 0 \label{19} \tag{19}$$

Observemos que si sustituimos $\lambda$ por la matriz $\mathbf{A}$ obtenemos lo siguiente.

\begin{align*}
P(\mathbf{A}) &= (2 \mathbf{I} -\mathbf{A})^{3} \\
&= \left[ \begin{pmatrix}
2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 2
\end{pmatrix} – \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \right]^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix}
\end{align*}

Vemos que se cumple

$$P(\mathbf{A}) = (2 \mathbf{I} -\mathbf{A})^{3} = \mathbf{0} \label{20} \tag{20}$$

Esto no es casualidad, resulta que cualquier matriz $\mathbf{A}$ de $n \times n$ ¡satisface su propia ecuación característica!. El teorema de Cayley – Hamilton establece este hecho.

Con esto concluimos esta entrada y el estudio de los sistemas lineales homogéneos. En la siguiente entrada aprenderemos a resolver sistemas lineales no homogéneos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 3 \\ -3 & 5
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 1 \\ 2 & 1 & -1 \\ -3 & 2 & 4
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & -1 & 0 \\ 0 & 2 & 1 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & -1 & 2
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 1 & 2 \\ -1 & 1 & 1 \\ -2 & 1 & 3
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -4 & -4 & 0 \\ 10 & 9 & 1 \\ -4 & -3 & 1
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    2 \\ 1 \\ -1
    \end{pmatrix}$

Más adelante…

Hemos concluido con los tres casos del método de valores y vectores propios para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas.

En la siguiente entrada comenzaremos a resolver sistemas lineales no homogéneos, el método que se utiliza es nuevamente el método de variación de parámetros. Veremos cómo es que este método se adapta a los sistemas lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral II: Propiedades de la integral definida

Por Moisés Morales Déciga

Introducción

En las entradas anteriores se dio la motivación de la construcción de la integral y la definición de la integral de Riemann. Para que cierta integral exista, necesitamos que el ínfimo de ciertas sumas superiores coincida con el supremo de ciertas sumas inferiores. Vimos algunas condiciones que garantizan que esto suceda, por ejemplo, que exista el límite de las sumas superiores e inferiores para las particiones homogéneas, y que dicho límite sea el mismo en ambos casos. Lo que haremos ahora es estudiar más propiedades de la integral.

Las propiedades que veremos nos permitirán concluir la existencia de ciertas integrales de manera sencilla y, a la vez, nos permitirán manipular algebraicamente a las integrales. En caso de necesitar un recordatorio de la definición de integral, te recomendamos consultar la entrada anterior.

Integrabilidad de familias de funciones especiales

Hay algunas propiedades de funciones que se estudian desde Cálculo I que implican la integrabilidad. A continuación presentamos un par de ejemplos.

Proposición. Si $f:\mathbb{R}\to \mathbb{R}$ es acotada y monótona en $[a,b]$, entonces es Riemann integrable en $[a,b]$.

Demostración. Supondremos que $f$ es estrictamente creciente. Otras variantes de monotonía (no decreciente, no creciente, estrictamente decreciente) tienen una demostración similar, que puedes hacer por tu cuenta.

Tomemos la partición homogénea $P_n$ del intervalo $[a,b]$. Definiendo $$x_j=a+j\frac{b-a}{n}$$ para $j=0,\ldots,n$, se tiene que las celdas son $$[x_0,x_1],[x_1,x_2],\ldots,[x_{n-1},x_n].$$

Las celdas tienen todas longitud $\frac{b-a}{n}$ y como la función es estrictamente creciente, el mínimo se alcanza al inicio de cada celda. De esta manera, la suma inferior para esta partición es:

\begin{align*}
\underline{S}(f,P_n)=\frac{b-a}{n}\left(f(x_0)+\ldots+f(x_{n-1})\right).
\end{align*}

Similarmente, el máximo se alcanza al final de cada celda. Por ello, la suma superior para esta partición es

\begin{align*}
\overline{S}(f,P_n)=\frac{b-a}{n}\left(f(x_1)+\ldots+f(x_n)\right).
\end{align*}

Restando la suma inferior a la superior, obtenemos

\begin{align*}
\overline{S}(f,P_n)-\underline{S}(f,P_n)&=\left(\frac{b-a}{n}\left(f(x_1)+\ldots+f(x_n)\right)\right)-\left(\frac{b-a}{n}\left(f(x_0)+\ldots+f(x_{n-1})\right)\right)\\
&=\frac{b-a}{n}(f(x_n)-f(x_0))\\
&=\frac{(b-a)(f(b)-f(a))}{n}.
\end{align*}

De acuerdo a la condición de Riemann (enunciada en la entrada anterior), la función será integrable si logramos que esta diferencia sea tan pequeña como queramos. Tomemos entonces cualquier $\epsilon>0$ y $n$ un entero tan grande como para que $n>\frac{1}{\epsilon}(b-a)(f(b)-f(a))$. Para este $n$, se cumple que

\begin{align*}
\overline{S}(f,P_n)-\underline{S}(f,P_n)&=\frac{(b-a)(f(b)-f(a))}{n}<\epsilon,
\end{align*}

y por ello la función es integrable.

$\square$

Proposición. Si $f:\mathbb{R}\to \mathbb{R}$ es continua en $[a,b]$, entonces es Riemann integrable en $[a,b]$.

Demostración. Como primera observación, como $f$ es continua en el intervalo cerrado y acotado $[a,b]$, entonces es acotada, de modo que sí podemos hablar de sus sumas superiores e inferiores.

La estrategia que usaremos para ver que es integrable será verificar nuevamente la condición de Riemann, es decir, que para cualquier $\epsilon > 0$, existe una suma superior y una inferior cuya diferencia es menor que $\epsilon$. La intuición es que con una partición suficientemente fina, el máximo y mínimo de $f$ son muy cercanos porque los puntos que los alcanzan están en una celda muy chiquita (y entonces son muy cercanos). Para poder hacer esto «globalmente» en todas las celdas, necesitaremos una propiedad un poco más fuerte que continuidad: continuidad uniforme (puedes seguir el enlace para recordar este contenido aquí en el blog). Pero ésta se tiene pues las funciones continuas en intervalos cerrados y acotados son uniformemente continuas.

Tomemos entonces $\epsilon >0$. Como mencionamos, $f$ es uniformemente continua y el intervalo $[a,b]$ es cerrado y acotado, entonces $f$ es uniformememente continua. Así, existe una $\delta>0$ tal que si $|x-y|<\delta$, entonces $|f(x)-f(y)|<\frac{\epsilon}{b-a}$. Tomemos $n$ tan grande como para que $\frac{b-a}{n}<\delta$. Tras hacer esto, en cada celda $i$ de la partición homogénea $P_n$ los valores $m_i$ y $M_i$ donde $f$ alcanza el mínimo y máximo respectivamente cumplen que $|M_i-m_i|\leq \frac{b-a}{n}<\delta$ y por lo tanto para cada $i$ se tiene $f(M_i)-f(m_i)=|f(M_i)-f(m_i)|<\frac{\epsilon}{b-a}$.

Ya tenemos los ingredientes para realizar la cuenta de sumas superiores e inferiores.

Por un lado,

$$\overline{S}(f,P_n)=\frac{b-a}{n}\left(f(M_1)+\ldots+f(M_n)\right).$$

Por otro,

$$\underline{S}(f,P_n)=\frac{b-a}{n}\left(f(m_1)+\ldots+f(m_n)\right),$$

así que

\begin{align*}
\overline{S}(f,P_n)-\underline{S}(f,P_n)&=\frac{b-a}{n}\sum_{i=1}^n \left(f(M_i)-f(m_i)\right)\\
&<\frac{b-a}{n}\sum_{i=1}^n \frac{\epsilon}{b-a}\\
&=\frac{b-a}{n}\left(n\frac{\epsilon}{b-a}\right)\\
&=\epsilon.
\end{align*}

Esto muestra que podemos acercar una partición superior tanto como queramos a una inferior. Por el criterio de la entrada anterior, la función $f$ es integrable en $[a,b]$.

$\square$

Separación de la integral en intervalos

Enunciemos una propiedad importante de la integral: puede partirse en intervalos.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Sea $c$ cualquier valor entre $[a,b]$. Si la integral

$$\int \limits_{a}^{b} f(x) \ dx$$

existe, entonces las dos integrales

$$\int \limits_{a}^{c} f(x) \ dx, \int \limits_{c}^{b} f(x) \ dx$$

también existen. Y viceversa, si estas dos integrales existen, entonces la primera también.

Cuando las tres integrales existen, se cumple además la siguiente igualdad:

$$\int \limits_{a}^{b} f(x) \ dx = \int \limits_{a}^{c} f(x) \ dx \ + \int \limits_{c}^{b} f(x) \ dx .$$

Demostración. Veamos primero que si la integral en todo $[a,b]$ existe, entonces las otras dos también. Trabajaremos usando la condición de Riemann. Sea $\epsilon>0$. Como $f$ es integrable en $[a,b]$, entonces existe una partición $P$ de $[a,b]$ tal que

$$\overline{S}(f,P)-\underline{S}(f,P)<\epsilon.$$

Podemos suponer que uno de los puntos de $P$ es el punto $c$, pues de no serlo, refinamos a $P$ incluyendo a $c$. Esto no aumenta la suma superior, ni disminuye la inferior, así que sigue cumpliendo la desigualdad anterior. Si $P=\{x_0,\ldots,x_n\}$, podemos entonces pensar que para alguna $k$ en $\{0\ldots,n\}$ se cumple que $x_k=c$, y entonces de esta partición de $[a,b]$ salen las particiones:

  • $P_1 = \{a=x_0, x_1, … , x_k=c\}$ de $[a,c]$ y
  • $P_2 = \{c={x_k}, x_{k+1}, … , x_n=b\}$ de $[c,b]$.

Como las celdas de $P$ son celdas de $P_1$ ó $P_2$, entonces las sumas superiores e inferiores cumplen:

\begin{align*}
\overline{S} (f,P_1) + \overline{S} (f,P_2) &= \overline{S} (f,P), \\
\underline{S} (f,P_1) + \underline{S} (f,P_2) &= \underline{S} (f,P) .\\
\end{align*}

Si se restan ambas sumas, se obtiene lo siguiente:

\begin{align*}
\left(\overline{S} (f,P_1) \ – \ \underline{S} (f,P_1)\right) + \left(\overline{S} (f,P_2) \ – \ \underline{S} (f,P_2)\right) = \overline{S} (f,P) \ – \ \underline{S} (f,P) < \epsilon.\\
\end{align*}

Ambos términos de la izquierda son positivos y su suma es menor que $\epsilon$, así que concluimos:

\begin{align*}
\overline{S} (f,P_1) \ – \ \underline{S} (f,P_1) &< \epsilon,\\
\overline{S} (f,P_2) \ – \ \underline{S} (f,P_2) &< \epsilon.\\
\end{align*}

De este modo, por el criterio de Riemann se tiene que $f$ es integrable en $[a,c]$ y en $[c,b]$.

Si la integrales en $[a,c]$ y $[c,b]$ existen, entonces puede hacerse una prueba similar: para cualquier $\epsilon$ habrá una partición $P$ de $[a,c]$ con diferencia de suma superior e inferior menor a $\epsilon/2$, y lo mismo para una partición $P’$ de $[c,b]$. Un argumento similar al de arriba ayudará a ver que $P\cup P’$ es una partición de $[a,b]$ que hace que la diferencia de la suma superior e inferior sea menor a $\epsilon$. Los detalles quedan para que los verifiques por tu cuenta.

Veamos ahora que cuando las integrales existen, entonces se cumple la igualdad

$$\int \limits_{a}^{b} f(x) \ dx = \int \limits_{a}^{c} f(x) \ dx \ + \int \limits_{c}^{b} f(x) \ dx .$$

Tomemos cualquier partición $P’$ de $[a,b]$. Tomemos el refinamiento $P=P’\cup \{c\}$ y escribamos $P=P_1\cup P_2$ como arriba. Usando que las integrales son ínfimos de sumas superiores (y por lo tanto son cotas inferiores), tenemos que:

\begin{align*}
\overline{S}(f,P’) & \geq \overline{S}(f,P)\\
&=\overline{S}(f,P_1) + \overline{S}(f,P_2)\\
&\geq \int_a^c f(x)\, dx + \int_c^b f(x) \,dx.
\end{align*}

Por definición, $\int \limits_{a}^{b} f(x) \ dx$ es el ínfimo de las sumas superiores sobre todas las particiones $P’$ de $[a,b]$ y entonces es la mayor de las cotas inferiores. Como arriba tenemos que $\int_a^c f(x)\, dx + \int_c^b f(x) \,dx$ es cota inferior para todas estas sumas superiores, entonces:

$$\int_a^b f(x)\, dx \geq \int_a^c f(x)\, dx + \int_c^b f(x) \,dx.$$

Así mismo, para cualesquiera particiones $P_1$ y $P_2$ de $[a,c]$ y $[c,b]$ respectivamente, tenemos que $P_1\cup P_2$ es partición de $[a,b]$ y entonces

$$\overline{S}(f,P_1) + \overline{S}(f,P_2) = \overline{S}(f,P_1\cup P_2) \geq \int_a^b f(x)\,dx,$$

de donde

$$\overline{S}(f,P_1) \geq \int_a^b f(x)\,dx \ – \ \overline{S}(f,P_2).$$

Así, para cualquier partición $P_2$ fija, hemos encontrado que $\int_a^b f(x)\,dx – \overline{S}(f,P_2)$ es cota inferior para todas las sumas superiores de particiones $P_1$ de $[a,c]$. De este modo, por ser la integral en $[a,c]$ la mayor de estas cotas inferiores, se tiene

$$\int_a^c f(x)\, dx \geq \int_a^b f(x)\,dx \ – \ \overline{S}(f,P_2)$$

para cualquier partición $P_2$ de $[c,b]$. Pero entonces

$$\overline{S}(f,P_2) \geq \int_a^b f(x)\,dx \ – \ \int_a^c f(x)\, dx, $$

se cumple para toda partición $P_2$ de $[b,c]$, de donde concluimos

$$\int_b^c f(x)\, dx \geq \int_a^b f(x)\,dx \ – \ \int_a^c f(x)\, dx.$$

Despejando, obtenemos la desigualdad

$$\int_a^b f(x)\, dx + \int_b^c f(x)\, dx \geq \int_a^b f(x).$$

Junto con la desigualdad que mostramos arriba, se obtiene la desigualdad deseada.

$\square$

Límites reales arbitrarios

Hasta ahora siempre hemos hablado de la existencia de la integral de una función en un intervalo $[a,b]$ con $a\leq b$. Cuando $a=b$, la integral que buscamos es en el intervalo $[a,a]$ y se puede mostrar que en este caso la integral siempre existe y es igual a cero, es decir, que $$\int_a^a f(x)\, dx = 0.$$

La siguiente definición nos dice qué hacer cuando en los límites de integración vamos de un número mayor a uno menor.

Definición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Sean $a<b$ reales. Si la integral de $f$ en el intervalo $[a,b]$ existe, entonces definimos la integral de $f$ de $b$ a $a$ como sigue: $$\int_b^a f(x)\,dx= – \int_a^b f(x)\, dx.$$

Esta definición es compatible con todo lo que hemos platicado, y nos permite extender la identidad $$\int \limits_{a}^{c} f(x) \ dx, \int \limits_{c}^{b} f(x) \ dx$$ de la proposición de la sección anterior a valores arbitrarios de $a,b,c$, sin importar en qué orden estén en la recta real (siempre y cuando las integrales existan, por supuesto). Por ejemplo, si $a>b>c$, entonces podemos proceder como sigue mediante lo que ya hemos demostrado y definido:

\begin{align*}
\int_a^b f(x)\, dx &= – \int_b^a f(x)\, dx \quad \text{Def. int. para $a>b$.}\\
&= – \left(\int_c^a f(x)\, dx \ – \ \int_c^b f(x)\, dx\right) \quad \text{Por prop. anterior pues $c<b<a$.}\\
&= – \int_c^a f(x)\, dx + \int_c^b f(x)\, dx \quad \text{Distribuir el $-$}\\
&= \int_a^c f(x)\, dx + \int_c^b f(x)\, dx \quad \text{Def. int. para $a>c$}.
\end{align*}

Aquí se ve como con un orden específico de $a,b,c$ se sigue cumpliendo la identidad buscada, aunque $c$ no quede entre $a$ y $b$ y no se cumpla que $a\leq b$. Siempre es posible hacer esto y te recomendamos pensar en cómo argumentar todos los casos posibles de $a,b,c$.

La intuición en áreas de que la integral $\int_b^a f(x)\, dx$ cambia de signo con respecto a $\int_a^b f(x)\, dx$ es que en una recorremos el área de izquierda a derecha y en la otra de derecha a izquierda. Entonces, «recorremos el área al revés» porque «graficamos hacia atrás». Por ejemplo, se tiene el intervalo $[5,1]$, la forma en que se recorrerá al momento de graficar sería del $5$ al $1$ y, si la función es positiva, la integral será negativa.

Linealidad de la integral

Tomemos dos funciones acotadas $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ y supongamos que son integrables en el intervalo $[a,b]$. Tomemos cualquier real arbitrario $\alpha$. A partir de esto, podemos construir la función $f+\alpha g$, que recordemos que su definición es que es una función de $[a,b]$ a $\mathbb{R}$ con regla de asignación $$(f+\alpha g)(x) = f(x) + \alpha g(x).$$

Si tomamos una partición $P$ de $[a,b]$, se puede verificar fácilmente que

\begin{align*}
\overline{S}(f+\alpha g, P)&=\overline{S}(f,P)+\alpha \overline{S}(g,P),\\
\underline{S}(f+\alpha g, P)&=\underline{S}(f,P)+\alpha \underline{S}(g,P).
\end{align*}

Restando ambas expresiones,

$$\overline{S}(f+\alpha g, P) \ – \ \underline {S}(f+\alpha g, P) = \left(\overline{S}(f,P) \ – \ \underline{S}(f,P)\right) + \alpha \left(\overline{S}(g,P) \ – \ \underline{S}(g,P)\right).$$

Intuitivamente (respaldados por el criterio de Riemann), el lado derecho puede ser tan pequeño como queramos pues $f$ y $g$ son integrables. Así que el lado izquierdo también. Esto muestra que $f+\alpha g$ también es integrable en $[a,b]$. Te recomendamos hacer una demostración formal.

Además, si $P_n$ es una sucesión de particiones en donde los tamaños de celda convergen a cero (y por lo tanto para las cuales las sumas superiores convergen a la integral para cada función de arriba), entonces:

\begin{align*}
\int_a^b (f+\alpha g)(x)\, dx &= \lim_{n\to \infty} \overline{S} (f+\alpha g, P_n)\\
&=\lim_{n\to \infty} \left(\overline{S}(f,P_n)+ \alpha\overline{S}(g,P_n)\right)\\
&=\lim_{n\to \infty} \overline{S}(f,P_n) + \alpha \lim_{n\to \infty} \overline{S}(g,P_n)\\
&=\int_a^b f(x)\, dx + \alpha \int_a^b g(x)\, dx.
\end{align*}

En resumen, hemos demostrado lo siguiente:

Teorema. La integral es lineal. Es decir, si $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ son funciones acotadas e integrables en $[a,b]$, entonces para cualquier real $\alpha$ también $f+\alpha g$ es integrable en $[a,b]$ y además se cumple $$\int_a^b (f+\alpha g)(x)\, dx = \int_a^b f(x)\, dx + \alpha \int_a^b g(x)\, dx.$$

Dos casos particulares de interés son los siguientes:

  • Si en el teorema anterior tomamos $\alpha=1$, entonces obtenemos que $\int_a^b (f+g)(x)=\int_a^b f(x)\, dx + \int_a^b g(x)\, dx$, es decir, la integral abre sumas.
  • Si en el teorema anterior tomamos $f$ como la función constante cero, entonces obtenemos que $\int_a^b \alpha g(x)\, dx = \alpha \int_a^b g(x)\, dx$, es decir la integral saca escalares.

La integral respeta desigualdades

Veamos que la integral, en cierto sentido, respeta desigualdades. Un primer paso que es muy sencillo de verificar es lo que sucede con la integral de funciones no negativas.

Proposición. Si $f:\mathbb{R}\to \mathbb{R}$ es una función integrable en el intervalo $[a,b]$ y se cumple $f(x)\geq 0$ para todo $x\in [a,b]$, entonces $$\int_a^b f(x)\, dx \geq 0.$$

Demostración. Como $f(x)\geq 0$, entonces claramente para cualquier partición $P$ se cumple que $\overline{S}(f,P)\geq 0$, pues aparecen puros términos positivos en la suma superior. Así, $0$ es una cota inferior para las sumas superiores. Como la integral es la máxima de dichas cotas superiores, entonces $$\int_a^b f(x)\, dx \geq 0,$$ como queríamos.

$\square$

De este resultado y las propiedades que hemos mostrado, podemos deducir algo mucho más general.

Teorema. Sean $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ funciones integrables en un intervalo $[a,b]$, dentro del cual también se cumple que $f(x)\leq g(x)$. Entonces, $$\int_a^b f(x)\, dx \leq \int_a^b g(x)\, dx.$$

Demostración. Como $f$ y $g$ son integrables en $[a,b]$, entonces la combinación lineal $g-f$ también lo es, y además $(g-f)(x)=g(x)-f(x)\geq 0$. Por la proposición anterior y la linealidad de la integral, tenemos entonces que: $$\int_a^b g(x)\, dx \ – \ \int_a^b f(x)\, dx = \int_a^b (g-f)(x)\, dx \geq 0.$$

De aquí, $$\int_a^b f(x)\, dx \leq \int_a^b g(x)\, dx,$$ como queríamos.

$\square$

Más adelante…

Todas las propiedades que hemos enunciado se utilizarán de aquí en adelante. Es importante que las tengas presentes. Son propiedades que nos permiten factorizar funciones para que al momento de integrar o que nos permiten partir una integral complicada en otras más sencillas con integración inmediata o ya conocida.

En la siguiente entrada enunciaremos y demostraremos el teorema del valor medio para la integral. Es un teorema muy relevante, pues será uno de los ingredientes en la demostración de otros teoremas importantes para el cálculo integral.

Tarea moral

  1. Utilizando las propiedades anteriores, resuelve las siguientes integrales.
    • $\int \limits_0^1 7(4+3x^2) ~dx.$
    • $\int \limits_2^0 \frac{1}{4}(32x-3x^2+6) ~dx.$
  2. Termina con detalle todas las demostraciones de la entrada que hayan quedado pendientes.
  3. Usndo las propiedades de esta entrada, demuestra que la integral $\int_{-10}^{10} x^7-x^5+3x^3+27x\, dx$ existe y determina su valor. Sugerencia. Muestra que la función dentro de la integral es continua y cumple $f(x)=-f(x)$. Usa varias de las propiedades de esta entrada.
  4. Demuestra la siguiente igualdad:
    $$ \int \limits_{a}^{b} \alpha \ f(x) \ dx \ + \int \limits_{a}^{b} \beta\ g(x) \ dx \ = \ \int \limits_{a}^{b} \alpha f(x) \ + \beta g(x) \ dx .$$
  5. Sean $a\leq b\leq c\leq d$ números reales. Sea $f:\mathbb{R}\to \mathbb{R}$ una función integrable en $[a,d]$. Demuestra que todas las integrales $$\int_a^c f(x)\, dx, \int_b^d f(x)\, dx, \int_a^d f(x)\,dx, \int_b^c f(x)\,dx$$
    existen y muestra que satisfacen la siguiente identidad:
    $$\int_a^c f(x)\, dx + \int_b^d f(x)\, dx = \int_a^d f(x)\,dx + \int_b^c f(x)\,dx.$$
  6. Sean $a<b$ reales. Demuestra que si la función $f:\mathbb{R}\to \mathbb{R}$ es continua en $[a,b]$, se cumple que $f(x)\geq 0$ para $x\in [a,b]$ y además existe por lo menos un punto $c$ tal que $f(c)>0$, entonces $\int_a^b f(x)\, dx >0$. Como sugerencia, demuestra que existe todo un intervalo (aunque sea muy chiquito) donde la función es positiva, y usa otras propiedades que hemos mostrado. Luego, encuentra un contraejemplo para esta afirmación en donde $f$ no sea continua.

Entradas relacionadas

Geometría Moderna I: División armónica

Por Rubén Alexander Ocampo Arellano

Introducción

En entradas anteriores definimos la razón en la que un punto divide a un segmento e hicimos uso de este concepto, obviando el cambio de signo, nos podemos preguntar que es lo que pasa cuando dos puntos distintos dividen en la misma razón a un segmento, esto es lo que se conoce como división armónica.

Definición 1. Definimos la razón cruzada de dos pares de puntos colineales $(A, B)$ y $(C, D)$ como
$(A, B; C, D) = \dfrac{AC}{CB} \div \dfrac{AD}{DB}$.

Si $C$ está en el segmento $AB$, $D$ en su extensión y la razón en la que $C$ y $D$ dividen al segmento $AB$ es la misma en valor absoluto, entonces $(A, B; C, D) = – 1$.

En este caso, decimos que $C$ y $D$ dividen al segmento $AB$ armónicamente, o que $C$ y $D$ son conjugados armónicos respecto de $A$ y $B$.

Observación. Notemos que el conjugado armónico de un punto respecto de otros dos puntos dados es único, pues ya probamos que para todo número real $r$, existe un único punto que divide a un segmento dado en $r$.

Hilera armónica

Teorema 1. Si dos puntos $C$ y $D$ dividen armónicamente al segmento $AB$ en la razón $|\dfrac{p}{q}|$ entonces los puntos $A$ y $B$ dividen armónicamente a $CD$ en la razón $|\dfrac{p – q}{p + q}|$.

Demostración. Supongamos que $\dfrac{AC}{CB} = \dfrac{p}{q}$ y $\dfrac{AD}{DB} = \dfrac{– p}{q}$, entonces usando segmentos dirigidos,

$\dfrac{AC}{CB} + \dfrac{CB}{CB} = \dfrac{p}{q} + \dfrac{q}{q} \Rightarrow$

$\begin{equation} \dfrac{AB}{CB} = \dfrac{p + q}{q}. \end{equation}$

Figura 1

$\dfrac{AD}{DB} + \dfrac{DB}{DB} = \dfrac{– p}{q} + \dfrac{q}{q} \Rightarrow$
$\begin{equation} \dfrac{AB}{DB} = \dfrac{q – p}{q}. \end{equation}$

De manera análoga podemos encontrar
$\begin{equation} \dfrac{AB}{AC} = \dfrac{CB + AC}{AC} = \dfrac{q + p}{p}, \end{equation}$
$\begin{equation} \dfrac{AB}{AD} = \dfrac{DB + AD}{AD} = \dfrac{p – q}{p}. \end{equation}$

Haciendo el cociente de $(2)$ entre $(1)$ obtenemos
$\dfrac{CB}{BD} = \dfrac{p – q}{p + q}$.

Análogamente de $(4)$ y $(3)$ obtenemos
$\dfrac{CA}{AD} = \dfrac{q – p}{p + q}$.

$\blacksquare$

Definición 2. Debido a esta propiedad reciproca en la que si $(A, B; C, D) = – 1$ entonces $(C, D; A, B) = – 1$, decimos que $ACBD$ es una hilera armónica de puntos o simplemente una hilera armónica.

Corolario 1. Si $(A, B; C, D) = – 1$, entonces $\dfrac{AB}{CD} = \dfrac{p^2 – q^2}{2pq}$.

Demostración. $CD = AD – AC $
$= ABp(\dfrac{1}{p – q} – \dfrac{1}{p + q}) = ABp(\dfrac{p + q – (p – q)}{p^2 – q^2})$.

Donde la segunda igualdad se debe a $(3)$ y $(4)$.

Por lo tanto, $\dfrac{AB}{CD} = \dfrac{p^2 – q^2}{2pq}$.

$\blacksquare$

Construcción del conjugado armónico

Teorema 2. Sea $\triangle ABC$, considera $X \in BC$, $Y \in CA$, $Z \in AB$, cada uno en el interior del lado respectivo y sea $X’ = ZY \cap BC$, entonces $X$ y $X’$ son conjugados armónicos respecto a $BC$ si y solo si $AX$, $BY$, $CZ$ son concurrentes.

Demostración. Aplicando el teorema de Menelao a $\triangle ABC$ y la transversal $X’YZ$ tenemos
$\dfrac{AZ}{ZB} \dfrac{BX’}{X’C} \dfrac{CY}{YA} = – 1$.

Figura 2

Por el teorema de Ceva $AX$, $BY$, $CZ$ son concurrentes si y solo si,
$\dfrac{AZ}{ZB} \dfrac{BX}{XC} \dfrac{CY}{YA} = 1$.

Dividiendo ambas expresiones obtenemos
$(B, C; X, X’) = \dfrac{BX}{XC} \div \dfrac{BX’}{X’C} = – 1$.

$\blacksquare$

Proposición 1. Las proyecciones de los puntos de una hilera armónica en cualquier recta, forman otra hilera armónica.

Demostración. Sean $ACBD$ una hilera armónica y $l$ cualquier otra recta, consideremos $A’$, $B’$, $C’$, $D’$, las proyecciones de $A$, $B$, $C$, $D$ respectivamente en $l$.

Figura 3

Sea $P = ACBD \cap l$, como $AA’ \parallel BB’ \parallel DD’$, tenemos las siguientes semejanzas, $\triangle PB’B \sim \triangle PD’D \sim \triangle PA’A$ (figura 3), es decir:

$\dfrac{PA’}{PD’} = \dfrac{PA}{PD} \Leftrightarrow \dfrac{– A’P – PD’}{PD’} = \dfrac{– AP – PD}{PD}$
$\Leftrightarrow \dfrac{A’D’}{AD} = \dfrac{P’D’}{PD}$.

Igualmente podemos ver que $\dfrac{D’B’}{DB} = \dfrac{P’D’}{PD}$.

Por lo tanto $\dfrac{A’D’}{D’B’} = \dfrac{AD}{BD}$.

De manera análoga podemos encontrar $\dfrac{A’C’}{C’B’} = \dfrac{AC}{CB}$.

Como $(A, B; C, D) = – 1$, entonces,
$\dfrac{A’D’}{D’B’} = \dfrac{AD}{BD} = – \dfrac{AC}{CB} = – \dfrac{A’C’}{C’B’}$.

$\blacksquare$

División armónica y bisectrices

Teorema 3. Sean $A$, $C$, $B$, $D$, cuatro puntos colineales, en ese orden, sea $P$ un punto fuera de la recta $ACBD$, entonces, si dos de las siguientes tres propiedades son ciertas, la tercera también es cierta:
$i)$ $(A, B; C, D) = – 1$,
$ii)$ $PC$ es la bisectriz interna de $\angle APB$,
$iii)$ $PC \perp PD$.

Figura 4

Demostración.
$i)$ y $ii)$ se cumplen, como $PC$ es la bisectriz interna de $\angle APB$, por el teorema de la bisectriz, la bisectriz externa de $\angle APB$ interseca a $AB$ en el conjugado armónico de $C$, el cual es único por la observación hecha en la introducción.

Por lo tanto, $PD$ es la bisectriz externa de $\angle APB$ y así $PC \perp PD$.

$ii)$ y $iii)$ se cumplen, ya que $PC$ es la bisectriz interna de $\angle APB$ y $PC \perp PD$, entonces $PD$ es la bisectriz externa de $\angle APB$.

Por el teorema de la bisectriz, $C$ y $D$ son conjugados armónicos.

$i)$ y $iii)$ se cumplen, si $C$ y $D$ son conjugados armónicos respecto de $AB$ entonces se encuentran en la circunferencia de Apolonio determinada por la razón $\dfrac{AC}{CB} =|\dfrac{AD}{DB}|$.

Recordemos que $CD$ es diámetro de esta circunferencia, como $PC \perp PD$, entonces $P$ pertenece a este lugar geométrico.

Por lo tanto, $\dfrac{AP}{PB} = \dfrac{AC}{CB} =|\dfrac{AD}{DB}|$, por el reciproco del teorema de la bisectriz, $PC$ y $PD$ son las bisectrices interna y externa de $\angle APB$ respectivamente.

$\blacksquare$

Corolario 2. Considera un triángulo $\triangle ABC$, $I$ el incentro, $I_c$ el excentro relativo al vértice $C$ y $C_1 = CI \cap AB$, entonces $(C, C_1; I, I_c) = -1$.

Demostración. En $\triangle AC_1C$, $AI$ y $AI_c$ son las bisectrices interna y externa respectivamente de $\angle C_1AC$.

Figura 5

Como se cumplen los puntos $ii)$ y $iii)$ del teorema anterior entonces $(C, C_1; I, I_c) = -1$.

$\blacksquare$

Punto medio de conjugados armónicos

Teorema 4. Si $A$, $C$, $B$, $D$, son cuatro puntos colineales, en ese orden, y $O$ el punto medio del segmento $AB$ entonces $(A, B; C, D) = – 1$ si y solo si $OC \times OD = OA^2$.

Figura 6

Demostración. Empleando segmentos dirigidos tenemos lo siguiente:
$AC – CB = (AO + OC) – (CO + OB) = 2OC$,
$AD – DB = (AO + OD) – (DO + OB) = 2OD$,
$AC + CB = AB = AD + DB = 2AO$.

Por lo tanto, $OC \times OD = OA^2$
$\Leftrightarrow 2OC \times 2OD = (2AO)^2$
$\Leftrightarrow (AC – CB)( AD – DB) = (AC + CB)(AD + DB)$
$ \Leftrightarrow (AC \times AD) – (AC \times DB) – (AD \times CB) + (CB \times DB)$
$= (AC \times AD) + (AC \times DB) + (AD \times CB) + (CB \times DB)$
$\Leftrightarrow – 2AC \times DB = 2AD \times CB$
$\Leftrightarrow (A, B; C, D) = – 1$.

$\blacksquare$

Proposición 2.Sean $A$, $C$, $B$, $D$, cuatro puntos colineales, entonces $(A, B; C, D) = – 1$, si y solo si al medir todos los segmentos de un punto de la hilera armónica, $B$ por ejemplo, tenemos $\dfrac{2}{BA} = \dfrac{1}{BC} + \dfrac{1}{BD}$.

Demostración. $\dfrac{AC}{CB} = – \dfrac{AD}{DB}$
$ \Leftrightarrow \dfrac{AB + BC}{CB} = – \dfrac{AB + BD}{DB}$
$\Leftrightarrow \dfrac{BA}{BC} – 1 = \dfrac{BA}{DB} + 1$
$\Leftrightarrow \dfrac{1}{BC} + \dfrac{1}{BD} = \dfrac{2}{BA}$.

$\blacksquare$

Teorema de Feuerbach

Teorema 5, de Feuerbach. La circunferencia de los nueve puntos y el incírculo de un triángulo son tangentes.

Demostración. Paso 1. Sean $\triangle ABC$, $\triangle A’B’C’$ su triangulo medial, $\Gamma(N)$ la circunferencia de los nueve puntos (el circuncírculo de $\triangle A’B’C’$) y considera la tangente $C’T$ a $\Gamma(N)$ en $C’$.

Notemos que $\angle TC’A$ y $\angle C’B’A’$ son ángulos semiinscrito e inscrito respectivamente de $\Gamma(N)$ y abarcan el mismo arco, por lo tanto, son iguales.

Recordemos que los lados de $\triangle A’B’C’$ son paralelos a los de $\triangle ABC$ y por lo tanto, $\triangle ABC$ y $\triangle A’B’C’$ son semejantes.

En consecuencia,
$\angle BC’T = \angle BC’A’ – \angle TC’A $
$= \angle BAC – \angle C’B’A’ = \angle A – \angle B$.

Paso 2. Sean $\Gamma(I)$ el incírculo de $\triangle ABC$, $C_1 = CI \cap AB$ y $C_1P$ tangente a $\Gamma(I)$ en $P$.

Como $C_1A$ y $C_1P$ son tangentes a $\Gamma(I)$ desde $C_1$ entonces $\angle PC_1I = \angle IC_1A$.

Por lo tanto,
$\angle BC_1P = \pi – \angle PC_1A $
$= \pi – (2\angle IC_1A) = \pi – 2(\pi – \angle A – \dfrac{\angle C}{2})$
$= \angle A + (\angle A + \angle C – \pi) = \angle A – \angle B$.

Así, $C’T \parallel C_1P$.

Figura 7

Paso 3. Sean $\Gamma(I_c)$ el excírculo opuesto al vértice $C$, $Z_c$ el punto de tangencia entre $\Gamma(I_c)$ y $AB$, $Z$ el punto de tangencia entre $\Gamma(I)$ y $AB$, $H_c$ el pie de la altura por $C$ en $\triangle ABC$.

Por el corolario 2, $(C, C_1; I, I_c) = -1$ y por la proposición 1, $(H_c, C_1; Z, Z_c) = -1$.

Recordemos que el punto medio de $Z$ y $Z_c$ coincide con el punto medio $C’$, de $AB$.

Por el teorema 4, $C’C_1 \times C’H_c = C’Z^2$.

Sea $F = C’P \cap \Gamma(I)$, $F \neq P$, por la potencia de $C’$ respecto de $\Gamma(I)$ tenemos
$C’P \times C’F = C’Z^2 = C’C_1 \times C’H_c$.

Por la ecuación anterior, el teorema de las cuerdas nos dice que $\square H_cC_1PF$ es cíclico.

Por lo tanto, $\angle H_cFP$ y $\angle PC_1H_c$ son suplementarios.

En consecuencia, $\angle H_cFC’ = \angle BC_1P = \angle BC’T$.

Por otra parte, notemos que $C’H_c$ es una cuerda de la circunferencia de los nueve puntos $\Gamma(N)$, sea $F’$ en el arco $\overset{\LARGE{\frown}}{C’H_c}$ (recorrido en ese sentido).

Entonces, $\angle BC’T + \angle TC’F’ + \angle F’C’H_c = \pi = \angle H_cF’C’ + \angle C’H_cF’ + \angle F’C’H_c$, además $\angle TC’F’ = \angle C’H_cF’$, pues abarcan el mismo arco.

Por lo tanto, los puntos $F’$ en el arco $\overset{\LARGE{\frown}}{C’H_c}$, cumplen que  $\angle H_cF’C’ = \angle BC’T$, además son los únicos, siempre y cuando estén del mismo lado que $C$ respecto de $C’H_c$.

Como $F$ cumple estas características, entonces $F \in \Gamma(N)$.

Paso 4. Sean $U$ la intersección de la tangente a $\Gamma(N)$ en $F$ con $C’T$ y $V$ la intersección de la tangente a $\Gamma(I)$ en $F$ con $C_1P$.

Como $UC’ = UF$, por ser tangentes a $\Gamma(N)$ desde $U$, entonces $\angle UC’F = \angle C’FU$, igualmente vemos que $\angle VPF = \angle PFV$.

Pero $\angle UC’F = \angle VPF$ pues $C’U \parallel PV$ y $C’PF$ es transversal a ambas.

Por lo tanto, $\angle C’FU = \angle PFV = \angle C’FV$, es decir $UF$ y $VF$ son la misma recta.

Como resultado tenemos que $\Gamma(N)$ y $\Gamma(I)$ son tangentes en $F$.

$\blacksquare$

Definición 3. Al punto de tangencia entre el incírculo y la circunferencia de los nueve puntos $F$, se le conoce como punto de Feuerbach.

Más adelante…

Continuando con el tema de división armónica, en la siguiente entrada estudiaremos haces armónicos.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. $i)$ Divide un segmento dado en una razón dada $\dfrac{p}{q}$,
    $ii)$ Muestra que $HNGO$ es una hilera armónica, donde $H$ es el ortocentro, $N$ el centro de los nueve puntos, $G$ el centroide y $O$ el circuncentro de un triángulo.
  2.  Si los puntos $C$ y $D$ dividen internamente y externamente de manera armónica en la razón $\dfrac{p}{q}$ al segmento $AB$, muestra que el punto medio de $CD$ divide al segmento $AB$ en la razón $\dfrac{p^2}{q^2}$.
  3. Prueba que la suma de los cuadrados de dos segmentos armónicos es igual a cuatro veces el cuadrado de la distancia entre los puntos medios de estos segmentos.
  4. Considera el segmento determinado por el vértice de un triángulo y la intersección de la bisectriz interna o externa con el lado opuesto, muestra que los pies de las perpendiculares a dicha recta desde los otros dos vértices del triángulo dividen al segmento de manera armónica.
  5. Si los puntos $C$ y $D$ dividen armónicamente al segmento $AB$ y $O$ es el punto medio de $AB$, muestra que $OC^2 + OD^2 = CD^2 + 2OA^2$.
  6. Si $(A, B; C, D) = – 1$ y $A’$, $B’$ son los conjugados armónicos de $D$ respecto a los pares de puntos $(A, C)$ y $(B, C)$ respectivamente, muestra que $(A’, B’; C, D) = – 1$.
  7. Sean $\triangle ABC$, $D$, $E$, $F$, los puntos de tangencia del incírculo de $\triangle ABC$ con $BC$, $CA$ y $AB$ respectivamente, sea $X$ en el interior de $\triangle ABC$ tal que el incírculo de $\triangle XBC$ es tangente a $BC$, $CX$, $XB$ en $D$, $Y$, $Z$, respectivamente, demuestra que $\square EFZY$ es cíclico.
  8. Demuestra que la circunferencia de los nueve puntos de un triángulo es tangente a cada uno de sus excírculos.

Entradas relacionadas

Fuentes

  • Altshiller, N., College Geometry. New York: Dover, 2007, pp 53-56, 166-171.
  • Andreescu, T., Korsky, S. y Pohoata, C., Lemmas in Olympiad Geometry. USA: XYZ Press, 2016, pp 149-161.
  • Lozanovski, S., A Beautiful Journey Through Olympiad Geometry. Version 1.4. 2020, pp 156-158.
  • Johnson, R., Advanced Euclidean Geometry. New York: Dover, 2007, pp 200-203.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral II: Introducción y método exhaustivo

Por Moisés Morales Déciga

Introducción

Este curso es la continuación de la materia Cálculo Diferencial e Integral I. En el primer curso de cálculo hablamos del cálculo diferencial. Nuestro principal objeto matemático fue la derivada y cómo se puede interpretar como la razón de cambio del objeto de análisis: la tangente de una curva, la velocidad y aceleración de una partícula, la variación de un objeto en su trayectoria, etc.

En este siguiente curso hablaremos de temas relacionados con el cálculo integral. Hablaremos un poco de sus orígenes, de los principales objetos matemáticos que estudia, de varios aspectos fundamentales de su teoría y de sus aplicaciones. El objetivo principal de esta rama matemática es el estudio de las integrales y las anti-derivadas. Una motivación importante es que ellas son una herramienta para la solución de problemas de cálculo de áreas y de volúmenes.

Así, el objeto matemático estelar del curso será la integral y la motivaremos mediante su gran utilidad para el cálculo de áreas. Sin embargo, esto no será lo único que haremos. La definiremos formalmente, probaremos las muchas propiedades matemáticas que tiene y veremos numerosas aplicaciones no sólo al cálculo de integrales, sino también a la construcción de otros objetos matemáticos fundamentales como la función exponencial.

Es muy probable que ya cuentes con una buena noción de área. En cursos de primaria, secundaria y bachillerato se explica un poco de esto y se dan fórmulas para calcular áreas. Sin embargo, estas fórmulas no salen de la nada. Pueden ser construidas a partir de nociones más básicas y por distintos métodos. Uno de ellos es la integración. Hasta que hagamos más precisiones formales, puedes aprovechar la intuición que ya tienes sobre las áreas y pensar en ellas intuitivamente como una magnitud que «mide» qué tan grande es una región contenida dentro de ciertos límites y cuyas unidades están «al cuadrado». Esto te ayudará a tener en qué cimentar tu intuición para cuando demos una definición más formal.

Algunas notas históricas

Históricamente, se han encontrado casos de utilización de de herramientas de cálculo diferencial en trabajos antiguos, por ejemplo, los trabajos de Arquímedes. Pero fue hasta los siglos XVI y XVII donde se tuvo un desarrollo sistemático, atribuido a Isaac Newton y Gottfried Leibniz, quienes son considerados como los dos grandes pioneros y más grandes representantes del Cálculo. Sin embargo, no fueron los únicos aportadores a éste.

Otra persona importante, Isaac Barrow, quién sería el profesor de Newton, tenía una comprensión sobre la reciprocidad entre la derivación e integración. Este concepto es el punto de partida del cálculo desarrollado por Newton y Leibnitz. Es primordial pues da pie a la introducción y demostración de los dos teoremas fundamentales del cálculo.

Método exhaustivo

A modo de introducción, platicaremos en esta entrada sobre el método exhaustivo. Es un método matemático que utiliza la geometría para aproximar algún resultado o aproximar a la solución un problema que tengamos. La característica que tiene el método es que, a la vez que aumenta el cálculo o las repeticiones, aumenta el grado de precisión de nuestra aproximación con respecto al resultado que queremos.

Arquímides desarrolló una de las aplicaciones de este método para el cálculo de áreas planas. Eudoxo también trabajó con este método, sólo que su objetivo era calcular el volumen de las pirámides de Egipto. En cierto sentido, también ya usamos este método cuando hablamos de la derivada de una función. Para pensar en la tangente en un punto $P$ a la gráfica de una función, la intuición (y de hecho, en cierto sentido la definición formal) consistió en tomar rectas secantes que pasaran por $P$ y otro punto $Q$ en la gráfica. Conforme $Q$ se acercaba a $P$ nos aproximábamos más y más a la tangente y, si cierto límite existía, justo esa era la definición de tangente.

Para ejemplificar nuevamente el método exhaustivo, veremos cómo encontrar de manera un poco informal el el área de un círculo. Sea $C$ un círculo y sea $M\geq 3$ un número natural. Tomemos $P_M$ un polígono regular de $M$ lados inscrito al círculo $C$ y $Q_M$ un polígono de $M$ lados circunscrito al círculo $C$. Para que dichos polígonos queden bien definidos, podemos pedir además que su lado inferior sea horizontal. Por ejemplo, en la figura a continuación se muestra el caso $M = 5$.

Notemos que los polígonos que definimos tienen dos áreas: una que incluye al área del círculo y otra que está incluida en el círculo.

Para cada valor de $M$ tenemos dos polígonos. De este modo, estamos generando dos sucesiones de polígonos: la de polígonos inscritos $\{P_M\}_{M\geq 3}$ y la de polígonos circunscritos $\{Q_M\}_{M\geq 3}$. Notemos que el área cada uno de los polígonos inscritos $P_M$ queda acotada superiormente por el área de cada uno de los polígonos $Q_M$; a su vez, el área de cada uno de los polígonos circunscritos $Q_M$ queda acotada inferiormente por el área de cada uno de los polígonos $P_M$. Además, no es muy difícil convencerse de que el área de los polígonos inscritos crece conforme $M$ aumenta y, en contraparte, el área de los circunscritos decrece conforme $M$ aumenta. Recordando del primer curso de cálculo lo que sabemos sobre supremos, ínfimos y sobre sucesiones monótonas y acotadas, tendríamos entonces que los siguientes dos límites existen:

\begin{align*}
p&=\lim_{M\to \infty} \text{área}(P_M)=\sup_{M\geq 3} \text{área}(P_M)\\
q&=\lim_{M\to \infty} \text{área}(Q_M)=\inf_{M\geq 3} \text{área}(Q_M).
\end{align*}

Además, $p\leq q$. De hecho, si el área del círculo $C$ que nos interesa es $c$, entonces por lo que mencionamos arriba tendríamos que $p \leq c \leq q$. Nuestra intuición nos dice que cuando la $M$ aumenta, generamos un polígono con más lados que van acercándose a la circunferencia, y que en el límite debemos obtener el área de la circunferencia. Por lo tanto, esperaríamos que $p=c=q$.

¿Qué sería suficiente para respaldar esta intuición? ¿Bastaría que calculáramos explícitamente $\lim_{M\to \infty} \text{área}(P_M)$ y $\lim_{M\to \infty} \text{área}(Q_M)$ (por ejemplo, dividiendo los polígonos en triángulos para encontrar una fórmula explícita) y que viéramos que son iguales? Esto seguro aumentaría mucho la confianza en nuestro procedimiento. Pero, ¿qué tal que aproximamos al círculo con otros polígonos que no son regulares? ¿nos dará lo mismo? Nuestra definición formal de área ayudará a resolver estas dudas.

En resumen, el método iterativo nos permite aproximar el área del círculo, encerrándolo entre 2 polígonos, de los cuales sabemos calcular el área mediante triángulos. Intuitivamente, mientras más fraccionemos los polígonos, la aproximación del área del círculo será mejor. Esta idea de «encerrar» el área que nos interesa entre dos áreas que sepamos (o acordemos) cómo calcular será clave cuando definamos la integral definida.

Más adelante…

En esta entrada hablamos brevemente sobre la conexión de este curso de cálculo con el anterior. Dimos unas pocas notas históricas e introducimos la idea del método exhaustivo. En la siguiente entrada comenzaremos a formalizar estas ideas para el cálculo de áreas entre la gráfica de una función y el eje $x$.

Tarea moral

  1. Con las herramientas de geometría que has adquirido en la educación básica, intenta completar el ejemplo que comenzamos sobre el método exhaustivo. No te preocupes mucho por la formalización de límites, funciones trigonométricas, fórmulas de áreas de triángulos, etc. Es parte de lo que haremos en este curso. Entre otras cosas, tendrás que:
    • Calcular explícitamente la distancia del centro de un círculo $C$ de radio $r$ a un vértice (y a un lado) del polígono inscrito (y circunscrito) en $C$ que es regular y de $n$ lados.
    • Encontrar el área de $P_n$ y $Q_n$.
    • Encontrar los límites de estas áreas conforme $n$ tiende a infinito.
  2. Investiga más sobre los orígenes del cálculo integral.
  3. Averigua sobre el método exhaustivo y otros usos históricos que se le ha dado.
  4. El método exhaustivo puede ser algo peligroso si se usa apresuradamente. Por ejemplo, toma un cuadrado de lado $1$ y divídelo en cuadrados pequeños para formar un tablero de $n\times n$. Mediante un camino $C_n$ que sube y va a la derecha alternadamente, se puede comenzar en el vértice inferior izquierdo y llegar al vértice superior derecho. Intuitivamente, cuando $n$ tiende a infinito, este camino pareciera converger a la diagonal del cuadrado, la cual tiene longitud $\sqrt{2}$. Sin embargo, la longitud de cada camino $C_n$ siempre es $2$ pues en total avanza una unidad a la derecha y una hacia arriba. ¿Por qué la longitud de $C_n$ no tiende a $\sqrt{2}$ si aparentemente $C_n$ tiende a la diagonal del cuadrado?
  5. Realiza un repaso de los teoremas principales de Cálculo Diferencial e Integral I. ¡Te serán sumamente útiles para este curso! En particular, sería bueno que revises los siguientes temas:
    • Definición y propiedades de límites.
    • Definición y propiedades de funciones contínuas.
    • Definición y propiedades de derivadas.
    • Reglas de derivación.
    • El teorema del valor intermedio.
    • El teorema del valor medio.

Entradas relacionadas

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios complejos

Por Omar González Franco

Un matemático que no es también algo de poeta
nunca será un matemático completo.
– Karl Weierstrass

Introducción

Ya vimos cómo obtener la solución general de sistemas lineales homogéneos con coeficientes constantes en el caso en el que los valores propios son todos reales y distintos. En esta entrada desarrollaremos el caso en el que los valores propios son complejos.

Valores propios complejos

Vimos que para un sistema lineal

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{1} \tag{1}$$

con $\mathbf{A}$ una matriz de $n \times n$ con componentes reales

$$\mathbf{A} = \begin{pmatrix}
a_{11} & a_{12} & \cdots & a_{1n} \\
a_{21} & a_{22} & \cdots & a_{2n} \\
\vdots & & & \vdots \\
a_{n1} & a_{n2} & \cdots & a_{nn}
\end{pmatrix} \label{2} \tag{2}$$

siempre se puede encontrar una solución de la forma

$$\mathbf{Y}(t) = \begin{pmatrix}
k_{1} \\ k_{2} \\ \vdots \\ k_{n}
\end{pmatrix}e^{\lambda t} = \mathbf{K}e^{\lambda t} \label{3} \tag{3}$$

Ahora sabemos que $\lambda$ y $\mathbf{K}$ corresponden a un valor y vector propio respectivamente. Como los valores propios se obtienen de encontrar las raíces del polinomio característico, entonces es posible que los valores propios sean números complejos, digamos de la forma

$$\lambda = \alpha + i \beta \label{4} \tag{4}$$

Con $\alpha$ y $\beta$ reales. Veremos más adelante que este tipo de valores propios generarán también vectores propios con componentes complejos que podremos escribir como

$$\mathbf{K} = \mathbf{U} + i \mathbf{V} \label{5} \tag{5}$$

Con estos resultados la solución (\ref{3}) se puede escribir como

$$\mathbf{Y}(t) = \begin{pmatrix}
u_{1} + i v_{1} \\ u_{2} + i v_{2} \\ \vdots \\ u_{n} + i v_{n}
\end{pmatrix}e^{(\alpha + i \beta)t} = (\mathbf{U} + i \mathbf{V}) e^{(\alpha + i \beta)t} \label{6} \tag{6}$$

Un resultado interesante es que los valores y vectores propios conjugados de (\ref{4}) y (\ref{5}) también son valores y vectores propios de la misma matriz $\mathbf{A}$. Demostremos este hecho.

Recordemos que estamos denotando con $M_{n \times n}$ al conjunto de todas las matrices cuadradas de $n \times n$ con componentes reales y constantes.

Demostración: Por hipótesis $\lambda$ es un valor propio de $\mathbf{A}$, lo que significa que se cumple la relación

$$\mathbf{AK} = \lambda \mathbf{K} \label{7} \tag{7}$$

Con $\mathbf{K}$ el vector propio asociado a $\lambda$. Si tomamos el conjugado de la ecuación anterior, tenemos

$$\overline{\mathbf{AK}} = \overline{\lambda \mathbf{K}}$$

o bien,

$$\mathbf{\bar{A}} \mathbf{\bar{K}} = \bar{\lambda} \mathbf{\bar{K}} \label{8} \tag{8}$$

Pero como $\mathbf{A} \in M_{n \times n}$, es decir, $\mathbf{A}$ es una matriz con componentes reales constantes, entonces $\mathbf{\overline{A}} = \mathbf{A}$. La ecuación (\ref{8}) queda como

$$\mathbf{A} \mathbf{\overline{K}} = \bar{\lambda} \mathbf{\overline{K}} \label{9} \tag{9}$$

Lo que muestra que $\overline{\lambda}$ es también un valor propio de $\mathbf{A}$ y el vector propio asociado es $\mathbf{\overline{K}}$.

$\square$

Como $\lambda$ y $\overline{\lambda}$ son valores propios, con vectores propios asociados $\mathbf{{K}}$ y $\mathbf{\overline{K}}$ respectivamente, de la misma matriz $\mathbf{A}$, por el último teorema de la entrada correspondiente podemos deducir que la solución conjugada de (\ref{6})

$$\mathbf{\overline{Y}}(t) = \begin{pmatrix}
u_{1} -i v_{1} \\ u_{2} -i v_{2} \\ \vdots \\ u_{n} -i v_{n}
\end{pmatrix}e^{(\alpha -i \beta)t} = (\mathbf{U} -i \mathbf{V}) e^{(\alpha -i \beta)t} \label{10} \tag{10}$$

es también una solución del sistema lineal (\ref{1}) y además las soluciones (\ref{6}) y (\ref{10}) son linealmente independientes por el mismo teorema.

A continuación enunciamos un teorema que establece que una solución como (\ref{6}) da lugar a dos soluciones con valores reales.

Demostración: Supongamos que la solución del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$ es de la forma

$$\mathbf{Y} = \mathbf{W}_{1} + i \mathbf{W}_{2} \label{11} \tag{11}$$

Donde $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son vectores con componentes reales.

Queremos probar que

$$\mathbf{W}_{1} = Re \{ \mathbf{Y} \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2} = Im \{ \mathbf{Y} \}$$

también son soluciones del sistema lineal.

Por una lado, como $\mathbf{Y}$ es solución, entonces

$$\mathbf{Y}^{\prime} = \mathbf{AY} = \mathbf{A} (\mathbf{W}_{1} + i \mathbf{W}_{2}) = \mathbf{AW}_{1} + i \mathbf{AW}_{2} \label{12} \tag{12}$$

Por otro lado, notemos que

$$\mathbf{Y}^{\prime} = (\mathbf{W}_{1} + i \mathbf{W}_{2})^{\prime} = \mathbf{W}_{1}^{\prime} + i \mathbf{W}_{2}^{\prime} \label{13} \tag{13}$$

De (\ref{12}) y (\ref{13}), se tiene que

$$\mathbf{W}_{1}^{\prime} + i \mathbf{W}_{2}^{\prime} = \mathbf{AW}_{1} + i \mathbf{AW}_{2} \label{14} \tag{14}$$

Igualando las partes reales e imaginarias de (\ref{14}), se obtiene

$$\mathbf{W}_{1}^{\prime} = \mathbf{AW}_{1} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}^{\prime} = \mathbf{AW}_{2}$$

Lo que muestra que las funciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son soluciones con valores reales del sistema lineal (\ref{1}).

$\square$

Ahora que conocemos este resultado veamos que forma tienen las funciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$.

Demostración: Sabemos que una solución del sistema lineal (\ref{1}), en el caso en el que el valor y el vector propio son complejos, es

$$\mathbf{Y}(t) = e^{(\alpha + i \beta)t} (\mathbf{U} + i \mathbf{V})$$

Esta función la podemos escribir como

$$\mathbf{Y}(t) = e^{\alpha t} e^{i \beta t} \mathbf{U} + i e^{\alpha t} e^{i \beta t} \mathbf{V} \label{17} \tag{17}$$

Usando la identidad de Euler

$$e^{i \beta t} = \cos(\beta t) + i \sin(\beta t) \label{18} \tag{18}$$

podemos escribir la función (\ref{17}) como

\begin{align*}
\mathbf{Y} &= e^{\alpha t} [\cos(\beta t) + i \sin(\beta t)] \mathbf{U} + i e^{\alpha t}[\cos(\beta t) + i \sin(\beta t)] \mathbf{V} \\
&= e^{\alpha t} [\mathbf{U} \cos(\beta t) + i \mathbf{U} \sin(\beta t)] + i e^{\alpha t}[\mathbf{V} \cos(\beta t) + i \mathbf{V} \sin(\beta t)]
\end{align*}

Si reescribimos este resultado en una parte real y una imaginaria se tiene lo siguiente.

$$\mathbf{Y} = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)] + i e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)] \label{19} \tag{19}$$

En esta forma podemos definir

$$\mathbf{W}_{1} = Re \{ \mathbf{Y} \} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2} = Im \{ \mathbf{Y} \}$$

entonces,

$$\mathbf{W}_{1}(t) = e^{\alpha t} [\mathbf{U} \cos(\beta t) -\mathbf{V} \sin(\beta t)]$$

y

$$\mathbf{W}_{2}(t) = e^{\alpha t} [\mathbf{U} \sin(\beta t) + \mathbf{V} \cos(\beta t)]$$

Por el teorema anterior concluimos que ambas son soluciones del sistema lineal (\ref{1}). Para mostrar que son soluciones linealmente independientes probemos que se cumple

$$c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) = 0 \label{20} \tag{20}$$

sólo si $c_{1} = c_{2} = 0$. Para ello consideremos la solución

$$\mathbf{Y} = \mathbf{W}_{1} + i \mathbf{W}_{2}$$

Por el primer teorema visto sabemos que el conjugado de la función anterior es también una solución del sistema.

$$\mathbf{\overline{Y}} = \mathbf{W}_{1} -i \mathbf{W}_{2} \label{21} \tag{21}$$

Y además ambas soluciones son linealmente independientes, lo que significa que si se satisface la ecuación

$$C_{1} \mathbf{Y} + C_{2} \mathbf{\overline{Y}} = 0 \label{22} \tag{22}$$

es porque $C_{1} = C_{2} = 0$.

Sustituyamos $\mathbf{Y}$ y $\mathbf{\overline{Y}}$ en (\ref{22}).

$$C_{1} [\mathbf{W}_{1} + i \mathbf{W}_{2}] + C_{2} [\mathbf{W}_{1} -i \mathbf{W}_{2}] = 0$$

Factorizando $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$, se tiene

$$(C_{1} + C_{2}) \mathbf{W}_{1} + i(C_{1} -C_{2}) \mathbf{W}_{2} = 0 \label{23} \tag{23}$$

Si definimos

$$c_{1} = C_{1} + C_{2} \hspace{1cm} y \hspace{1cm} c_{2} = i(C_{1} -C_{2})$$

podemos escribir

$$c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) = 0$$

Pero como $C_{1} = C_{2} = 0$, entonces

$$C_{1} + C_{2} = 0 \hspace{1cm} y \hspace{1cm} C_{1} -C_{2} = 0$$

es decir, $c_{1} = c_{2} = 0$, lo que muestra que las soluciones $\mathbf{W}_{1}$ y $\mathbf{W}_{2}$ son linealmente independientes.

$\square$

Solución general de un sistema lineal con valores propios complejos

Nosotros ya sabemos que todos los vectores propios de una matriz $\mathbf{A}$, reales o complejos, son linealmente independientes, entonces un conjunto fundamental de soluciones de (\ref{1}) consiste de soluciones de la forma (\ref{15}) y (\ref{16}) en el caso en el que se obtienen valores propios complejos y soluciones de la forma (\ref{3}) cuando los valores propios son reales.

Por ejemplo, supongamos que $\lambda_{1} = \alpha + i \beta$, $\lambda_{2} = \alpha -i \beta$ son valores propios complejos de un sistema lineal y que $\lambda_{3}, \lambda_{4}, \cdots, \lambda_{n}$ son valores propios reales distintos del mismo sistema lineal. Los correspondientes vectores propios serían $\mathbf{K}_{1} = \mathbf{U} + i \mathbf{V}$, $\mathbf{K}_{2} = \mathbf{U} -i \mathbf{V}$, $\mathbf{K}_{3}, \mathbf{K}_{4}, \cdots, \mathbf{K}_{n}$. Entonces la solución general del sistema lineal será

$$\mathbf{Y}(t) = c_{1} \mathbf{W}_{1}(t) + c_{2} \mathbf{W}_{2}(t) + c_{3} e^{\lambda_{3} t} \mathbf{K}_{3} + c_{4} e^{\lambda_{4} t} \mathbf{K}_{4} + \cdots + c_{n} e^{\lambda_{n} t} \mathbf{K}_{n} \label{24} \tag{24}$$

Donde $\mathbf{W}_{1}(t)$ y $\mathbf{W}_{2}(t)$ son los vectores dados en (\ref{15}) y (\ref{16}), respectivamente.

Es importante mencionar que esta teoría se aplica sólo para el caso en que la matriz (\ref{2}) es una matriz con componentes reales.

Para concluir con esta entrada realicemos un ejemplo.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 1 & 1
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
1 \\ 1 \\ 1
\end{pmatrix}$$

Solución: En este caso la matriz $\mathbf{A}$ es

$$\mathbf{A} = \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 1 & 1
\end{pmatrix}$$

La ecuación característica la obtenemos de calcular el determinante

$$\begin{vmatrix}
1 -\lambda & 0 & 0 \\ 0 & 1- \lambda & -1 \\ 0 & 1 & 1 -\lambda
\end{vmatrix} = 0$$

De donde se obtiene que

$$(1 -\lambda)^{3} + (1 -\lambda) = (1 -\lambda)(\lambda^{2} -2 \lambda + 2) = 0$$

Al resolver para $\lambda$ se obtienen las siguientes tres raíces.

$$\lambda_{1} = 1, \hspace{1cm} \lambda_{2} = 1 + i \hspace{1cm} y \hspace{1cm} \lambda_{3} = 1 -i$$

Estos valores corresponden a los valores propios de la matriz del sistema. Determinemos los vectores correspondientes.

Caso 1: $\lambda_{1} = 1$.

Buscamos un vector $\mathbf{K}_{1} \neq \mathbf{0}$, tal que

$$(\mathbf{A} -1 \mathbf{I}) \mathbf{K}_{1} = \mathbf{0}$$

$$\begin{pmatrix}
1 -1 & 0 & 0 \\ 0 & 1 -1 & -1 \\ 0 & 1 & 1 -1
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & -1 \\ 0 & 1 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

Es claro que $k_{2} = k_{3} = 0$ y $k_{1}$ al ser libre lo elegimos como $k_{1} = 1$, entonces el primer vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Caso 2: $\lambda_{2} = 1 + i$.

Buscamos un vector $\mathbf{K}_{2}$ no nulo, tal que

$$(\mathbf{A} -(1 + i) \mathbf{I}) \mathbf{K}_{2} = \mathbf{0}$$

$$\begin{pmatrix}
1 -(1 + i) & 0 & 0 \\ 0 & 1 -(1 + i) & -1 \\ 0 & 1 & 1 -(1 + i)
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
-i & 0 & 0 \\ 0 & -i & -1 \\ 0 & 1 & -i
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

El sistema de ecuaciones que se obtiene es

\begin{align*}
-i k_{1} &= 0 \\
-i k_{2} -k_{3} &= 0 \\
k_{2} -i k_{3} &= 0
\end{align*}

De la primera ecuación se obtiene que $k_{1} = 0$, y de la segunda o tercera se obtiene que $k_{2} = i k_{3}$. Elegimos $k_{3} = 1$, así $k_{2} = i$, entonces el segundo vector propio es

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix}$$

Este vector al ser complejo lo podemos escribir como

$$\mathbf{K}_{2} = \mathbf{U} + i \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \label{25} \tag{25}$$

Caso 3: $\lambda_{3} = 1 -i$.

Este caso, como ya vimos en la teoría, corresponde al conjugado del caso anterior, así que el vector propio para este caso es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ -i \\ 1
\end{pmatrix}$$

que también se puede escribir como

$$\mathbf{K}_{3} = \mathbf{U} -i \mathbf{V} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} -i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \label{26} \tag{26}$$

Por lo tanto, una forma de la solución general del sistema es

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix} + c_{3} e^{(1 -i)t} \begin{pmatrix}
0 \\ -i \\ 1
\end{pmatrix} \label{27} \tag{27}$$

Sin embargo, es conveniente tener la solución real dada en (\ref{24}). De los resultados (\ref{25}) y (\ref{26}) sabemos que

$$\mathbf{U} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{V} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}$$

Si sustituimos en (\ref{15}) y (\ref{16}) con $\alpha = \beta = 1$, obtenemos lo siguiente.

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} \label{28} \tag{28}$$

Por su puesto, lo ideal es no memorizar las ecuaciones (\ref{15}) y (\ref{16}). Lo que se debe de hacer es tomar el caso en el que el vector propio es complejo, en este caso $\lambda_{2} = 1 + i$ y el vector propio correspondiente $\mathbf{K}_{2} = \begin{pmatrix} 0 \\ i \\ 1 \end{pmatrix}$, tal que una solución del sistema es

$$\mathbf{Y}_{2}(t) = e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix}$$

y usamos la identidad de Euler (\ref{18}).

\begin{align*}
e^{(1 + i)t} \begin{pmatrix}
0 \\ i \\ 1
\end{pmatrix} &= e^{t} [\cos(t) + i \sin(t)] \left[ \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{t} \left[ \cos(t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} -\sin(t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + i \sin(t) \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + i \cos(t) \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + i e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix}
\end{align*}

De donde podemos definir las funciones anteriores (\ref{28}).

$$\mathbf{W}_{1}(t) = e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{W}_{2}(t) = e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix}$$

Por lo tanto, de acuerdo a (\ref{24}), la solución general $\mathbf{Y}(t)$ del sistema lineal homogéneo dado debe tener la forma

$$\mathbf{Y}(t) = c_{1} e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + c_{3} e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} \label{29} \tag{29}$$

Apliquemos los valores iniciales. Tomando $t = 0$, se ve que

$$\mathbf{Y}(0) = \begin{pmatrix}
1 \\ 1 \\ 1
\end{pmatrix} = c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} = \begin{pmatrix}
c_{1} \\ c_{3} \\ c_{2}
\end{pmatrix}$$

De modo que, $c_{1} = c_{2} = c_{3} = 1$. Por lo tanto, la solución particular del problema de valores iniciales es

$$\mathbf{Y}(t) = e^{t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ -\sin(t) \\ \cos(t)
\end{pmatrix} + e^{t} \begin{pmatrix}
0 \\ \cos(t) \\ \sin(t)
\end{pmatrix} = e^{t} \begin{pmatrix}
1 \\ \cos(t) -\sin(t) \\ \cos(t) + \sin(t)
\end{pmatrix} \label{30} \tag{30}$$

$\square$

Hemos concluido esta entrada. En la siguiente revisaremos el último caso que corresponde a la situación en la que tenemos valores propios que se repiten, es decir, que tienen multiplicidad $r > 1$.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 2 \\ -1 & -1
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 0 & 1 \\ 0 & 1 & -1 \\ -2 & 0 & -1
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -7 & 6 & -6 \\ -9 & 5 & -9 \\ 0 & -1 & -1
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -3 & 0 & 2 \\ 1 & -1 & 0 \\ -2 & -1 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    0 \\ -1 \\ -2
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 2 & 0 & 0 \\ -2 & 0 & 0 & 0 \\ 0 & 0 & 0 & -3 \\ 0 & 0 & 3 & 0
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 1 \\ 1 \\ 0
    \end{pmatrix}$

Más adelante…

Ya conocemos la forma de las soluciones generales de sistemas lineales homogéneos en los que los valores propios de la matriz del sistema son reales y distintos y en los que son números complejos. El caso en el que son repetidos se presentará en la siguiente entrada.

Cuando los valores propios son repetidos el método se puede complicar un poco, sin embargo existe una alternativa bastante ingeniosa que nos permite obtener $n$ soluciones linealmente independientes de un sistema lineal de $n$ ecuaciones. ¡Dicha alternativa involucra la utilidad de la exponencial de una matriz $e^{\mathbf{A} t}$!.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»