Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Teoría de los Conjuntos I: Operaciones entre conjuntos

Por Gabriela Hernández Aguilar

Introducción

A continuación definiremos algunas de las operaciones que hay entre conjuntos como lo son la unión, intersección y diferencia. Retomaremos algunos axiomas como el de unión y el esquema de comprensión, para ver que estas operaciones definen nuevos conjuntos.

Unión

Recordemos la definición de la unión de dos conjuntos.

Definición. Si $A$ y $B$ son conjuntos, entonces definimos la unión de $A$ y $B$ como:


$A\cup B=\bigcup\set{A,B}$

o bien,

$A\cup B= \set{x: x\in A\ o\ x\in B}$.

Ejemplos.

  1. Consideremos los conjuntos $A= \set{\emptyset}$ y $B= \set{\emptyset, \set{\emptyset}}$. Luego, $A\cup B=\bigcup\set{A,B} = \bigcup\set{\emptyset, \set{\emptyset, \set{\emptyset}}}=\set{\emptyset,\set{\emptyset}}=B$.
  2. Ahora, consideremos $A=\set{\set{\emptyset}}$ y $B=\set{\set{\set{\emptyset}}}$. Tendremos que $A\cup B=\set{\set{\emptyset}}\cup \set{\set{\set{\emptyset}}}=\set{\set{\emptyset},\set{\set{\emptyset}}}$.

$\square$

Propiedades de la unión

Proposición. Para cualquier conjunto $A$ se tiene que $A\subseteq A\cup B$. Además, $A\cup B= B\cup A$.

Demostración.
Primero veamos que $A\subseteq A\cup B$. Supongamos que $x\in A$, entonces existe $A\in \set{A, B}$ tal que $x\in A$. Esto es, por definición de unión que $x\in \bigcup \set{A,B}=A\cup B$.

La unión es conmutativa

Para ver que $A\cup B=B\cup A$, notemos que $A\cup B=\bigcup\set{A,B}$ y $B\cup A=\bigcup \set{B, A}$. Sabemos que $\set{A, B}=\set{B, A}$ por axioma de extensión. Así, $A\cup B=B\cup A$.

$\square$

Intersección

Definición. Sean $A$ y $B$ conjuntos. La intersección de dos conjuntos estará definida como sigue:

$A\cap B=\set{x: x\in A\land x\in B}$.

La intersección de dos conjuntos nos permite obtener un conjunto cuyos elementos son aquellos que se encuentran en ambos conjuntos. En la imagen que proporcionamos arriba podemos ver que la intersección nos deja solamente a la manzana y la pera, pues están en ambos conjuntos y descarta al plátano y la naranja pues solo viven en el primer conjunto. Lo mismo hace con la fresa y la sandía que solo viven en el segundo conjunto.

Proposición. Se tiene que $A\cap B$ es un conjunto.

Demostración. Sean $A$ y $B$ conjuntos.

Definamos la propiedad «$P(x): x\in B$». Por el esquema de comprensión se tiene que

$\set{x\in A:x\in B}$

es un conjunto.

Luego, $\set{x\in A:x\in B}=A\cap B$. En efecto, $z\in A\cap B$ si y sólo si $z\in A$ y $z\in B$ si y sólo si $z\in \set{x\in A:x\in B}$.

Por lo tanto, $A\cap B$ es conjunto.

$\square$

Ejemplos.

  1. Consideremos $A=\set{\emptyset}$ y $B=\set{\set{\emptyset}}$, tenemos que $A\cap B=\emptyset$ esto último debido a que no existe ningún elemento $x$ tal que $x\in \set{\emptyset}$ y $x\in\set{\set{\emptyset}}$ al mismo tiempo. De ocurrir, tendriamos que $x=\emptyset$ y $x=\set{\emptyset}$ y por lo tanto, $\emptyset=\set{\emptyset}$ lo cual sabemos que no ocurre. Por lo tanto, $A\cap B=\emptyset$.
  2. Sean $A=\set{\emptyset,\set{\emptyset}}$ y $B=\set{\emptyset}$ conjuntos. Notemos que en este ejemplo el único elemento que está tanto en el conjunto $A$ como en el conjunto $B$ es $x=\emptyset$. De este modo, $A\cap B=\set{\emptyset}$.

$\square$

También podemos definir intersecciones arbitrarias, no sólo de dos conjuntos.

Definición. Sea $A$ un conjunto no vacío, definimos a la intersección de $A$ como la colección:

$\set{x: \forall y\in A(x\in y)}$.

Ejemplo.

Sea $A=\set{\set{\emptyset}, \set{\set{\emptyset}}, \set{\emptyset, \set{\emptyset}}}$, tenemos que la intersección de $A$ es $\emptyset$. En efecto, esto pasa ya que no existe ningún elemento $x$ que pertenezca a todos los elementos de $A$.

$\square$

El hecho de que la unión arbitraria es conjunto es resultado del axioma de la unión. No hay un axioma de la intersección, por lo que demostraremos que la intersección de un conjunto $A$ es un conjunto, siempre que $A$ no sea vacío.

Proposición. Para todo $A\not=\emptyset$, la intersección de $A$ es un conjunto.1

Demostración:

Sea $A$ conjunto no vacío, entonces $A$ tiene al menos un elemento. Sea $z\in A$, tenemos que $\set{x\in z: \forall y\in A(x\in y)}$ es conjunto por esquema de comprensión.

Resulta que $a\in \set{x\in z: \forall y\in A(x\in y)}$ si y sólo si $a\in y$ para todo $y\in A$. En efecto, si $a\in \set{x\in z: \forall y\in A(x\in y)}$, entonces $a\in z$ y $\forall y\in A$, $a\in y$. Entonces $a\in y$ para todo $y\in A$.

Ahora, si $a\in y$ para todo $y\in A$, en particular $a\in z$ pues $z\in A$. Por tanto, $a\in \set{x\in z: \forall y\in A(x\in y)}$.

$\square$

Si observamos, para realizar la demostración anterior usamos el hecho de que $A\not=\emptyset$, por lo que podríamos preguntarnos qué pasa si $A$ es vacío. Veremos esto con detalle en la siguiente entrada.

Ahora que hemos probado que la intersección de $A$ es un conjunto cuando $A$ es no vacío, le asignaremos una notación la cual estará dada por $\bigcap A$.

Propiedades de la intersección

Teorema. Para cualesquiera $A$, $B$ conjuntos, tenemos que:

  1. $A\cap B\subseteq A$,
  2. $A\cap A=A$,
  3. $A\cap B=B\cap A$.

Demostración.

  1. Sea $x\in A\cap B$. Veamos que $x\in A$.
    Como $x\in A\cap B$ tenemos por definición de intersección que $x\in A$ y $x\in B$. En particular, $x\in A$. Por lo tanto, $A\cap B\subseteq A$.
  2. Tomemos $x\in A\cap A$. Veamos que $x\in A$.
    Que $x\in A\cap A$ es equivalente a decir que $x\in A$ y $x\in A$, lo cual pasa si y sólo si $x\in A$. Por lo tanto, $A\cap A=A$.
  3. $A\cap B=B\cap A$ pues $x\in A\cap B$ arbitrario si y sólo si $x\in A$ y $x\in B$, si y sólo si $x\in B$ y $x\in A$, si y sólo si $x\in B\cap A$.

$\square$

Diferencia

Definición. Sean $A$ y $B$ conjuntos. La diferencia de $A$ con $B$ estará definida como sigue:

$A\setminus B=\set{x\in A: x\notin B}$.

Por esquema de comprensión $A\setminus B$ es conjunto.

La diferencia entre dos conjuntos nos permite obtener un conjunto cuyos elementos se encuentra en el primero pero no el segundo conjunto. En la imagen anterior podemos ver que la diferencia nos deja solamente al plátano y la naranja, pues el plátano y la naranja se encuentran en el primer conjunto, pero no en el segundo. La manzana y la pera no forma parte del conjunto final pues vive en ambos conjuntos. La fresa no es elemento de la diferencia pues ni siquiera es elemento del primer conjunto.

Ejemplos.

  1. Consideremos $A=\set{\emptyset}$ y $B=\set{\set{\emptyset}}$, tenemos que $A\setminus B=\set{\emptyset}$ pues el único elemento que cumple estar en $A$ y no pertenecer al conjunto $B$ es $\emptyset$.
  2. Sea $A=\set{\emptyset, \set{\emptyset}}$ y $B=\set{\emptyset}$. Luego,
    $A\setminus B=\set{x\in A:x\notin B}=\set{x\in \set{\emptyset, \set{\emptyset}}: x\notin\set{\emptyset}}= \{\set{\emptyset}\}$.

Propiedades de la diferencia

Teorema. Para cualesquiera $A$, $B$ conjuntos, tenemos que:

  1. $A\setminus \emptyset= A$,
  2. $A\setminus A=\emptyset$,
  3. $A\setminus B=A\setminus (A \cap B)$.

Demostración.

  1. Sea $x\in A\setminus \emptyset$. Entonces $x\in A$ y $x\notin \emptyset$. En particular $x\in A$, por lo tanto $A\setminus \emptyset\subseteq A$.
    Luego, supongamos que $x\in A$. Como $x\notin \emptyset$ es verdadero para cualquier conjunto $x$, tenemos que $x\in A$ y $x\notin \emptyset$ es verdadero. Por lo tanto, $x\in A\setminus \emptyset$ y así $A\subseteq A\setminus \emptyset$.
    De lo anterior tenemos que $A=A\setminus \emptyset$.
  2. Supongamos que $A\setminus A\not=\emptyset$, es decir, existe al menos un elemento $x\in A\setminus A$. Entonces $x\in A$ y $x\notin A$, lo cual no puede ocurrir. Dado que la contradicción provino de suponer que $A\setminus A\not=\emptyset$, concluimos que $A\setminus A=\emptyset$.
  3. Veamos que $A\setminus B=A\setminus (A \cap B)$.
    $\subseteq$] Sea $x\in A\setminus B$, entonces $x\in A$ y $x\notin B$. Luego, como $x\notin B$ entonces $x\notin A$ o $x\notin B$ es verdadero. Lo que equivale a decir que $x\notin (A\cap B)$. Por lo tanto, $x\in A$ y $x\notin (A \cap B)$ y así, $A\setminus B\subseteq A\setminus(A\cap B)$.
    $\supseteq$] Sea $x\in A\setminus (A\cap B)$, entonces $x\in A$ y $x\notin (A\cap B)$. Lo que equivale a decir que $x\in A$ y ($x\notin A$ o $x\notin B$). Dado que $x\notin A$ no puede ocurrir pues $x\in A$, entonces $x\notin B$. Por lo tanto, $x\in A$ y $x\notin B$ y así, $A\setminus(A\cap B)\subseteq A\setminus B$.
    Por lo tanto, $A\setminus(A\cap B)= A\setminus B$.

$\square$

Tarea moral

Los siguientes ejercicios te servirán para poner en práctica los conocimientos que has adquirido en este sección, en la siguiente lista podrás probar las siguientes propiedades de la unión, intersección y diferencia de conjuntos:

Prueba que para cualesquiera $A$, $B$ y $C$ conjuntos, $A\cup(B\cup C)=(A\cup B)\cup C$.

$A\cap (B\cap C)= (A\cap B)\cap C$.

Prueba que para cualesquiera $A$, $B$ y $C$ conjuntos:
– $A\cup (B\cap C)= (A\cup B)\cap(A\cup C)$,
– $A\cap (B\cup C)= (A\cap B)\cup(A\cap C)$.

Si $A\subseteq C$ y $B\subseteq C$ entonces $A\cap B\subseteq C\cap D$.

Demuestra que $A\setminus B=A$ si y sólo si $A\cap B=\emptyset$.

Demuestra a partir de los axiomas que en efecto si $A$ es un conjunto no vacío, entonces $\cap A$ es conjunto.

Más adelante…

En la siguiente entrada retomaremos la definición de intersección de conjuntos y mencionaremos el axioma de buena fundación. Además abordaremos el tema de la colección de todos los conjuntos apoyados de este último axioma. Finalmente, veremos que la intersección del conjunto vacío resulta ser la colección de todos los conjuntos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

  1. También puedes consultar la demostración de este resultado en: Amor, J. A., Teoría de Conjuntos para Estudiantes de Ciencias, México: Serv. Editoriales Fac. Ciencias, UNAM, 1997, p. 17. ↩︎

Ecuaciones Diferenciales I: Sistemas lineales homogéneos con coeficientes constantes – Valores propios repetidos

Por Omar González Franco

La matemática es la ciencia del orden y la medida, de bellas
cadenas de razonamientos, todos sencillos y fáciles.
– Descartes

Introducción

El método de valores y vectores propios nos ha permitido obtener las soluciones generales de sistemas lineales homogéneos. Ya vimos los casos en los que los valores propios son reales y distintos y cuando son complejos, en esta entrada presentaremos el caso en el que algunos de los valores propios son repetidos.

En este caso se presenta un problema y es que nosotros sabemos que si una matriz $\mathbf{A}$ de $n \times n$ con componentes constantes tiene $n$ valores propios distintos, entonces tendremos $n$ vectores propios que son linealmente independientes y por tanto tendremos $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Si se presenta el caso en el que algunos valores propios son repetidos, entonces tendremos $k < n$ valores propios que son distintos y por tanto $k$ vectores propios linealmente independientes, lo que significa que nos faltarán $n -k$ soluciones linealmente independientes del sistema $\mathbf{Y}^{\prime} = \mathbf{AY}$. El problema aquí es ¿cómo obtener las soluciones linealmente independientes que nos faltan?, para así determinar la solución general del sistema lineal. Recordemos que la solución general corresponde a la combinación lineal de las $n$ soluciones linealmente independientes del sistema.

En esta entrada resolveremos este problema y lo interesante es que el concepto de exponencial de una matriz es lo que nos ayudará.

Vectores propios generalizados

De la primera unidad recordemos que la función $y(t) = ce^{at}$ es una solución de la ecuación diferencial escalar $y^{\prime}(t) = ay$ para cualesquiera constantes $a$ y $c$. De manera análoga, se desearía que la función vectorial

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} \label{1} \tag{1}$$

fuera una solución del sistema lineal

$$\mathbf{Y}^{\prime} = \mathbf{AY} \label{2} \tag{2}$$

para cualquier vector constante $\mathbf{K}$.

En la entrada en la que definimos la exponencial de una matriz demostramos que la función $\mathbf{Y}(t) = e^{\mathbf{A} t}$ no sólo es solución del sistema lineal (\ref{2}), sino que incluso es una matriz fundamental de soluciones. También vimos que la derivada de $\mathbf{Y}(t) = e^{\mathbf{A} t}$ es

$$\dfrac{d}{dt} e^{\mathbf{A}t} = \mathbf{A} e^{\mathbf{A}t} \label{3} \tag{3}$$

Usando este resultado mostremos lo siguiente.

$$\dfrac{d}{dt} (e^{\mathbf{A}t} \mathbf{K}) = (\mathbf{A} e^{\mathbf{A}t}) \mathbf{K} = \mathbf{A} (e^{\mathbf{A}t} \mathbf{K}) \label{4} \tag{4}$$

Esto muestra que la función $\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K}$ efectivamente es solución del sistema lineal (\ref{2}).

Ahora que sabemos que (\ref{1}) es solución del sistema lineal (\ref{2}) veamos cómo esto puede ayudarnos a encontrar $n$ vectores $\mathbf{K}$ linealmente independientes. Notemos lo siguiente.

$$\mathbf{Y}(t) = e^{\mathbf{A} t} \mathbf{K} = e^{\mathbf{A} t} e^{(\lambda \mathbf{I} -\lambda \mathbf{I})t} \mathbf{K} = e^{(\mathbf{A} -\lambda \mathbf{I})t}e^{\lambda \mathbf{I}t} \mathbf{K} \label{5} \tag{5}$$

para cualquier constante $\lambda$ y en donde hemos usado el hecho de que

$$(\mathbf{A} -\lambda \mathbf{I})(\lambda \mathbf{I}) = (\lambda \mathbf{I})(\mathbf{A} -\lambda \mathbf{I}) \label{6} \tag{6}$$

De acuerdo a la definición de exponencial de una matriz observemos lo siguiente.

$$e^{\lambda \mathbf{I} t} = \sum_{k = 0}^{\infty} \dfrac{(\lambda \mathbf{I} t)^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I}^{k} t^{k}}{k!} = \sum_{k = 0}^{\infty} \dfrac{ \lambda^{k} \mathbf{I} t^{k}}{k!} = \left( \sum_{k = 0}^{\infty} \dfrac{ (\lambda t)^{k}}{k!} \right) \mathbf{I} = e^{\lambda t} \mathbf{I} = e^{\lambda t}$$

Por lo tanto, (\ref{5}) se puede escribir como

$$\mathbf{Y}(t) = e^{\mathbf{A}t} \mathbf{K} = e^{\lambda t} e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} \label{7} \tag{7}$$

Concentrémonos un momento en el término $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ de la solución anterior. Recordando que la exponencial $e^{\mathbf{A} t}$ es

$$e^{\mathbf{A}t} = \mathbf{I} + \mathbf{A}t + \mathbf{A}^{2} \dfrac{t^{2}}{2!} + \cdots + \mathbf{A}^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty}\mathbf{A}^{k} \dfrac{t^{k}}{k!} \label{8} \tag{8}$$

entonces la exponencial $e^{(\mathbf{A} -\lambda \mathbf{I})t}$ es

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} = \mathbf{I} + (\mathbf{A} -\lambda \mathbf{I}) t + (\mathbf{A} -\lambda \mathbf{I})^{2} \dfrac{t^{2}}{2!} + \cdots + (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} + \cdots = \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!}$$

y, así mismo

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \left( \sum_{k = 0}^{\infty} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{9} \tag{9}$$

Supongamos que existe un entero $m$, tal que

$$(\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} = \mathbf{0} \label{10} \tag{10}$$

Entonces la serie infinita (\ref{9}) terminará después de $m$ términos, pues si se satisface (\ref{10}), entonces se cumple

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = \mathbf{0} \label{11} \tag{11}$$

Para $l > 0$ entero. Esto es claro debido a que

$$(\mathbf{A} -\lambda \mathbf{I})^{m + l} \mathbf{K} = (\mathbf{A} -\lambda \mathbf{I})^{l} \left[ (\mathbf{A} -\lambda \mathbf{I})^{m} \mathbf{K} \right] = \mathbf{0}$$

Por lo tanto,

$$e^{(\mathbf{A} -\lambda \mathbf{I})t} \mathbf{K} = \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \label{12} \tag{12}$$

Así, la solución (\ref{7}) se puede escribir como

\begin{align*}
\mathbf{Y}(t) &= e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \cdots + \dfrac{t^{m -1}}{(m -1)!}(\mathbf{A} -\lambda \mathbf{I})^{m -1} \mathbf{K} \right] \\
&= e^{\lambda t} \left( \sum_{k = 0}^{m -1} (\mathbf{A} -\lambda \mathbf{I})^{k} \dfrac{t^{k}}{k!} \right) \mathbf{K} \label{13} \tag{13}
\end{align*}

No es casualidad que estemos usando la notación $\lambda$ y $\mathbf{K}$, estas cantidades corresponden a los valores y vectores propios de la matriz de coeficientes $\mathbf{A}$ del sistema lineal (\ref{2}), respectivamente.

El vector propio $\mathbf{K}$ que satisface (\ref{10}) recibe un nombre particular.

El resultado que nos interesa es la solución (\ref{13}). En el método de valores y vectores propios lo que hacemos es determinar los valores propios de la matriz $\mathbf{A}$ y con ellos posteriormente determinamos los vectores propios. Los vectores propios se determinan con la ecuación vectorial

$$(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} = \mathbf{0} \label{14} \tag{14}$$

Observemos que si se satisface (\ref{14}), entonces la serie (\ref{13}) se reduce a $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$ que es la solución que ya conocíamos. Si los valores y vectores propios son complejos simplemente se aplica la teoría de la entrada anterior sobre la misma solución $\mathbf{Y}(t) = e^{\lambda t} \mathbf{K}$.

A continuación presentamos el algoritmo para encontrar $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Algoritmo para encontrar $n$ soluciones linealmente independientes

  • Primero determinamos todos los valores y vectores propios de $\mathbf{A}$. Si $\mathbf{A}$ tiene $n$ vectores linealmente independientes, entonces el sistema lineal (\ref{2}) tiene $n$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Esto es lo que siempre hemos hecho.
  • Supongamos que $\mathbf{A}$ tiene únicamente $k < n$ vectores propios linealmente independientes, entonces se tendrá sólo $k$ soluciones linealmente independientes de la forma $e^{\lambda t} \mathbf{K}$. Para determinar soluciones adicionales tomamos un valor propio $\lambda $ de $\mathbf{A}$ y buscamos todos los vectores $\mathbf{K}$ para los cuales se cumple simultáneamente
    $$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{15} \tag{15}$$
    Para cada uno de los vectores propios generalizados $\mathbf{K}$ encontrados, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \right]\label{16} \tag{16}$$
    Esto se obtiene de la solución (\ref{13}). Hacemos esto para todos los valores propios distintos $\lambda $ de $\mathbf{A}$.
  • Si aún no se tienen suficientes soluciones, entonces se buscan todos los vectores propios generalizados $\mathbf{K}$ para los cuales
    $$(\mathbf{A} -\lambda \mathbf{I})^{3} \mathbf{K} = \mathbf{0} \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq \mathbf{0}, \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq \mathbf{0} \label{17} \tag{17}$$
    Para cada uno de tales vectores $\mathbf{K}$, una solución del sistema lineal (\ref{2}) es
    $$\mathbf{Y}(t) = e^{\lambda t} \left[ \mathbf{K} + t(\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} + \dfrac{t^{2}}{2!}(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \right] \label{18} \tag{18}$$
    Nuevamente, este resultado se obtiene de considerar (\ref{17}) en (\ref{13}).
  • Este procedimiento se puede continuar hasta encontrar $n$ soluciones linealmente independientes.

Los puntos antes establecidos son los pasos a seguir para obtener $n$ soluciones linealmente independientes del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$.

Realicemos un ejemplo en el que apliquemos el algoritmo anterior para que todo quede más claro.

Ejemplo: Resolver el siguiente problema con valores iniciales.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix}$$

Solución: El primer paso es determinar todos los valores y vectores propios de la matriz $\mathbf{A}$. La ecuación característica de $\mathbf{A}$ se obtiene de calcular el siguiente determinante.

$$\begin{vmatrix}
2 -\lambda & 1 & 3 \\ 0 & 2 -\lambda & -1 \\ 0 & 0 & 2 -\lambda
\end{vmatrix} = 0$$

Es sencillo notar que el polinomio característico es

$$P(\lambda) = (2 -\lambda )^{3}$$

y la ecuación característica es

$$(2 -\lambda )^{3} = 0$$

Vemos que la única raíz que se obtiene es $\lambda = 2$, éste es el único valor propio de $\mathbf{A}$ con multiplicidad tres ($r$ = 3). Un vector propio $\mathbf{K} \neq \mathbf{0}$ lo obtenemos de resolver la ecuación vectorial

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema se deduce que $k_{2} = k_{3} = 0$ y $k_{1}$ al ser arbitrario lo elegimos como $k_{1} = 1$. Por lo tanto, un vector propio es

$$\mathbf{K}_{1} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Entonces,

$$\mathbf{Y}_{1}(t) = e^{2t} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

es una solución del sistema lineal dado. Esta es la única solución linealmente independiente que pudimos encontrar con el método tradicional. La matriz del sistema es de $3 \times 3$, así que nos hacen faltan 2 soluciones linealmente independientes para poder formar un conjunto fundamental de soluciones y, por tanto, formar la solución general.

Pasemos al segundo punto del algoritmo.

Ahora buscamos todos los vectores $\mathbf{K} \neq \mathbf{0}$, tal que se satisface (\ref{15}), es decir

$$(\mathbf{A} -2\mathbf{I})^{2} \mathbf{K} = \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}$$

De este sistema deducimos que $k_{3} = 0$ y tanto $k_{1}$ como $k_{2}$ son arbitrarios, nosotros les podemos asignar algún valor, pero cuidado, recordemos que una condición adicional que tenemos es que este nuevo vector también satisfaga que

$$(\mathbf{A} -2 \mathbf{I}) \mathbf{K} \neq \mathbf{0}$$

Un vector que satisface (\ref{15}) simultáneamente es

$$\mathbf{K}_{2} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}$$

En este caso una solución del sistema lineal esta dada por (\ref{16}).

\begin{align*}
\mathbf{Y}_{2}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} + t \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} \right]
\end{align*}

Esto es,

$$\mathbf{Y}_{2}(t) = e^{2t} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix}$$

En este proceso hemos encontrado dos vectores linealmente independientes, a saber

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix}$$

Ahora procedemos a buscar un vector propio generalizado más que satisfaga (\ref{17}) y tal que la solución sea de la forma (\ref{18}).

\begin{align*}
(\mathbf{A} -2 \mathbf{I})^{3} \mathbf{K} &= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
k_{1} \\ k_{2} \\ k_{3}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}
\end{align*}

Es claro que cualquier vector es solución de esta ecuación, sin embargo también se debe satisfacer que

$$(\mathbf{A} -\lambda \mathbf{I})^{2} \mathbf{K} \neq 0 \hspace{1cm} y \hspace{1cm} (\mathbf{A} -\lambda \mathbf{I}) \mathbf{K} \neq 0$$

Un vector que satisface lo anterior es

$$\mathbf{K}_{3} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}$$

De acuerdo a (\ref{18}) una solución del sistema lineal es

\begin{align*}
\mathbf{Y}_{3}(t) &= e^{2t} \left[ \mathbf{I} + t(\mathbf{A} -2 \mathbf{I}) + \dfrac{t^{2}}{2}(\mathbf{A} -2 \mathbf{I})^{2} \right] \mathbf{K}_{3} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \right] \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \\
&= e^{2t} \left[ \begin{pmatrix}
1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
0 & 0 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} \right] \\
&= e^{2t} \left[ \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} + t \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} + \dfrac{t^{2}}{2} \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix} \right] \\
\end{align*}

En este caso los vectores linealmente encontrados son

$$\mathbf{C}_{1} = \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix}, \hspace{1cm} \mathbf{C}_{2} = \begin{pmatrix}
3 \\ -1 \\ 0
\end{pmatrix} \hspace{1cm} y \hspace{1cm} \mathbf{C}_{3} = \begin{pmatrix}
-1 \\ 0 \\ 0
\end{pmatrix}$$

Y la tercer solución linealmente independiente es

$$\mathbf{Y}_{3}(t) = e^{2t} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix}$$

Ahora que tenemos las tres soluciones linealmente independientes del sistema lineal dado podemos concluir que la solución general del sistema es

$$\mathbf{Y}(t) = e^{2t} \left[ c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right]$$

Las constantes $c_{1}$, $c_{2}$ y $c_{3}$ se determinan a partir de los valores iniciales.

$$\mathbf{Y}(0) = \begin{pmatrix}
1 \\ 2 \\ 1
\end{pmatrix} = c_{1} \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
0 \\ 1 \\ 0
\end{pmatrix}+ c_{3} \begin{pmatrix}
0 \\ 0 \\ 1
\end{pmatrix} = \begin{pmatrix}
c_{1} \\ c_{2} \\ c_{3}
\end{pmatrix} $$

Esto implica que $c_{1} = 1$, $c_{2} = 2$ y $c_{3} = 1$. Por lo tanto, la solución particular del sistema lineal es

$$\mathbf{Y}(t) = e^{2t} \left[ \begin{pmatrix}
1 \\ 0 \\ 0
\end{pmatrix} + 2 \begin{pmatrix}
t \\ 1 \\ 0
\end{pmatrix} + \begin{pmatrix}
3t -\dfrac{1}{2}t^{2} \\ -t \\ 1
\end{pmatrix} \right] = e^{2t} \begin{pmatrix}
1+ 5t -\dfrac{1}{2}t^{2} \\ 2 -t \\ 1
\end{pmatrix}$$

$\square$

Para concluir con el método de valores y vectores propios enunciaremos un importante teorema que es bueno tener en cuenta cuando trabajamos con valores y vectores propios. Este resultado es conocido como teorema de Cayley – Hamilton, la demostración no la haremos ya que se requiere de teoría de álgebra lineal que no veremos en este curso, pero que por supuesto puedes revisar en entradas de la materia correspondiente.

Teorema de Cayley – Hamilton

En el ejemplo anterior obtuvimos que la ecuación característica de la matriz $\mathbf{A}$ es

$$P(\lambda) = (2 -\lambda)^{3} = 0 \label{19} \tag{19}$$

Observemos que si sustituimos $\lambda$ por la matriz $\mathbf{A}$ obtenemos lo siguiente.

\begin{align*}
P(\mathbf{A}) &= (2 \mathbf{I} -\mathbf{A})^{3} \\
&= \left[ \begin{pmatrix}
2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 2
\end{pmatrix} – \begin{pmatrix}
2 & 1 & 3 \\ 0 & 2 & -1 \\ 0 & 0 & 2
\end{pmatrix} \right]^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix}^{3} \\
&= \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \begin{pmatrix}
0 & 1 & 3 \\ 0 & 0 & -1 \\ 0 & 0 & 0
\end{pmatrix} \\
&= \begin{pmatrix}
0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0
\end{pmatrix}
\end{align*}

Vemos que se cumple

$$P(\mathbf{A}) = (2 \mathbf{I} -\mathbf{A})^{3} = \mathbf{0} \label{20} \tag{20}$$

Esto no es casualidad, resulta que cualquier matriz $\mathbf{A}$ de $n \times n$ ¡satisface su propia ecuación característica!. El teorema de Cayley – Hamilton establece este hecho.

Con esto concluimos esta entrada y el estudio de los sistemas lineales homogéneos. En la siguiente entrada aprenderemos a resolver sistemas lineales no homogéneos.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Resolver los siguientes sistemas lineales homogéneos.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 3 \\ -3 & 5
    \end{pmatrix}\mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 1 & 1 \\ 2 & 1 & -1 \\ -3 & 2 & 4
    \end{pmatrix} \mathbf{Y}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 0 & -1 & 0 \\ 0 & 2 & 1 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & -1 & 2
    \end{pmatrix} \mathbf{Y}$
  1. Resolver los siguientes problemas con valores iniciales.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & 1 & 2 \\ -1 & 1 & 1 \\ -2 & 1 & 3
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    1 \\ 0 \\ 1
    \end{pmatrix}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -4 & -4 & 0 \\ 10 & 9 & 1 \\ -4 & -3 & 1
    \end{pmatrix} \mathbf{Y}, \hspace{1cm} \mathbf{Y}(0) = \begin{pmatrix}
    2 \\ 1 \\ -1
    \end{pmatrix}$

Más adelante…

Hemos concluido con los tres casos del método de valores y vectores propios para resolver sistemas de ecuaciones diferenciales lineales de primer orden homogéneas.

En la siguiente entrada comenzaremos a resolver sistemas lineales no homogéneos, el método que se utiliza es nuevamente el método de variación de parámetros. Veremos cómo es que este método se adapta a los sistemas lineales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral II: Propiedades de la integral definida

Por Moisés Morales Déciga

Introducción

En las entradas anteriores se dio la motivación de la construcción de la integral y la definición de la integral de Riemann. Para que cierta integral exista, necesitamos que el ínfimo de ciertas sumas superiores coincida con el supremo de ciertas sumas inferiores. Vimos algunas condiciones que garantizan que esto suceda, por ejemplo, que exista el límite de las sumas superiores e inferiores para las particiones homogéneas, y que dicho límite sea el mismo en ambos casos. Lo que haremos ahora es estudiar más propiedades de la integral.

Las propiedades que veremos nos permitirán concluir la existencia de ciertas integrales de manera sencilla y, a la vez, nos permitirán manipular algebraicamente a las integrales. En caso de necesitar un recordatorio de la definición de integral, te recomendamos consultar la entrada anterior.

Integrabilidad de familias de funciones especiales

Hay algunas propiedades de funciones que se estudian desde Cálculo I que implican la integrabilidad. A continuación presentamos un par de ejemplos.

Proposición. Si $f:\mathbb{R}\to \mathbb{R}$ es acotada y monótona en $[a,b]$, entonces es Riemann integrable en $[a,b]$.

Demostración. Supondremos que $f$ es estrictamente creciente. Otras variantes de monotonía (no decreciente, no creciente, estrictamente decreciente) tienen una demostración similar, que puedes hacer por tu cuenta.

Tomemos la partición homogénea $P_n$ del intervalo $[a,b]$. Definiendo $$x_j=a+j\frac{b-a}{n}$$ para $j=0,\ldots,n$, se tiene que las celdas son $$[x_0,x_1],[x_1,x_2],\ldots,[x_{n-1},x_n].$$

Las celdas tienen todas longitud $\frac{b-a}{n}$ y como la función es estrictamente creciente, el mínimo se alcanza al inicio de cada celda. De esta manera, la suma inferior para esta partición es:

\begin{align*}
\underline{S}(f,P_n)=\frac{b-a}{n}\left(f(x_0)+\ldots+f(x_{n-1})\right).
\end{align*}

Similarmente, el máximo se alcanza al final de cada celda. Por ello, la suma superior para esta partición es

\begin{align*}
\overline{S}(f,P_n)=\frac{b-a}{n}\left(f(x_1)+\ldots+f(x_n)\right).
\end{align*}

Restando la suma inferior a la superior, obtenemos

\begin{align*}
\overline{S}(f,P_n)-\underline{S}(f,P_n)&=\left(\frac{b-a}{n}\left(f(x_1)+\ldots+f(x_n)\right)\right)-\left(\frac{b-a}{n}\left(f(x_0)+\ldots+f(x_{n-1})\right)\right)\\
&=\frac{b-a}{n}(f(x_n)-f(x_0))\\
&=\frac{(b-a)(f(b)-f(a))}{n}.
\end{align*}

De acuerdo a la condición de Riemann (enunciada en la entrada anterior), la función será integrable si logramos que esta diferencia sea tan pequeña como queramos. Tomemos entonces cualquier $\epsilon>0$ y $n$ un entero tan grande como para que $n>\frac{1}{\epsilon}(b-a)(f(b)-f(a))$. Para este $n$, se cumple que

\begin{align*}
\overline{S}(f,P_n)-\underline{S}(f,P_n)&=\frac{(b-a)(f(b)-f(a))}{n}<\epsilon,
\end{align*}

y por ello la función es integrable.

$\square$

Proposición. Si $f:\mathbb{R}\to \mathbb{R}$ es continua en $[a,b]$, entonces es Riemann integrable en $[a,b]$.

Demostración. Como primera observación, como $f$ es continua en el intervalo cerrado y acotado $[a,b]$, entonces es acotada, de modo que sí podemos hablar de sus sumas superiores e inferiores.

La estrategia que usaremos para ver que es integrable será verificar nuevamente la condición de Riemann, es decir, que para cualquier $\epsilon > 0$, existe una suma superior y una inferior cuya diferencia es menor que $\epsilon$. La intuición es que con una partición suficientemente fina, el máximo y mínimo de $f$ son muy cercanos porque los puntos que los alcanzan están en una celda muy chiquita (y entonces son muy cercanos). Para poder hacer esto «globalmente» en todas las celdas, necesitaremos una propiedad un poco más fuerte que continuidad: continuidad uniforme (puedes seguir el enlace para recordar este contenido aquí en el blog). Pero ésta se tiene pues las funciones continuas en intervalos cerrados y acotados son uniformemente continuas.

Tomemos entonces $\epsilon >0$. Como mencionamos, $f$ es uniformemente continua y el intervalo $[a,b]$ es cerrado y acotado, entonces $f$ es uniformememente continua. Así, existe una $\delta>0$ tal que si $|x-y|<\delta$, entonces $|f(x)-f(y)|<\frac{\epsilon}{b-a}$. Tomemos $n$ tan grande como para que $\frac{b-a}{n}<\delta$. Tras hacer esto, en cada celda $i$ de la partición homogénea $P_n$ los valores $m_i$ y $M_i$ donde $f$ alcanza el mínimo y máximo respectivamente cumplen que $|M_i-m_i|\leq \frac{b-a}{n}<\delta$ y por lo tanto para cada $i$ se tiene $f(M_i)-f(m_i)=|f(M_i)-f(m_i)|<\frac{\epsilon}{b-a}$.

Ya tenemos los ingredientes para realizar la cuenta de sumas superiores e inferiores.

Por un lado,

$$\overline{S}(f,P_n)=\frac{b-a}{n}\left(f(M_1)+\ldots+f(M_n)\right).$$

Por otro,

$$\underline{S}(f,P_n)=\frac{b-a}{n}\left(f(m_1)+\ldots+f(m_n)\right),$$

así que

\begin{align*}
\overline{S}(f,P_n)-\underline{S}(f,P_n)&=\frac{b-a}{n}\sum_{i=1}^n \left(f(M_i)-f(m_i)\right)\\
&<\frac{b-a}{n}\sum_{i=1}^n \frac{\epsilon}{b-a}\\
&=\frac{b-a}{n}\left(n\frac{\epsilon}{b-a}\right)\\
&=\epsilon.
\end{align*}

Esto muestra que podemos acercar una partición superior tanto como queramos a una inferior. Por el criterio de la entrada anterior, la función $f$ es integrable en $[a,b]$.

$\square$

Separación de la integral en intervalos

Enunciemos una propiedad importante de la integral: puede partirse en intervalos.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Sea $c$ cualquier valor entre $[a,b]$. Si la integral

$$\int \limits_{a}^{b} f(x) \ dx$$

existe, entonces las dos integrales

$$\int \limits_{a}^{c} f(x) \ dx, \int \limits_{c}^{b} f(x) \ dx$$

también existen. Y viceversa, si estas dos integrales existen, entonces la primera también.

Cuando las tres integrales existen, se cumple además la siguiente igualdad:

$$\int \limits_{a}^{b} f(x) \ dx = \int \limits_{a}^{c} f(x) \ dx \ + \int \limits_{c}^{b} f(x) \ dx .$$

Demostración. Veamos primero que si la integral en todo $[a,b]$ existe, entonces las otras dos también. Trabajaremos usando la condición de Riemann. Sea $\epsilon>0$. Como $f$ es integrable en $[a,b]$, entonces existe una partición $P$ de $[a,b]$ tal que

$$\overline{S}(f,P)-\underline{S}(f,P)<\epsilon.$$

Podemos suponer que uno de los puntos de $P$ es el punto $c$, pues de no serlo, refinamos a $P$ incluyendo a $c$. Esto no aumenta la suma superior, ni disminuye la inferior, así que sigue cumpliendo la desigualdad anterior. Si $P=\{x_0,\ldots,x_n\}$, podemos entonces pensar que para alguna $k$ en $\{0\ldots,n\}$ se cumple que $x_k=c$, y entonces de esta partición de $[a,b]$ salen las particiones:

  • $P_1 = \{a=x_0, x_1, … , x_k=c\}$ de $[a,c]$ y
  • $P_2 = \{c={x_k}, x_{k+1}, … , x_n=b\}$ de $[c,b]$.

Como las celdas de $P$ son celdas de $P_1$ ó $P_2$, entonces las sumas superiores e inferiores cumplen:

\begin{align*}
\overline{S} (f,P_1) + \overline{S} (f,P_2) &= \overline{S} (f,P), \\
\underline{S} (f,P_1) + \underline{S} (f,P_2) &= \underline{S} (f,P) .\\
\end{align*}

Si se restan ambas sumas, se obtiene lo siguiente:

\begin{align*}
\left(\overline{S} (f,P_1) \ – \ \underline{S} (f,P_1)\right) + \left(\overline{S} (f,P_2) \ – \ \underline{S} (f,P_2)\right) = \overline{S} (f,P) \ – \ \underline{S} (f,P) < \epsilon.\\
\end{align*}

Ambos términos de la izquierda son positivos y su suma es menor que $\epsilon$, así que concluimos:

\begin{align*}
\overline{S} (f,P_1) \ – \ \underline{S} (f,P_1) &< \epsilon,\\
\overline{S} (f,P_2) \ – \ \underline{S} (f,P_2) &< \epsilon.\\
\end{align*}

De este modo, por el criterio de Riemann se tiene que $f$ es integrable en $[a,c]$ y en $[c,b]$.

Si la integrales en $[a,c]$ y $[c,b]$ existen, entonces puede hacerse una prueba similar: para cualquier $\epsilon$ habrá una partición $P$ de $[a,c]$ con diferencia de suma superior e inferior menor a $\epsilon/2$, y lo mismo para una partición $P’$ de $[c,b]$. Un argumento similar al de arriba ayudará a ver que $P\cup P’$ es una partición de $[a,b]$ que hace que la diferencia de la suma superior e inferior sea menor a $\epsilon$. Los detalles quedan para que los verifiques por tu cuenta.

Veamos ahora que cuando las integrales existen, entonces se cumple la igualdad

$$\int \limits_{a}^{b} f(x) \ dx = \int \limits_{a}^{c} f(x) \ dx \ + \int \limits_{c}^{b} f(x) \ dx .$$

Tomemos cualquier partición $P’$ de $[a,b]$. Tomemos el refinamiento $P=P’\cup \{c\}$ y escribamos $P=P_1\cup P_2$ como arriba. Usando que las integrales son ínfimos de sumas superiores (y por lo tanto son cotas inferiores), tenemos que:

\begin{align*}
\overline{S}(f,P’) & \geq \overline{S}(f,P)\\
&=\overline{S}(f,P_1) + \overline{S}(f,P_2)\\
&\geq \int_a^c f(x)\, dx + \int_c^b f(x) \,dx.
\end{align*}

Por definición, $\int \limits_{a}^{b} f(x) \ dx$ es el ínfimo de las sumas superiores sobre todas las particiones $P’$ de $[a,b]$ y entonces es la mayor de las cotas inferiores. Como arriba tenemos que $\int_a^c f(x)\, dx + \int_c^b f(x) \,dx$ es cota inferior para todas estas sumas superiores, entonces:

$$\int_a^b f(x)\, dx \geq \int_a^c f(x)\, dx + \int_c^b f(x) \,dx.$$

Así mismo, para cualesquiera particiones $P_1$ y $P_2$ de $[a,c]$ y $[c,b]$ respectivamente, tenemos que $P_1\cup P_2$ es partición de $[a,b]$ y entonces

$$\overline{S}(f,P_1) + \overline{S}(f,P_2) = \overline{S}(f,P_1\cup P_2) \geq \int_a^b f(x)\,dx,$$

de donde

$$\overline{S}(f,P_1) \geq \int_a^b f(x)\,dx \ – \ \overline{S}(f,P_2).$$

Así, para cualquier partición $P_2$ fija, hemos encontrado que $\int_a^b f(x)\,dx – \overline{S}(f,P_2)$ es cota inferior para todas las sumas superiores de particiones $P_1$ de $[a,c]$. De este modo, por ser la integral en $[a,c]$ la mayor de estas cotas inferiores, se tiene

$$\int_a^c f(x)\, dx \geq \int_a^b f(x)\,dx \ – \ \overline{S}(f,P_2)$$

para cualquier partición $P_2$ de $[c,b]$. Pero entonces

$$\overline{S}(f,P_2) \geq \int_a^b f(x)\,dx \ – \ \int_a^c f(x)\, dx, $$

se cumple para toda partición $P_2$ de $[b,c]$, de donde concluimos

$$\int_b^c f(x)\, dx \geq \int_a^b f(x)\,dx \ – \ \int_a^c f(x)\, dx.$$

Despejando, obtenemos la desigualdad

$$\int_a^b f(x)\, dx + \int_b^c f(x)\, dx \geq \int_a^b f(x).$$

Junto con la desigualdad que mostramos arriba, se obtiene la desigualdad deseada.

$\square$

Límites reales arbitrarios

Hasta ahora siempre hemos hablado de la existencia de la integral de una función en un intervalo $[a,b]$ con $a\leq b$. Cuando $a=b$, la integral que buscamos es en el intervalo $[a,a]$ y se puede mostrar que en este caso la integral siempre existe y es igual a cero, es decir, que $$\int_a^a f(x)\, dx = 0.$$

La siguiente definición nos dice qué hacer cuando en los límites de integración vamos de un número mayor a uno menor.

Definición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Sean $a<b$ reales. Si la integral de $f$ en el intervalo $[a,b]$ existe, entonces definimos la integral de $f$ de $b$ a $a$ como sigue: $$\int_b^a f(x)\,dx= – \int_a^b f(x)\, dx.$$

Esta definición es compatible con todo lo que hemos platicado, y nos permite extender la identidad $$\int \limits_{a}^{c} f(x) \ dx, \int \limits_{c}^{b} f(x) \ dx$$ de la proposición de la sección anterior a valores arbitrarios de $a,b,c$, sin importar en qué orden estén en la recta real (siempre y cuando las integrales existan, por supuesto). Por ejemplo, si $a>b>c$, entonces podemos proceder como sigue mediante lo que ya hemos demostrado y definido:

\begin{align*}
\int_a^b f(x)\, dx &= – \int_b^a f(x)\, dx \quad \text{Def. int. para $a>b$.}\\
&= – \left(\int_c^a f(x)\, dx \ – \ \int_c^b f(x)\, dx\right) \quad \text{Por prop. anterior pues $c<b<a$.}\\
&= – \int_c^a f(x)\, dx + \int_c^b f(x)\, dx \quad \text{Distribuir el $-$}\\
&= \int_a^c f(x)\, dx + \int_c^b f(x)\, dx \quad \text{Def. int. para $a>c$}.
\end{align*}

Aquí se ve como con un orden específico de $a,b,c$ se sigue cumpliendo la identidad buscada, aunque $c$ no quede entre $a$ y $b$ y no se cumpla que $a\leq b$. Siempre es posible hacer esto y te recomendamos pensar en cómo argumentar todos los casos posibles de $a,b,c$.

La intuición en áreas de que la integral $\int_b^a f(x)\, dx$ cambia de signo con respecto a $\int_a^b f(x)\, dx$ es que en una recorremos el área de izquierda a derecha y en la otra de derecha a izquierda. Entonces, «recorremos el área al revés» porque «graficamos hacia atrás». Por ejemplo, se tiene el intervalo $[5,1]$, la forma en que se recorrerá al momento de graficar sería del $5$ al $1$ y, si la función es positiva, la integral será negativa.

Linealidad de la integral

Tomemos dos funciones acotadas $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ y supongamos que son integrables en el intervalo $[a,b]$. Tomemos cualquier real arbitrario $\alpha$. A partir de esto, podemos construir la función $f+\alpha g$, que recordemos que su definición es que es una función de $[a,b]$ a $\mathbb{R}$ con regla de asignación $$(f+\alpha g)(x) = f(x) + \alpha g(x).$$

Si tomamos una partición $P$ de $[a,b]$, se puede verificar fácilmente que

\begin{align*}
\overline{S}(f+\alpha g, P)&=\overline{S}(f,P)+\alpha \overline{S}(g,P),\\
\underline{S}(f+\alpha g, P)&=\underline{S}(f,P)+\alpha \underline{S}(g,P).
\end{align*}

Restando ambas expresiones,

$$\overline{S}(f+\alpha g, P) \ – \ \underline {S}(f+\alpha g, P) = \left(\overline{S}(f,P) \ – \ \underline{S}(f,P)\right) + \alpha \left(\overline{S}(g,P) \ – \ \underline{S}(g,P)\right).$$

Intuitivamente (respaldados por el criterio de Riemann), el lado derecho puede ser tan pequeño como queramos pues $f$ y $g$ son integrables. Así que el lado izquierdo también. Esto muestra que $f+\alpha g$ también es integrable en $[a,b]$. Te recomendamos hacer una demostración formal.

Además, si $P_n$ es una sucesión de particiones en donde los tamaños de celda convergen a cero (y por lo tanto para las cuales las sumas superiores convergen a la integral para cada función de arriba), entonces:

\begin{align*}
\int_a^b (f+\alpha g)(x)\, dx &= \lim_{n\to \infty} \overline{S} (f+\alpha g, P_n)\\
&=\lim_{n\to \infty} \left(\overline{S}(f,P_n)+ \alpha\overline{S}(g,P_n)\right)\\
&=\lim_{n\to \infty} \overline{S}(f,P_n) + \alpha \lim_{n\to \infty} \overline{S}(g,P_n)\\
&=\int_a^b f(x)\, dx + \alpha \int_a^b g(x)\, dx.
\end{align*}

En resumen, hemos demostrado lo siguiente:

Teorema. La integral es lineal. Es decir, si $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ son funciones acotadas e integrables en $[a,b]$, entonces para cualquier real $\alpha$ también $f+\alpha g$ es integrable en $[a,b]$ y además se cumple $$\int_a^b (f+\alpha g)(x)\, dx = \int_a^b f(x)\, dx + \alpha \int_a^b g(x)\, dx.$$

Dos casos particulares de interés son los siguientes:

  • Si en el teorema anterior tomamos $\alpha=1$, entonces obtenemos que $\int_a^b (f+g)(x)=\int_a^b f(x)\, dx + \int_a^b g(x)\, dx$, es decir, la integral abre sumas.
  • Si en el teorema anterior tomamos $f$ como la función constante cero, entonces obtenemos que $\int_a^b \alpha g(x)\, dx = \alpha \int_a^b g(x)\, dx$, es decir la integral saca escalares.

La integral respeta desigualdades

Veamos que la integral, en cierto sentido, respeta desigualdades. Un primer paso que es muy sencillo de verificar es lo que sucede con la integral de funciones no negativas.

Proposición. Si $f:\mathbb{R}\to \mathbb{R}$ es una función integrable en el intervalo $[a,b]$ y se cumple $f(x)\geq 0$ para todo $x\in [a,b]$, entonces $$\int_a^b f(x)\, dx \geq 0.$$

Demostración. Como $f(x)\geq 0$, entonces claramente para cualquier partición $P$ se cumple que $\overline{S}(f,P)\geq 0$, pues aparecen puros términos positivos en la suma superior. Así, $0$ es una cota inferior para las sumas superiores. Como la integral es la máxima de dichas cotas superiores, entonces $$\int_a^b f(x)\, dx \geq 0,$$ como queríamos.

$\square$

De este resultado y las propiedades que hemos mostrado, podemos deducir algo mucho más general.

Teorema. Sean $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ funciones integrables en un intervalo $[a,b]$, dentro del cual también se cumple que $f(x)\leq g(x)$. Entonces, $$\int_a^b f(x)\, dx \leq \int_a^b g(x)\, dx.$$

Demostración. Como $f$ y $g$ son integrables en $[a,b]$, entonces la combinación lineal $g-f$ también lo es, y además $(g-f)(x)=g(x)-f(x)\geq 0$. Por la proposición anterior y la linealidad de la integral, tenemos entonces que: $$\int_a^b g(x)\, dx \ – \ \int_a^b f(x)\, dx = \int_a^b (g-f)(x)\, dx \geq 0.$$

De aquí, $$\int_a^b f(x)\, dx \leq \int_a^b g(x)\, dx,$$ como queríamos.

$\square$

Más adelante…

Todas las propiedades que hemos enunciado se utilizarán de aquí en adelante. Es importante que las tengas presentes. Son propiedades que nos permiten factorizar funciones para que al momento de integrar o que nos permiten partir una integral complicada en otras más sencillas con integración inmediata o ya conocida.

En la siguiente entrada enunciaremos y demostraremos el teorema del valor medio para la integral. Es un teorema muy relevante, pues será uno de los ingredientes en la demostración de otros teoremas importantes para el cálculo integral.

Tarea moral

  1. Utilizando las propiedades anteriores, resuelve las siguientes integrales.
    • $\int \limits_0^1 7(4+3x^2) ~dx.$
    • $\int \limits_2^0 \frac{1}{4}(32x-3x^2+6) ~dx.$
  2. Termina con detalle todas las demostraciones de la entrada que hayan quedado pendientes.
  3. Usndo las propiedades de esta entrada, demuestra que la integral $\int_{-10}^{10} x^7-x^5+3x^3+27x\, dx$ existe y determina su valor. Sugerencia. Muestra que la función dentro de la integral es continua y cumple $f(x)=-f(x)$. Usa varias de las propiedades de esta entrada.
  4. Demuestra la siguiente igualdad:
    $$ \int \limits_{a}^{b} \alpha \ f(x) \ dx \ + \int \limits_{a}^{b} \beta\ g(x) \ dx \ = \ \int \limits_{a}^{b} \alpha f(x) \ + \beta g(x) \ dx .$$
  5. Sean $a\leq b\leq c\leq d$ números reales. Sea $f:\mathbb{R}\to \mathbb{R}$ una función integrable en $[a,d]$. Demuestra que todas las integrales $$\int_a^c f(x)\, dx, \int_b^d f(x)\, dx, \int_a^d f(x)\,dx, \int_b^c f(x)\,dx$$
    existen y muestra que satisfacen la siguiente identidad:
    $$\int_a^c f(x)\, dx + \int_b^d f(x)\, dx = \int_a^d f(x)\,dx + \int_b^c f(x)\,dx.$$
  6. Sean $a<b$ reales. Demuestra que si la función $f:\mathbb{R}\to \mathbb{R}$ es continua en $[a,b]$, se cumple que $f(x)\geq 0$ para $x\in [a,b]$ y además existe por lo menos un punto $c$ tal que $f(c)>0$, entonces $\int_a^b f(x)\, dx >0$. Como sugerencia, demuestra que existe todo un intervalo (aunque sea muy chiquito) donde la función es positiva, y usa otras propiedades que hemos mostrado. Luego, encuentra un contraejemplo para esta afirmación en donde $f$ no sea continua.

Entradas relacionadas

Geometría Moderna I: División armónica

Por Rubén Alexander Ocampo Arellano

Introducción

En entradas anteriores definimos la razón en la que un punto divide a un segmento e hicimos uso de este concepto, obviando el cambio de signo, nos podemos preguntar que es lo que pasa cuando dos puntos distintos dividen en la misma razón a un segmento, esto es lo que se conoce como división armónica.

Definición 1. Definimos la razón cruzada de dos pares de puntos colineales $(A, B)$ y $(C, D)$ como
$(A, B; C, D) = \dfrac{AC}{CB} \div \dfrac{AD}{DB}$.

Si $C$ está en el segmento $AB$, $D$ en su extensión y la razón en la que $C$ y $D$ dividen al segmento $AB$ es la misma en valor absoluto, entonces $(A, B; C, D) = – 1$.

En este caso, decimos que $C$ y $D$ dividen al segmento $AB$ armónicamente, o que $C$ y $D$ son conjugados armónicos respecto de $A$ y $B$.

Observación. Notemos que el conjugado armónico de un punto respecto de otros dos puntos dados es único, pues ya probamos que para todo número real $r$, existe un único punto que divide a un segmento dado en $r$.

Hilera armónica

Teorema 1. Si dos puntos $C$ y $D$ dividen armónicamente al segmento $AB$ en la razón $|\dfrac{p}{q}|$ entonces los puntos $A$ y $B$ dividen armónicamente a $CD$ en la razón $|\dfrac{p – q}{p + q}|$.

Demostración. Supongamos que $\dfrac{AC}{CB} = \dfrac{p}{q}$ y $\dfrac{AD}{DB} = \dfrac{– p}{q}$, entonces usando segmentos dirigidos,

$\dfrac{AC}{CB} + \dfrac{CB}{CB} = \dfrac{p}{q} + \dfrac{q}{q} \Rightarrow$

$\begin{equation} \dfrac{AB}{CB} = \dfrac{p + q}{q}. \end{equation}$

Figura 1

$\dfrac{AD}{DB} + \dfrac{DB}{DB} = \dfrac{– p}{q} + \dfrac{q}{q} \Rightarrow$
$\begin{equation} \dfrac{AB}{DB} = \dfrac{q – p}{q}. \end{equation}$

De manera análoga podemos encontrar
$\begin{equation} \dfrac{AB}{AC} = \dfrac{CB + AC}{AC} = \dfrac{q + p}{p}, \end{equation}$
$\begin{equation} \dfrac{AB}{AD} = \dfrac{DB + AD}{AD} = \dfrac{p – q}{p}. \end{equation}$

Haciendo el cociente de $(2)$ entre $(1)$ obtenemos
$\dfrac{CB}{BD} = \dfrac{p – q}{p + q}$.

Análogamente de $(4)$ y $(3)$ obtenemos
$\dfrac{CA}{AD} = \dfrac{q – p}{p + q}$.

$\blacksquare$

Definición 2. Debido a esta propiedad reciproca en la que si $(A, B; C, D) = – 1$ entonces $(C, D; A, B) = – 1$, decimos que $ACBD$ es una hilera armónica de puntos o simplemente una hilera armónica.

Corolario 1. Si $(A, B; C, D) = – 1$, entonces $\dfrac{AB}{CD} = \dfrac{p^2 – q^2}{2pq}$.

Demostración. $CD = AD – AC $
$= ABp(\dfrac{1}{p – q} – \dfrac{1}{p + q}) = ABp(\dfrac{p + q – (p – q)}{p^2 – q^2})$.

Donde la segunda igualdad se debe a $(3)$ y $(4)$.

Por lo tanto, $\dfrac{AB}{CD} = \dfrac{p^2 – q^2}{2pq}$.

$\blacksquare$

Construcción del conjugado armónico

Teorema 2. Sea $\triangle ABC$, considera $X \in BC$, $Y \in CA$, $Z \in AB$, cada uno en el interior del lado respectivo y sea $X’ = ZY \cap BC$, entonces $X$ y $X’$ son conjugados armónicos respecto a $BC$ si y solo si $AX$, $BY$, $CZ$ son concurrentes.

Demostración. Aplicando el teorema de Menelao a $\triangle ABC$ y la transversal $X’YZ$ tenemos
$\dfrac{AZ}{ZB} \dfrac{BX’}{X’C} \dfrac{CY}{YA} = – 1$.

Figura 2

Por el teorema de Ceva $AX$, $BY$, $CZ$ son concurrentes si y solo si,
$\dfrac{AZ}{ZB} \dfrac{BX}{XC} \dfrac{CY}{YA} = 1$.

Dividiendo ambas expresiones obtenemos
$(B, C; X, X’) = \dfrac{BX}{XC} \div \dfrac{BX’}{X’C} = – 1$.

$\blacksquare$

Proposición 1. Las proyecciones de los puntos de una hilera armónica en cualquier recta, forman otra hilera armónica.

Demostración. Sean $ACBD$ una hilera armónica y $l$ cualquier otra recta, consideremos $A’$, $B’$, $C’$, $D’$, las proyecciones de $A$, $B$, $C$, $D$ respectivamente en $l$.

Figura 3

Sea $P = ACBD \cap l$, como $AA’ \parallel BB’ \parallel DD’$, tenemos las siguientes semejanzas, $\triangle PB’B \sim \triangle PD’D \sim \triangle PA’A$ (figura 3), es decir:

$\dfrac{PA’}{PD’} = \dfrac{PA}{PD} \Leftrightarrow \dfrac{– A’P – PD’}{PD’} = \dfrac{– AP – PD}{PD}$
$\Leftrightarrow \dfrac{A’D’}{AD} = \dfrac{P’D’}{PD}$.

Igualmente podemos ver que $\dfrac{D’B’}{DB} = \dfrac{P’D’}{PD}$.

Por lo tanto $\dfrac{A’D’}{D’B’} = \dfrac{AD}{BD}$.

De manera análoga podemos encontrar $\dfrac{A’C’}{C’B’} = \dfrac{AC}{CB}$.

Como $(A, B; C, D) = – 1$, entonces,
$\dfrac{A’D’}{D’B’} = \dfrac{AD}{BD} = – \dfrac{AC}{CB} = – \dfrac{A’C’}{C’B’}$.

$\blacksquare$

División armónica y bisectrices

Teorema 3. Sean $A$, $C$, $B$, $D$, cuatro puntos colineales, en ese orden, sea $P$ un punto fuera de la recta $ACBD$, entonces, si dos de las siguientes tres propiedades son ciertas, la tercera también es cierta:
$i)$ $(A, B; C, D) = – 1$,
$ii)$ $PC$ es la bisectriz interna de $\angle APB$,
$iii)$ $PC \perp PD$.

Figura 4

Demostración.
$i)$ y $ii)$ se cumplen, como $PC$ es la bisectriz interna de $\angle APB$, por el teorema de la bisectriz, la bisectriz externa de $\angle APB$ interseca a $AB$ en el conjugado armónico de $C$, el cual es único por la observación hecha en la introducción.

Por lo tanto, $PD$ es la bisectriz externa de $\angle APB$ y así $PC \perp PD$.

$ii)$ y $iii)$ se cumplen, ya que $PC$ es la bisectriz interna de $\angle APB$ y $PC \perp PD$, entonces $PD$ es la bisectriz externa de $\angle APB$.

Por el teorema de la bisectriz, $C$ y $D$ son conjugados armónicos.

$i)$ y $iii)$ se cumplen, si $C$ y $D$ son conjugados armónicos respecto de $AB$ entonces se encuentran en la circunferencia de Apolonio determinada por la razón $\dfrac{AC}{CB} =|\dfrac{AD}{DB}|$.

Recordemos que $CD$ es diámetro de esta circunferencia, como $PC \perp PD$, entonces $P$ pertenece a este lugar geométrico.

Por lo tanto, $\dfrac{AP}{PB} = \dfrac{AC}{CB} =|\dfrac{AD}{DB}|$, por el reciproco del teorema de la bisectriz, $PC$ y $PD$ son las bisectrices interna y externa de $\angle APB$ respectivamente.

$\blacksquare$

Corolario 2. Considera un triángulo $\triangle ABC$, $I$ el incentro, $I_c$ el excentro relativo al vértice $C$ y $C_1 = CI \cap AB$, entonces $(C, C_1; I, I_c) = -1$.

Demostración. En $\triangle AC_1C$, $AI$ y $AI_c$ son las bisectrices interna y externa respectivamente de $\angle C_1AC$.

Figura 5

Como se cumplen los puntos $ii)$ y $iii)$ del teorema anterior entonces $(C, C_1; I, I_c) = -1$.

$\blacksquare$

Punto medio de conjugados armónicos

Teorema 4. Si $A$, $C$, $B$, $D$, son cuatro puntos colineales, en ese orden, y $O$ el punto medio del segmento $AB$ entonces $(A, B; C, D) = – 1$ si y solo si $OC \times OD = OA^2$.

Figura 6

Demostración. Empleando segmentos dirigidos tenemos lo siguiente:
$AC – CB = (AO + OC) – (CO + OB) = 2OC$,
$AD – DB = (AO + OD) – (DO + OB) = 2OD$,
$AC + CB = AB = AD + DB = 2AO$.

Por lo tanto, $OC \times OD = OA^2$
$\Leftrightarrow 2OC \times 2OD = (2AO)^2$
$\Leftrightarrow (AC – CB)( AD – DB) = (AC + CB)(AD + DB)$
$ \Leftrightarrow (AC \times AD) – (AC \times DB) – (AD \times CB) + (CB \times DB)$
$= (AC \times AD) + (AC \times DB) + (AD \times CB) + (CB \times DB)$
$\Leftrightarrow – 2AC \times DB = 2AD \times CB$
$\Leftrightarrow (A, B; C, D) = – 1$.

$\blacksquare$

Proposición 2.Sean $A$, $C$, $B$, $D$, cuatro puntos colineales, entonces $(A, B; C, D) = – 1$, si y solo si al medir todos los segmentos de un punto de la hilera armónica, $B$ por ejemplo, tenemos $\dfrac{2}{BA} = \dfrac{1}{BC} + \dfrac{1}{BD}$.

Demostración. $\dfrac{AC}{CB} = – \dfrac{AD}{DB}$
$ \Leftrightarrow \dfrac{AB + BC}{CB} = – \dfrac{AB + BD}{DB}$
$\Leftrightarrow \dfrac{BA}{BC} – 1 = \dfrac{BA}{DB} + 1$
$\Leftrightarrow \dfrac{1}{BC} + \dfrac{1}{BD} = \dfrac{2}{BA}$.

$\blacksquare$

Teorema de Feuerbach

Teorema 5, de Feuerbach. La circunferencia de los nueve puntos y el incírculo de un triángulo son tangentes.

Demostración. Paso 1. Sean $\triangle ABC$, $\triangle A’B’C’$ su triangulo medial, $\Gamma(N)$ la circunferencia de los nueve puntos (el circuncírculo de $\triangle A’B’C’$) y considera la tangente $C’T$ a $\Gamma(N)$ en $C’$.

Notemos que $\angle TC’A$ y $\angle C’B’A’$ son ángulos semiinscrito e inscrito respectivamente de $\Gamma(N)$ y abarcan el mismo arco, por lo tanto, son iguales.

Recordemos que los lados de $\triangle A’B’C’$ son paralelos a los de $\triangle ABC$ y por lo tanto, $\triangle ABC$ y $\triangle A’B’C’$ son semejantes.

En consecuencia,
$\angle BC’T = \angle BC’A’ – \angle TC’A $
$= \angle BAC – \angle C’B’A’ = \angle A – \angle B$.

Paso 2. Sean $\Gamma(I)$ el incírculo de $\triangle ABC$, $C_1 = CI \cap AB$ y $C_1P$ tangente a $\Gamma(I)$ en $P$.

Como $C_1A$ y $C_1P$ son tangentes a $\Gamma(I)$ desde $C_1$ entonces $\angle PC_1I = \angle IC_1A$.

Por lo tanto,
$\angle BC_1P = \pi – \angle PC_1A $
$= \pi – (2\angle IC_1A) = \pi – 2(\pi – \angle A – \dfrac{\angle C}{2})$
$= \angle A + (\angle A + \angle C – \pi) = \angle A – \angle B$.

Así, $C’T \parallel C_1P$.

Figura 7

Paso 3. Sean $\Gamma(I_c)$ el excírculo opuesto al vértice $C$, $Z_c$ el punto de tangencia entre $\Gamma(I_c)$ y $AB$, $Z$ el punto de tangencia entre $\Gamma(I)$ y $AB$, $H_c$ el pie de la altura por $C$ en $\triangle ABC$.

Por el corolario 2, $(C, C_1; I, I_c) = -1$ y por la proposición 1, $(H_c, C_1; Z, Z_c) = -1$.

Recordemos que el punto medio de $Z$ y $Z_c$ coincide con el punto medio $C’$, de $AB$.

Por el teorema 4, $C’C_1 \times C’H_c = C’Z^2$.

Sea $F = C’P \cap \Gamma(I)$, $F \neq P$, por la potencia de $C’$ respecto de $\Gamma(I)$ tenemos
$C’P \times C’F = C’Z^2 = C’C_1 \times C’H_c$.

Por la ecuación anterior, el teorema de las cuerdas nos dice que $\square H_cC_1PF$ es cíclico.

Por lo tanto, $\angle H_cFP$ y $\angle PC_1H_c$ son suplementarios.

En consecuencia, $\angle H_cFC’ = \angle BC_1P = \angle BC’T$.

Por otra parte, notemos que $C’H_c$ es una cuerda de la circunferencia de los nueve puntos $\Gamma(N)$, sea $F’$ en el arco $\overset{\LARGE{\frown}}{C’H_c}$ (recorrido en ese sentido).

Entonces, $\angle BC’T + \angle TC’F’ + \angle F’C’H_c = \pi = \angle H_cF’C’ + \angle C’H_cF’ + \angle F’C’H_c$, además $\angle TC’F’ = \angle C’H_cF’$, pues abarcan el mismo arco.

Por lo tanto, los puntos $F’$ en el arco $\overset{\LARGE{\frown}}{C’H_c}$, cumplen que  $\angle H_cF’C’ = \angle BC’T$, además son los únicos, siempre y cuando estén del mismo lado que $C$ respecto de $C’H_c$.

Como $F$ cumple estas características, entonces $F \in \Gamma(N)$.

Paso 4. Sean $U$ la intersección de la tangente a $\Gamma(N)$ en $F$ con $C’T$ y $V$ la intersección de la tangente a $\Gamma(I)$ en $F$ con $C_1P$.

Como $UC’ = UF$, por ser tangentes a $\Gamma(N)$ desde $U$, entonces $\angle UC’F = \angle C’FU$, igualmente vemos que $\angle VPF = \angle PFV$.

Pero $\angle UC’F = \angle VPF$ pues $C’U \parallel PV$ y $C’PF$ es transversal a ambas.

Por lo tanto, $\angle C’FU = \angle PFV = \angle C’FV$, es decir $UF$ y $VF$ son la misma recta.

Como resultado tenemos que $\Gamma(N)$ y $\Gamma(I)$ son tangentes en $F$.

$\blacksquare$

Definición 3. Al punto de tangencia entre el incírculo y la circunferencia de los nueve puntos $F$, se le conoce como punto de Feuerbach.

Más adelante…

Continuando con el tema de división armónica, en la siguiente entrada estudiaremos haces armónicos.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. $i)$ Divide un segmento dado en una razón dada $\dfrac{p}{q}$,
    $ii)$ Muestra que $HNGO$ es una hilera armónica, donde $H$ es el ortocentro, $N$ el centro de los nueve puntos, $G$ el centroide y $O$ el circuncentro de un triángulo.
  2.  Si los puntos $C$ y $D$ dividen internamente y externamente de manera armónica en la razón $\dfrac{p}{q}$ al segmento $AB$, muestra que el punto medio de $CD$ divide al segmento $AB$ en la razón $\dfrac{p^2}{q^2}$.
  3. Prueba que la suma de los cuadrados de dos segmentos armónicos es igual a cuatro veces el cuadrado de la distancia entre los puntos medios de estos segmentos.
  4. Considera el segmento determinado por el vértice de un triángulo y la intersección de la bisectriz interna o externa con el lado opuesto, muestra que los pies de las perpendiculares a dicha recta desde los otros dos vértices del triángulo dividen al segmento de manera armónica.
  5. Si los puntos $C$ y $D$ dividen armónicamente al segmento $AB$ y $O$ es el punto medio de $AB$, muestra que $OC^2 + OD^2 = CD^2 + 2OA^2$.
  6. Si $(A, B; C, D) = – 1$ y $A’$, $B’$ son los conjugados armónicos de $D$ respecto a los pares de puntos $(A, C)$ y $(B, C)$ respectivamente, muestra que $(A’, B’; C, D) = – 1$.
  7. Sean $\triangle ABC$, $D$, $E$, $F$, los puntos de tangencia del incírculo de $\triangle ABC$ con $BC$, $CA$ y $AB$ respectivamente, sea $X$ en el interior de $\triangle ABC$ tal que el incírculo de $\triangle XBC$ es tangente a $BC$, $CX$, $XB$ en $D$, $Y$, $Z$, respectivamente, demuestra que $\square EFZY$ es cíclico.
  8. Demuestra que la circunferencia de los nueve puntos de un triángulo es tangente a cada uno de sus excírculos.

Entradas relacionadas

Fuentes

  • Altshiller, N., College Geometry. New York: Dover, 2007, pp 53-56, 166-171.
  • Andreescu, T., Korsky, S. y Pohoata, C., Lemmas in Olympiad Geometry. USA: XYZ Press, 2016, pp 149-161.
  • Lozanovski, S., A Beautiful Journey Through Olympiad Geometry. Version 1.4. 2020, pp 156-158.
  • Johnson, R., Advanced Euclidean Geometry. New York: Dover, 2007, pp 200-203.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral II: Introducción y método exhaustivo

Por Moisés Morales Déciga

Introducción

Este curso es la continuación de la materia Cálculo Diferencial e Integral I. En el primer curso de cálculo hablamos del cálculo diferencial. Nuestro principal objeto matemático fue la derivada y cómo se puede interpretar como la razón de cambio del objeto de análisis: la tangente de una curva, la velocidad y aceleración de una partícula, la variación de un objeto en su trayectoria, etc.

En este siguiente curso hablaremos de temas relacionados con el cálculo integral. Hablaremos un poco de sus orígenes, de los principales objetos matemáticos que estudia, de varios aspectos fundamentales de su teoría y de sus aplicaciones. El objetivo principal de esta rama matemática es el estudio de las integrales y las anti-derivadas. Una motivación importante es que ellas son una herramienta para la solución de problemas de cálculo de áreas y de volúmenes.

Así, el objeto matemático estelar del curso será la integral y la motivaremos mediante su gran utilidad para el cálculo de áreas. Sin embargo, esto no será lo único que haremos. La definiremos formalmente, probaremos las muchas propiedades matemáticas que tiene y veremos numerosas aplicaciones no sólo al cálculo de integrales, sino también a la construcción de otros objetos matemáticos fundamentales como la función exponencial.

Es muy probable que ya cuentes con una buena noción de área. En cursos de primaria, secundaria y bachillerato se explica un poco de esto y se dan fórmulas para calcular áreas. Sin embargo, estas fórmulas no salen de la nada. Pueden ser construidas a partir de nociones más básicas y por distintos métodos. Uno de ellos es la integración. Hasta que hagamos más precisiones formales, puedes aprovechar la intuición que ya tienes sobre las áreas y pensar en ellas intuitivamente como una magnitud que «mide» qué tan grande es una región contenida dentro de ciertos límites y cuyas unidades están «al cuadrado». Esto te ayudará a tener en qué cimentar tu intuición para cuando demos una definición más formal.

Algunas notas históricas

Históricamente, se han encontrado casos de utilización de de herramientas de cálculo diferencial en trabajos antiguos, por ejemplo, los trabajos de Arquímedes. Pero fue hasta los siglos XVI y XVII donde se tuvo un desarrollo sistemático, atribuido a Isaac Newton y Gottfried Leibniz, quienes son considerados como los dos grandes pioneros y más grandes representantes del Cálculo. Sin embargo, no fueron los únicos aportadores a éste.

Otra persona importante, Isaac Barrow, quién sería el profesor de Newton, tenía una comprensión sobre la reciprocidad entre la derivación e integración. Este concepto es el punto de partida del cálculo desarrollado por Newton y Leibnitz. Es primordial pues da pie a la introducción y demostración de los dos teoremas fundamentales del cálculo.

Método exhaustivo

A modo de introducción, platicaremos en esta entrada sobre el método exhaustivo. Es un método matemático que utiliza la geometría para aproximar algún resultado o aproximar a la solución un problema que tengamos. La característica que tiene el método es que, a la vez que aumenta el cálculo o las repeticiones, aumenta el grado de precisión de nuestra aproximación con respecto al resultado que queremos.

Arquímides desarrolló una de las aplicaciones de este método para el cálculo de áreas planas. Eudoxo también trabajó con este método, sólo que su objetivo era calcular el volumen de las pirámides de Egipto. En cierto sentido, también ya usamos este método cuando hablamos de la derivada de una función. Para pensar en la tangente en un punto $P$ a la gráfica de una función, la intuición (y de hecho, en cierto sentido la definición formal) consistió en tomar rectas secantes que pasaran por $P$ y otro punto $Q$ en la gráfica. Conforme $Q$ se acercaba a $P$ nos aproximábamos más y más a la tangente y, si cierto límite existía, justo esa era la definición de tangente.

Para ejemplificar nuevamente el método exhaustivo, veremos cómo encontrar de manera un poco informal el el área de un círculo. Sea $C$ un círculo y sea $M\geq 3$ un número natural. Tomemos $P_M$ un polígono regular de $M$ lados inscrito al círculo $C$ y $Q_M$ un polígono de $M$ lados circunscrito al círculo $C$. Para que dichos polígonos queden bien definidos, podemos pedir además que su lado inferior sea horizontal. Por ejemplo, en la figura a continuación se muestra el caso $M = 5$.

Notemos que los polígonos que definimos tienen dos áreas: una que incluye al área del círculo y otra que está incluida en el círculo.

Para cada valor de $M$ tenemos dos polígonos. De este modo, estamos generando dos sucesiones de polígonos: la de polígonos inscritos $\{P_M\}_{M\geq 3}$ y la de polígonos circunscritos $\{Q_M\}_{M\geq 3}$. Notemos que el área cada uno de los polígonos inscritos $P_M$ queda acotada superiormente por el área de cada uno de los polígonos $Q_M$; a su vez, el área de cada uno de los polígonos circunscritos $Q_M$ queda acotada inferiormente por el área de cada uno de los polígonos $P_M$. Además, no es muy difícil convencerse de que el área de los polígonos inscritos crece conforme $M$ aumenta y, en contraparte, el área de los circunscritos decrece conforme $M$ aumenta. Recordando del primer curso de cálculo lo que sabemos sobre supremos, ínfimos y sobre sucesiones monótonas y acotadas, tendríamos entonces que los siguientes dos límites existen:

\begin{align*}
p&=\lim_{M\to \infty} \text{área}(P_M)=\sup_{M\geq 3} \text{área}(P_M)\\
q&=\lim_{M\to \infty} \text{área}(Q_M)=\inf_{M\geq 3} \text{área}(Q_M).
\end{align*}

Además, $p\leq q$. De hecho, si el área del círculo $C$ que nos interesa es $c$, entonces por lo que mencionamos arriba tendríamos que $p \leq c \leq q$. Nuestra intuición nos dice que cuando la $M$ aumenta, generamos un polígono con más lados que van acercándose a la circunferencia, y que en el límite debemos obtener el área de la circunferencia. Por lo tanto, esperaríamos que $p=c=q$.

¿Qué sería suficiente para respaldar esta intuición? ¿Bastaría que calculáramos explícitamente $\lim_{M\to \infty} \text{área}(P_M)$ y $\lim_{M\to \infty} \text{área}(Q_M)$ (por ejemplo, dividiendo los polígonos en triángulos para encontrar una fórmula explícita) y que viéramos que son iguales? Esto seguro aumentaría mucho la confianza en nuestro procedimiento. Pero, ¿qué tal que aproximamos al círculo con otros polígonos que no son regulares? ¿nos dará lo mismo? Nuestra definición formal de área ayudará a resolver estas dudas.

En resumen, el método iterativo nos permite aproximar el área del círculo, encerrándolo entre 2 polígonos, de los cuales sabemos calcular el área mediante triángulos. Intuitivamente, mientras más fraccionemos los polígonos, la aproximación del área del círculo será mejor. Esta idea de «encerrar» el área que nos interesa entre dos áreas que sepamos (o acordemos) cómo calcular será clave cuando definamos la integral definida.

Más adelante…

En esta entrada hablamos brevemente sobre la conexión de este curso de cálculo con el anterior. Dimos unas pocas notas históricas e introducimos la idea del método exhaustivo. En la siguiente entrada comenzaremos a formalizar estas ideas para el cálculo de áreas entre la gráfica de una función y el eje $x$.

Tarea moral

  1. Con las herramientas de geometría que has adquirido en la educación básica, intenta completar el ejemplo que comenzamos sobre el método exhaustivo. No te preocupes mucho por la formalización de límites, funciones trigonométricas, fórmulas de áreas de triángulos, etc. Es parte de lo que haremos en este curso. Entre otras cosas, tendrás que:
    • Calcular explícitamente la distancia del centro de un círculo $C$ de radio $r$ a un vértice (y a un lado) del polígono inscrito (y circunscrito) en $C$ que es regular y de $n$ lados.
    • Encontrar el área de $P_n$ y $Q_n$.
    • Encontrar los límites de estas áreas conforme $n$ tiende a infinito.
  2. Investiga más sobre los orígenes del cálculo integral.
  3. Averigua sobre el método exhaustivo y otros usos históricos que se le ha dado.
  4. El método exhaustivo puede ser algo peligroso si se usa apresuradamente. Por ejemplo, toma un cuadrado de lado $1$ y divídelo en cuadrados pequeños para formar un tablero de $n\times n$. Mediante un camino $C_n$ que sube y va a la derecha alternadamente, se puede comenzar en el vértice inferior izquierdo y llegar al vértice superior derecho. Intuitivamente, cuando $n$ tiende a infinito, este camino pareciera converger a la diagonal del cuadrado, la cual tiene longitud $\sqrt{2}$. Sin embargo, la longitud de cada camino $C_n$ siempre es $2$ pues en total avanza una unidad a la derecha y una hacia arriba. ¿Por qué la longitud de $C_n$ no tiende a $\sqrt{2}$ si aparentemente $C_n$ tiende a la diagonal del cuadrado?
  5. Realiza un repaso de los teoremas principales de Cálculo Diferencial e Integral I. ¡Te serán sumamente útiles para este curso! En particular, sería bueno que revises los siguientes temas:
    • Definición y propiedades de límites.
    • Definición y propiedades de funciones contínuas.
    • Definición y propiedades de derivadas.
    • Reglas de derivación.
    • El teorema del valor intermedio.
    • El teorema del valor medio.

Entradas relacionadas