Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Cálculo Diferencial e Integral II: Motivación de la integral y sumas de Riemann

Por Moisés Morales Déciga

Introducción

La principal motivación y aplicación de la integral es el cálculo de áreas. En esta entrada hablaremos de cómo aproximar áreas mediante sumas de Riemann. Para introducir este concepto, recordemos que en la entrada pasada se ilustró el método de exhaución. Vimos que es un acercamiento geométrico al cálculo del área del círculo mediante polígonos inscritos o circunscritos. Intuitivamente, conforme aumentamos el número de lados de estos polígonos, el área generada por ellos se aproximaba cada vez mejor al área del círculo.

Sin embargo, en las aplicaciones no sólo queremos calcular el área de círculos, sino de muchos tipos diferentes de figuras. Idealmente, nos gustaría poder calcular el área de muchas figuras u objetos, siempre y cuando éstos se puedan describir.

La forma de describirlos en este curso será mediante funciones. Por lo tanto, buscaremos encontrar una función cuya gráfica se parezca al contorno del objeto (o bien cuyo contorno pueda ser descrito por más de una función). Esta gráfica será una curva que define una región. Hablaremos de cómo definir el área de esta región de manera que coincida con nuestra intuición.

En esta entrada empezaremos con algunas definiciones generales e ideas de aproximación basadas en el método exhaustivo.

Área bajo la curva

El origen analítico de la integral se origina al asociar áreas con funciones.

Tomemos dos reales $a$ y $b$ con $a<b$. Tomemos una función $f:\mathbb{R}\to \mathbb{R}$ que, para fijar las ideas correctamente por ahora, supondremos que es positiva en todo el intervalo $[a,b]$. Supongamos que delimitamos una región en el plano cartesiano de la siguiente manera.

  • Por la izquierda con la línea vertical $x = a$.
  • Por la derecha con la línea vertical $x=b$.
  • Por abajo con el eje $x$.
  • Por arriba con la gráfica de cierta función $f(x)$.

Entonces, la magnitud del espacio que se encuentra acotado por estas curvas se le conoce como el «área bajo la curva» o más específicamente, el «área bajo la curva de $f(x)$ en el intervalo $[a,b]$.» Usaremos la notación $F_a^b$ para referirnos a esta magnitud. En el transcurso de toda esta entrada supondremos que tenemos un ejemplo «bien portado» en el que sí tiene sentido hablar de dicha área $F_a^b$ (recuerda que las funciones pueden tener comportamientos muy raros). Será importante definir qué quiere decir exactamente «bien portado», pero eso lo haremos un poco más adelante.

Ejemplo. En la siguiente figura, la curva verde es la gráfica de la función $f(x)$. La región que nos interesa está bajo esta gráfica, entre las verticales en $a$ y $b$, y sobre el eje $x$. Su magnitud $F_{a}^b$ es el área bajo la curva que nos interesa.

$\triangle$

Particiones, celdas y rectángulos

Una vez definida la región a la que se le va a calcular el área, buscaremos hacer una aproximación a esa área mediante la suma de áreas de rectángulos. Estos pueden ser inscritos (que quedan por dentro o por debajo de la función) o circunscritos (que quedan por afuera o por encima de la función). La razón por la cual usamos rectángulos es que son figuras cuya área se calcula de manera muy sencilla: el área $A$ es su base $b$ por su altura $a$.

Para definir los rectángulos que usaremos para aproximar el área, será necesario hacer una partición $P$ del intervalo $[a,b]$ del eje $x$ en una cierta cantidad de partes (que llamaremos celdas), no necesariamente todas ellas de la misma longitud. Estas partes serán las bases de los rectángulos que usaremos. Comencemos a formalizar estos conceptos.

Definición. Sean $a$ y $b$ números reales con $a\leq b$. Sea $f:\mathbb{R}\to \mathbb{R}$ una función. Sea $n\geq 0$ un entero. Una partición (en $n$ partes) del intervalo $[a,b]$ será una elección de números reales $x_0\leq x_1 \leq \ldots\leq x_n$ con $x_0=a$ y $x_n=b$. A cada subintervalo de la forma $[x_{i-1},x_i]$ para $1\leq i\leq n$ le llamaremos una celda de la partición.

A una partición la escribiremos usualmente poniendo sus elementos en orden, de la siguiente manera:

$$P =\lbrace{x_0, x_1, x_2,…, x_{n-1}, x_n}\rbrace.$$

Definición. Dada la celda $[x_{i-1},x_i]$ para $1\leq i\leq n$ de una partición, su longitud será $x_i-x_{i-1}$ y la denotaremos por $\Delta x_i$. Así,

$$\Delta x_i= x_i \ – \ x_{i-1}, \quad (i=1,2,…,n).$$

Definición. Si las celdas de una partición tienen todas la misma longitud, diremos que es una partición homogénea. Si no, es decir, si hay celdas de longitudes distintas, diremos que es una partición no homogénea.

Al tomar una partición del intervalo $[a,b]$, podemos dibujar líneas verticales en cada punto de la partición. El área $F_a^b$ que nos interesa queda dividida en regiones o franjas como en la siguiente figura.

La función es en verde, la partición está en azul.

Intuición de las sumas superiores e inferiores

El área de cada una de las franjas que hicimos la podemos aproximar (al estilo del método exhaustivo) mediante rectángulos. Sin embargo, dado que la gráfica de la función no es exactamente horizontal, la suma de ciertos rectángulos que usemos para aproximar el área podría no ser exactamente el área bajo la curva. ¿Qué podríamos hacer para tener un poco más de control sobre cómo es el área de cada rectángulo con respecto al área de cada franja? Podemos usar como base las longitudes de las celdas y como altura podemos usar el máximo o mínimo de la función $f(x)$ en cada intervalo. Esto es un caso particular de lo que más adelante llamaremos sumas de Riemann.

La siguiente figura muestra rectángulos desde el eje $x$ hasta la altura morada (que es el mínimo de la función en cada celda) y rectángulos desde el eje $x$ hasta la altura roja (que es el máximo de la función en cada celda).

Cuando tomamos los mínimos en cada celda y consideramos el área de los rectángulos morados, la suma de cada rectángulo será menor que cada franja, y por lo tanto la suma total de áreas de estos rectángulos será menor que el área bajo la curva que queremos.

Por otro lado, si tomamos los máximos de cada celda, tenemos los rectángulos rojos, que análogamente a lo dicho arriba, tienen suma de área total mayor al área bajo la curva buscada. Intuitivamente, hemos acotado el área buscada entre dos áreas que sí sabemos calcular.

Formalización de sumas superiores e inferiores

Introduciremos un poco de notación para hablar de sumas superiores e inferiores. Primero, le queremos dar un símbolo al ínfimo y al supremo de las evaluaciones de la función que nos interesa en cada celda.

Definición. Dada una partición $P=\{x_0,\ldots,x_n\}$ del intervalo $[a,b]$ y una función acotada $f:\mathbb{R}\to \mathbb{R}$:

  • Al ínfimo de los valores de $f$ en la parte $[x_{i-1},x_i]$ le llamaremos $m_i$. En símbolos: $$m_i = \inf \lbrace {f(x) | x_{i-1} \leq x \leq x_i} \rbrace, \quad i = 1,…,n .$$
  • Al supremo de los valores de $f$ en la parte $[x_{i-1},x_i]$ le llamaremos $M_i$. En símbolos: $$M_i = \sup \lbrace {f(x) | x_{i-1} \leq x \leq x_i} \rbrace, \quad i = 1,…,n .$$

Te recomendamos recordar la teoría de ínfimos y supremos de Cálculo I, que puedes consultar en el siguiente enlace: Supremo e ínfimo. Como nota, observa que en este punto estamos suponiendo muy poco de $f$, simplemente que es acotada.

La siguiente definición formaliza la idea de «aproximar el área por abajo».

Definición. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sea $P=\{x_0,\ldots,x_n\}$ una partición de $[a,b]$. Diremos que la suma inferior $\underline{S}$ correspondiente a la función $f$ en la partición $P$ del intervalo $[a,b]$ es el número:

\begin{align*}
\underline{S}(f,P) &= \sum_{i=1}^{n} m_i\Delta x_i,
\end{align*}

donde $m_i$ es el ínfimo de los valores de $f$ la celda $[x_{i-1},x_i]$ y $\Delta x_i $ es la longitud de dicha celda. La expresión anterior se desarrolla explícitamente entonces como

$$m_1(x_1 – x_0) + m_2(x_2 – x_1) + . . . + m_n(x_n – x_{n-1}).$$

Esto es precisamente la suma de áreas de varios rectángulos que, por tomar la altura como el ínfimo en cada celda, quedan todos ellos por debajo de la gráfica de la función, como en la siguiente figura.

Suma Inferior.

La siguiente definición formaliza la idea de «aproximar el área por arriba».

Definición. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sea $P=\{x_0,\ldots,x_n\}$ una partición de $[a,b]$. Diremos que la suma superior $\overline{S}$ correspondiente a la función $f$ en la partición $P$ del intervalo $[a,b]$ es el número:

\begin{align*}
\overline{S}(f,P) &= \sum_{i=1}^{n} m_i\Delta x_i,
\end{align*}

donde $M_i$ es el supremo de los valores de $f$ la celda $[x_{i-1},x_i]$ y $\Delta x_i $ es la longitud de dicha celda. La expresión anterior se desarrolla explícitamente entonces como

$$M_1(x_1 – x_0) + M_2(x_2 – x_1) + . . . + M_n(x_n – x_{n-1}).$$

Ahora tenemos la suma de áreas de varios rectángulos que quedan por encima de la gráfica de la función, como se muestra a continuación:

Suma Superior.

Si regresamos a pensar que la función $f$ es «bien portada» como para que el área $F_a^b$ tenga sentido, entonces las sumas superiores e inferiores nos ayudan a acotar dicha área. En efecto, notemos que para cualquier $i=1,\ldots,n$, tenemos que

$$m_i \leq f(x) \leq M_, \quad \text{para } x\in [x_{i-1},x_i].$$

De aquí, el área en cada franja queda acotada entre el área de dos rectángulos y sumando en todas las celdas tendríamos que

$$ \underline{S} \leq F_a^b \leq \overline{S} \quad .$$

Es decir, la suma inferior es menor o igual que el valor de la integral y la suma superior es mayor o igual que la integral. Un poco más adelante formalizaremos esto, cuándo hablemos apropiadamente de las funciones «bien portadas».

Refinamientos de una partición

Si hacemos una partición con más puntos, habrá más celdas dentro del intervalo y por lo tanto, la cantidad de rectángulos aumenta. Intuitivamente, nuestras aproximaciones deberían acercarse más al área buscada. En efecto, más adelante veremos que esto es así. Por ello, es importante introducir la siguiente definición formal.

Definición. Sea $P$ una partición del intervalo $[a,b]$. Un refinamiento de $P$ es otra partición $Q$ de $[a,b]$ tal que $P \subseteq Q$.

Al momento de pedir que la partición $P$ esté contenida en $Q$, aseguramos que todos los puntos de la partición generados en $P$ se encuentran en $Q$, y por lo tanto que cada celdas de $Q$ sean subconjunto de alguna celda de $P$.

Intuitivamente, las aproximaciones que hagamos con la partición $Q$ deben de ser entonces mejores que las que hagamos con la partición $P$. Si cierta suma de áreas de rectángulos hechas con $Q$ es $S_Q$ y esa suma de áres hechas con $P$ es $S_P$ suena razonable que:

$$ \left|F_a^b – S_Q\right| \leq \left|F_a^b – S_P \right|.$$

Sin embargo, nos estamos adelantando un poco. Lo que sí podemos mostrar formalmente por ahora es el siguiente resultado auxiliar.

Lema. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Si $P$ y $Q$ son particiones de $[a,b]$ y $Q$ es refinamiento de $P$, entonces $$\underline{S} (f,P) \leq \underline{S} (f,Q) \quad \text{y} \quad \overline{S} (f,Q) \leq \overline{S} (f,P)$$

Demostración. Por definición, $P$ y $Q$ son subconjuntos finitos de $[a,b]$, y $P\subseteq Q$, así que se puede llegar de $P$ a $Q$ agregando elementos de $[a,b]$ uno por uno. Bastará entonces ver que las desigualdades de arriba se cumplen cuando $Q$ tiene exactamente un elemento más que $P$, digamos $Q=P\cup \{y\}$. Tomemos $P=\{x_0,\ldots,x_n\}$. El real $y$ cae dentro de alguna celda de $P$, digamos en la celda $[x_{j-1},x_j]$.

Estudiemos qué suecede con las sumas inferiores. La suma inferior con respecto a $P$ es \begin{align*}
\underline{S}_P &= \sum_{i=1}^{n} m_i\Delta x_i,
\end{align*}

Para la suma inferior con respecto a $Q$, la celda $[x_{j-1},x_j]$ queda partida en dos celdas $[x_{j-1},y]$ y $[y,x_j]$. Los ínfimos respectivos $r$ y $s$ de la función $f$ en estas dos celdas cumplen $r\geq m_j$ y $s\geq m_j$, pues estamos tomando el ínfimo sobre conjuntos más chicos. Así, la suma inferior con respecto a $Q$ cumple:

\begin{align*}
\underline{S}(f,Q) &= \sum_{i=1}^{j-1} m_i\Delta x_i + r (y-x_{j-1}) + s (x_j-y)+ \sum_{i=j+1}^{n} m_i\Delta x_i\\
&\leq \sum_{i=1}^{j-1} m_i\Delta x_i + m_j (y-x_{j-1}) + m_j (x_j-y)+ \sum_{i=j+1}^{n} m_i\Delta x_i\\
&=\sum_{i=1}^{j-1} m_i\Delta x_i + m_j (x_j-x_{j-1})+ \sum_{i=j+1}^{n} m_i\Delta x_i\\
&= \sum_{i=1}^{n} m_i\Delta x_i\\
&= \underline{S}(f,P).
\end{align*}

Esto termina la demostración para las sumas inferiores. El caso de las sumas superiores es análogo.

$\square$

En palabras, el lema anterior dice que la suma inferior con la partición $P$ es menor que la suma inferior con la partición $Q$ y la suma superior con la partición $P$ es mayor que la suma superior con la partición $Q$.

Otra aplicación muy importante de los refinamientos es que nos ayudan a demostrar que cualquier suma superior siempre es mayor que cualquier suma inferior, sin importar la partición que tomemos en una y en otra.

Proposición. Sean $f:\mathbb{R}\to \mathbb{R}$ una funcion acotada y $a\leq b$ reales. Sean $P$ y $Q$ particiones de $[a,b]$. Entonces,

$$\underline{S}(f,P) \leq \overline{S}(f,Q).$$

La idea de la demostración es sencilla. Para cualesquiera dos particiones $P$ y $Q$ podemos encontrar una partición $R$ que es un refinamiento de ambas (¿cómo la encontrarías?). Ya teniendo dicha partición, tenemos la cadena de desigualdades:

$$\underline{S} (f,P) \leq \underline{S} (f,R) \leq \overline{S} (f,R) \leq \overline{S} (f,Q).$$

Dar la partición $R$ de manera explícita y los detalles de cómo justificar la cadena de desigualdades anterior queda como parte de los ejercicios de esta entrada.

Sumas de Riemann y regla del punto medio

Ya vimos cómo hacer aproximaciones con rectángulos inferiores y cómo hacer aproximaciones con rectángulos superiores. Pero, como te imaginarás, los rectángulos podríamos tomarlos bajo otro criterio. Por ejemplo, podemos hacer rectángulos tomando un punto cualquiera $\xi_i$ dentro de cada celda $[x_{i-1},x_i]$ de una partición.

Ahora la aproximación quedaría de la siguiente manera:

\begin{align*}
F_n &= \sum_{i=1}^n f(\xi_i) \Delta x_i\\
&= \sum_{i=1}^n f(\xi_i) (x_i-x_{i-1})\\
&=f(\xi_1)(x_1 \ – \ x_0) + f(\xi_2)(x_2 \ – \ x_1) + . . . + f(\xi_n)(x_n \ – \ x_{n-1})
\end{align*}

A las expresiones de este estilo se les conoce como sumas de Riemann.

Una manera de dar de manera explícita algunos valores $\xi_i$ es tomando los puntos medios en cada celda, como en la siguiente figura.

Este método nos dará otra manera de aproximar el área que buscamos. Si de nuevo refinamos la partición y usamos los puntos medios, tendremos otro procedimiento exhaustivo para aproximar el área. Pero igual podríamos tomar otra, y otra, y otra manera de aproximar el área. ¿Será que todas estas aproximaciones nos llevan a la misma área? Es parte de lo que tendremos que entender formalmente más adelante. Sin embargo, por ahora haremos algunos ejemplos concretos de las ideas que hemos discutido hasta ahora.

Ejemplo de sumas de Riemann superiores, inferiores y de punto medio

Ejemplo. Tomamos la función $f:[2,8]\to \mathbb{R}$ dada por $f(x)=x+2$. Tomemos la partición homogénea $P=\{2,3,4,5,6,7,8\}$, en donde cada celda tiene longitud $1$. Encontremos la suma superior, la inferior y la que se obtiene mediante la regla del punto medio.

Partición con n=6

Para la suma inferior, tenemos el siguiente conjunto de ínfimos (en este caso, mínimos) de las celdas generadas:

$$m= \lbrace {4, 5, 6, 7, 8, 9}\rbrace .$$

De este modo, la suma inferior es

$$\underline{S}(f,P) = 4\cdot(3-2) + 5 \cdot (4-3) + 6 \cdot (5-4) + 7 \cdot (6-5) + 8 \cdot (7-6) + 9 \cdot (8-7) = 39.$$

En el caso de la suma superior, los supremos (en este caso, máximos) son

$$M= \lbrace {5, 6, 7, 8, 9, 10}\rbrace.$$

Desarrollemos la suma superior:

$$\overline{S}(f,P) = 5 \cdot (3-2) + 6 \cdot (4-3) + 7 \cdot (5-4) + 8 \cdot (6-5) + 9 \cdot (7-6) + 10 \cdot (8-7) = 45.$$

Finalmente, para la regla del punto medio, tenemos que los valores de la función evaluada en el punto medio de cada intervalo son:

$$\xi= \lbrace {4.5, 5.5, 6.5, 7.5, 8.5, 9.5}\rbrace .$$

Desarrollando la suma, obtenemos

$$S= 4.5 \cdot (3-2) + 5.5 \cdot (4-3) + 6.5 \cdot (5-4) + 7.5 \cdot (6-5) + 8.5 \cdot (7-6) + 9.5 \cdot (8-7) = 42.$$

$\triangle$

Más adelante…

En esta entrada empezamos a motivar cómo el área bajo una curva puede ser aproximada mediante rectángulos. Sin embargo, supusimos que nuestra curva estaba dada por una función «bien portada» la cuál sí hace un área apropiada. Esto no necesariamente pasará siempre, pues si la función tiene una gráfica muy complicada, entonces no podremos hablar apropiadamente del área debajo de ella.

De hecho, lo que hicimos en esta entrada nos ayudará a dar formalidad a exactamente qué quiere decir que la función sea «bien portada». La idea de particiones nos servirá para definir el área justo cuando cualquier proceso de aproximar «suficientemente bien» nos lleve al mismo límite. Tomaremos entonces la intuición desarrollada de las sumas inferiores, superiores e incluso las de la regla del punto medio, para introducir la definición de integral definida de la siguiente entrada.

Tarea moral

  1. Aproxima el área bajo la curva de las siguientes funciones en el intervalo dado, usando una partición homogénea con cinco celdas en el intervalo dado. En cada caso, realiza la cuenta con las sumas inferiores, las sumas superiores y con la regla del punto medio.
    • $f(x) = x^2$ en el intervalo $[0,1]$.
    • $f(x)=2x-3$ en el intervalo $[0,2]$.
    • $f(x)=x e^x$ en el intervalo $[2,3]$ (puedes usar calculadora para aproximar las respuestas)
  2. En esta entrada sólo hemos hablado de cómo encontrar el área entre la gráfica de una función positiva y el eje $x$ (dados dos límites verticales). ¿Qué tendríamos que hacer si la función es negativa?
  3. Ahora imaginemos que queremos encontrar el área que se encuentra entre la gráfica de dos funciones. Por ejemplo, imagina que queremos aproximar con las ideas de esta entrada el área entre las gráficas de las siguientes dos funciones, desde la línea vertical $x=0$ hasta el primer punto de intersección que tienen.

$f(x)= sin(x^3) + 2x$

$g(x)=cos(x^2)+3x^2-2$

Puedes ver estas funciones en la figura. Para realizar la aproximación, haz lo siguiente.

  • Encuntra el punto $c$ tal que $f(c)=g(c)$, es decir, en qué ubicación horizontal se cruzan las gráficas.
  • Haz una partición homogénea en 10 partes del intervalo $[0,c]$. ¿Qué longitud tiene cada celda?
  • Crea rectángulos usando como altura la distancia máxima entre las curvas en cada celda. ¿Cuánto queda la suma de áreas de rectángulos? ¿Y si usas la distancia mínima entre las curvas en cada celda?
  1. En el texto se da la demostración de que en un refinamiento, la suma inferior se vuelve más grande. Completa los detalles para ver el resultado análogo de que en un refinamiento la suma superior se vuelve más pequeña. ¿Qué propiedades del supremo estás utilizando?
  2. Completa los detalles de la proposición de que cualquier suma superior es mayor a cualquier suma inferior, aunque estemos hablando de particiones diferentes.
  3. La gráfica de la función $f(x)=\sqrt{1-x^2}$ es un semicírculo que va de $-1$ a $1$. Usa una partición homogénea en $10$ celdas del intervalo $[-1,1]$ y la regla del punto medio para dar una aproximación al área de este semicírculo. Entonces, ¿cuál sería una aproximación al área del círculo de radio $1$? De aquí, ¿cuál sería una aproximación para $\pi$?

Entradas relacionadas

Cálculo Diferencial e Integral I: Diferenciales

Por Karen González Cárdenas

Introducción

Vimos que una forma de expresar a la derivada de una función $y=f(x)$ es utilizando la notación:
$$\dfrac{dy}{dx}=f'(x)$$

Recordemos que $ \dfrac{dy}{dx}$ es un «símbolo» que utilizamos para denotar el límite:
$$\lim_{\varDelta x \to 0}\frac{\varDelta y}{\varDelta x}.$$
Por lo tanto, no consideremos a $\dfrac{dy}{dx}$ como una fracción donde su numerador es $dy$ y su denominador $dx$. No obstante, en diversos problemas de aplicaciones del Cálculo es necesario dar interpretaciones separadas a $dx$ y $dy$. En esta entrada, veremos cuál es la interpretación de estos nuevos «símbolos» y cómo su aplicación nos resulta útil.

Definición de la diferencial de una función

Definición (Diferencial): Si tenemos una función $f$ derivable. Definimos a la diferencial de $f$ como el producto de su derivada por la diferencial de la variable independiente $x$.
$$df(x)=f'(x)dx.$$

Para simplificar un poco la notación consideremos $y=f(x)$ y nos quedamos con:
$$dy=f'(x)dx.$$

A continuación, veremos algunos ejemplos donde se nos pide hallar la diferencial de una función haciendo uso de la definición revisada.

Algunos ejemplos de funciones y su diferencial

Obtén la diferencial de las siguientes funciones:

  1. $$y=x^{3}-3x$$
  2. $$\rho = \sin(a\theta)$$
  3. $$t=\frac{x}{a}+\frac{a}{x}$$
  4. $$s=\theta cos(\theta)$$
  5. $$y=\log(\sin(x))$$
  6. $$\gamma = e^{t}cos(\pi t)$$

Solución: Aplicaremos la definición siguiente en cada uno de los incisos
$$dy=f'(x)dx.$$

  1. Para la función $y=x^{3}-3x$ tenemos:
    \begin{align*}
    dy&=(x^{3}-3x)’ dx\\
    &=(3x^{2}-3)dx
    \end{align*}
    Por lo que la diferencial es $dy=(3x^{2}-3)dx$.
  2. Ahora para la función $\rho =\sin(a\theta)$:
    \begin{align*}
    d \rho &= (\sin(a\theta))’ d\theta\\
    &=a \cos(a\theta) d\theta
    \end{align*}
    Concluimos que $d \rho =a \cos(a\theta) d\theta$.
  3. Aplicando la definición con $t=\frac{x}{a}+\frac{a}{x}$:
    \begin{align*}
    dt &=\left(\frac{x}{a}+\frac{a}{x}\right)’ dx\\
    &= \left(\frac{x}{a}+ax^{-1}\right)’ dx\\
    &=\left(\frac{1}{a}-ax^{-2}\right) dx\\
    &= \left(\frac{1}{a}-\frac{a}{x^{2}}\right) dx
    \end{align*}
    Por lo tanto $dt = \left(\frac{1}{a}-\frac{a}{x^{2}}\right) dx$.
  4. Del mismo modo para $s=\theta cos(\theta)$:
    \begin{align*}
    ds&= (\theta \cos(\theta))’ d\theta\\
    &= (\cos(\theta)-\theta \sin(\theta))d\theta
    \end{align*}
    Así $ds = (\cos(\theta)-\theta \sin(\theta))d\theta$.
  5. Y si consideramos $y=\log(\sin(x))$:
    \begin{align*}
    dy &= (\log(\sin(x)))’dx\\
    &=\frac{1}{\sin(x)}\cdot \cos(x) dx\\
    &=\frac{\cos(x)}{\sin(x)} dx\\
    &=ctg(x) dx
    \end{align*}
    Por lo que $dy = ctg(x) dx$.
  6. Finalmente para $\gamma = e^{t}cos(\pi t)$:
    \begin{align*}
    d\gamma &= (e^{t}\cos(\pi t))’ dt\\
    &= (e^{t}\cos(\pi t)-e^{t}\sin(\pi t))dt
    \end{align*}
    Concluyendo $d\gamma =(e^{t}\cos(\pi t)-e^{t}\sin(\pi t))dt$.

A continuación, veremos una interpretación geométrica de la diferencial que más adelante nos permitirá revisar algunos problemas de aplicación.

Una interpretación de la diferencial

Tomemos la función $y=f(x)$ y al punto $A$ sobre la gráfica de $f$. Consideremos a $f'(x)$ como el valor de la derivada en $A$ y tracemos la recta tangente en dicho punto.

Nombremos al segmento $AB$ como $dx$. Recordemos que la definición de la diferencial es:
$$dy=f'(x)dx.$$

Por lo visto en la primera entrada de esta unidad sabemos que:
$$f'(x)=\tan(\alpha).$$

Además, aplicando la definición de la función tangente apoyándonos en el gráfico siguiente, se tiene:
\begin{align*}
\tan(\alpha)&= \frac{co}{ca}\\
&=\frac{CB}{AB} \tag{*}
\end{align*}

Cuando sustituimos $(*)$ y $dx=AB$ obtenemos lo siguiente:
\begin{align*}
dy&= \left(\frac{CB}{AB}\right)(AB)\\
&= \left(\frac{CB}{\cancel{AB}}\right)(\cancel{AB})\\
&=CB
\end{align*}
Observamos que $dy$ nos brinda una aproximación al incremento $\varDelta y$ que está dado por el segmento $A_1B$, cuando $dx$ es pequeña.

Es decir:
$$dy \approx \varDelta y.$$

Utilizaremos esta cualidad cuando necesitemos hallar un valor aproximado del incremento de una función. En las siguientes secciones, revisaremos un par de problemas donde haremos uso de la diferencial para resolverlos.

Problema 1

Obtener el incremento del área de un cuadrado de lado $8m$ al aumentar el lado $5mm$.
Para resolver este problema veremos dos métodos de solución, en el primero no usaremos la diferencial y en el segundo si la utilizaremos.

Solución sin usar la diferencial

Sabemos del problema que:
\begin{align*}
I&= 8m & \varDelta l &=5mm\\
A&=64 m^{2} & l_0&= 8.005m
\end{align*}
Por lo que el área del nuevo cuadrado con el lado $l_0$ sería:
\begin{align*}
A_0&= (8.005 m)^{2}\\
&=64.080025 m^{2}
\end{align*}

Obtenemos el incremento del área $\varDelta A$ haciendo la resta del área original con el área del nuevo cuadrado.
\begin{align*}
\varDelta A &= 64.080025m^{2} -64m^{2}\\
&=0.080025m^{2}
\end{align*}

$$\therefore \varDelta A=0.080025 m^{2}.$$

Solución utilizando la diferencial

Si tomamos a $l$ como el lado del cuadrado tenemos que su área es:
$$A=l^{2}.$$
Como sabemos que $dA\approx \varDelta A$ usando la definición para la diferencial de $a$ tendríamos:
\begin{align*}
dA&= 2l dl\\
&=2(8)(0.005)\\
&= 0.08
\end{align*}
Por lo tanto tenemos que el incremento obtenido es:
$$\varDelta A \approx 0.08m^{2}.$$

Notamos que es una buena aproximación al incremento obtenido en el método anterior. Sin embargo, al haber utilizado la diferencial, el problema nos resultó un poco más sencillo de resolver.

Problema 2

Si sabemos que $\sqrt{25}=5$, obtén una aproximación al valor $\sqrt{27}$.
Solución:
Consideraremos la función $y=\sqrt{x}$. Del problema podemos ver que el incremento de $x$ es:
$$\varDelta x = 27-25=2$$

Ahora obtengamos la diferencial de $y$:
$$dy=\frac{dy}{2\sqrt{x}} \quad \quad \quad (**)$$

Nosotros consideraremos a $x=25$ y como una aproximación al diferencial de $x$ al incremento $\varDelta x=2$. Entonces ocurre que al sustituir todo en $(**)$ tenemos:
\begin{align*}
dy&=\frac{2}{2\sqrt{25}}\\
&=\frac{2}{(2)(5)}\\
&=\frac{1}{5}\\
&=0.2
\end{align*}
Concluimos así que una aproximación al valor de $\sqrt{27}$ es:
\begin{align*}
\sqrt{27}&\approx 5+0.2\\
&\approx 5.2
\end{align*}
$$\therefore \sqrt{27}\approx 5.2$$
Si comparamos esta aproximación con el valor que nos brinda una calculadora $\sqrt{27}=5.1961$ considerando sólo cuatro decimales) podemos notar que es bastante similar.

En la siguiente sección encontrarás ejercicios que podrás realizar para aplicar lo estudiado en esta entrada.

Más adelante

¡Te felicitamos por concluir con el curso de Cálculo Diferencial e Integral I! Con este tema cerramos el temario. Esperamos que hayas disfrutado este viaje por el mundo del Cálculo. Te invitamos a continuar con tu estudio ahora con el curso de Cálculo Diferencial e Integral II que se encuentra disponible en la siguiente página.

Tarea moral

  • Demuestra usando la definición, las siguientes reglas para las diferenciales:
    • $$d(s+t)=ds + dt$$
    • Con $c$ una constante:
      $$d(cu)=c \cdot du$$
    • $$d(st)=s dt+ t ds$$
  • Hallar la diferencial de las siguientes funciones:
    • $y=\sqrt{1-4x}$
    • $t=\sin{2s}$
    • $u=\log{cv}$
  • Sabiendo que $\sqrt{16} =4$ utilizando la diferencial obtén una aproximación de $\sqrt{17}$.
  • Utilizando la diferencial da una aproximación del incremento del volumen de un cubo con $l=3m$ al aumentar el lado $0.002m$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral II: Definición de series y series infinitas

Por Miguel Ángel Rodríguez García

Introducción

En esta entrada veremos la definición de series y sumas parciales para conocer lo básico en este nuevo tema que con llevará a teoremas que nos dirán si una serie es divergente o convergente.

Cabe recalcar que para este tema se debe tener noción de sucesiones que se estudió en Cálculo Diferencial e Integral I. Comenzamos estudiando las sumas parciales que se definen como sigue.

Sumas parciales

Definición. Sea $\left \{ a_{n} \right \}$ una sucesión, definimos la nueva sucesión $S_{n}$ «la sucesión de la sumas parciales de $\left \{ a_{n} \right \}$» como:

$$S_{n}=a_{1}+a_{2}+….+a_{n}$$

Esta serie se denota comúnmente como:

$$S_{n}= a_{1}+a_{2}+….+a_{n} =\sum_{i=1}^{n}a_{i}$$

Donde $a_{i}$ es el término general de la sucesión y se va sumando desde el valor inferior $i=1$ hasta el valor $i=n$.

Veamos unos ejemplos:

  • Sea $\left \{ a_{n} \right \}$ una sucesión dada por $a_{n}=\frac{1}{n}$

En este caso tenemos que $a_{1}=\frac{1}{1}$, $a_{2}=\frac{1}{2}$ y $a_{3}=\frac{1}{3}$ entonces tenemos que la sucesión de sumas parciales hasta $n=3$ es:

$$S_{1}=\sum_{i=1}^{1}a_{i}=a_{1}=1, \space$$

$$S_{2}=\sum_{i=1}^{2}a_{i}=a_{1}+a_{2}=1+\frac{1}{2}=\frac{3}{2}, \space$$

$$S_{3}=\sum_{i=1}^{3}a_{i}=a_{1}+a_{2}+a_{3}=1+\frac{1}{2}+\frac{1}{3}=\frac{11}{6}$$

  • Sea $\left \{ a_{n} \right \}$ una sucesión dada por $a_{n}=(-1)^{n}$

Tenemos que las sumas parciales hasta $n=4$ son:

$$S_{1}=-1, \space$$

$$S_{2}=S_{1}+a_{2}=-1+1=0, \space$$

$$S_{3}=S_{2}+a_{3}=-1$$

$$S_{4}=S_{3}+a_{4}=0$$

A este tipo de series se les conoce como series oscilantes, ya que como vemos, las sumas parciales van oscilando sobre algunos valores.

  • Sea $a_{n}=\left ( \frac{1}{2} \right )^{n}$

Tenemos que:

$$S_{1}=\frac{1}{2},$$

$$S_{2}=S_{1}+a_{2}=\frac{1}{2}+\frac{1}{4}=\frac{3}{4},$$

$$S_{3}=S_{2}+a_{3}=\frac{7}{8}$$

$$S_{4}=S_{3}+a_{4}=\frac{15}{16}$$

Se puede afirmar que las sumas parciales de esta sucesión tienden al valor siguiente:

Afirmación: $$\sum_{i=1}^{n} \left ( \frac{1}{2} \right )^{n} = S_{n}=\frac{2^{n}-1}{2^{n}}=1-\left ( \frac{1}{2} \right )^{n} \tag{1}$$

Demostración:

Esta afirmación se demuestra por inducción, por lo que recordamos que demostrar por inducción consta de tres pasos siguientes:

$1)$ para $n=1$ tenemos que:

$$ \sum_{i=1}^{1} \left ( \frac{1}{2} \right )^{1} =S_{1}=\frac{2^{1}-1}{2^{1}}=1-\left ( \frac{1}{2} \right )^{1}=\frac{1}{2}$$

Por lo que para $n=1$ cumple.

$2)$ Supongamos valido para $n=k$ entonces:

$$ \sum_{i=1}^{k} \left ( \frac{1}{2} \right )^{k}=\frac{2^{k}-1}{2^{k}}=1-\left ( \frac{1}{2} \right )^{k}$$

$3)$ Demostremos para $n=k+1$, por lo que:

$$ \sum_{i=1}^{k+1} \left ( \frac{1}{2} \right )^{k+1} =S_{k+1}=S_{k}+a_{k+1}=\frac{2^{k}-1}{2^k}+\left ( \frac{1}{2} \right )^{k+1}=\frac{2^{k}-1}{2^{k}}+\frac{1}{2^{k+1}}$$

Multiplicamos por $\frac{2}{2}$ en la fracción de la izquierda, por lo que se tiene que:

$$ 1-\left ( \frac{1}{2} \right )^{k+1} =\frac{2\left ( 2^{k}-1 \right )}{2^{k+1}}+\frac{1}{2^{k+1}}=\frac{2^{k+1}-2}{2^{k+1}}+\frac{1}{2^{k+1}}=\frac{2^{k+1}-2+1}{2^{k+1}}=\frac{2^{k+1}-1}{2^{k+1}}$$

$$\therefore \space \forall \space n \space \epsilon \space \mathbb{N} \space \space \space \space \space \space \sum_{i=1}^{n} \left ( \frac{1}{2} \right )^{n} =S_{n}=\frac{2^{n}-1}{2^{n}}= 1-\left ( \frac{1}{2} \right )^{n} $$

$\square$

Ya que hemos estudiado un poco las sumas parciales, veamos cuando una serie converge o diverge.

Series

Definición. Si la sucesión de sumas parciales $S_{n}$ de la sucesión $a_{n}$, converge a un número $L$ con $L \space \epsilon \space \mathbb{R}$, entonces:

$$\sum_{i=1}^{n}a_{n}=L$$

Es decir, la serie $a_{n}$ converge al valor $L$.

En caso contrario, si $S_{n}$ no converge, entonces la serie $\sum_{i=1}^{n}a_{n}$ diverge.

La anterior definición es para series que no son infinitas, a las series infinitas las definimos como sigue:

Definición. Se dice que la sucesión $\left \{ a_{n} \right \}$ es sumable (o convergente) si la sucesión de sumas parciales $S_{n}$ converge, para $\lim_{n \to \infty} S_{n}$, es decir:

$$\lim_{n \to \infty} S_{n}=L$$

Donde $L$ es un número. La notación anterior se puede denotar de la siguiente manera:

$$\lim_{n \to \infty} S_{n}=\lim_{n \to \infty}\left ( a_{1}+a_{2}+….+a_{n} \right )=\lim_{n \to \infty}\sum_{i=1}^{n}a_{i}=\sum_{i=1}^{\infty}a_{i} \tag{2}$$

$\sum_{i=1}^{\infty}a_{i}$ recibe el nombre de suma infinita de $a_{n}$ ó la serie infinita de $a_{n}$.

  • Si $S_{n}$ converge se dice que la serie converge.
  • Si $S_{n}$ diverge se dice que la serie diverge.

Veamos unos ejemplos.

Ejemplos

  • Sea la serie $\sum_{i=1}^{\infty }a_{i}$ con $a_{i}=\frac{1}{2^{i}}$, diga si esta serie converge o diverge.

De la definición $(2)$ tenemos que:

$$\sum_{i=1}^{\infty}a_{i}=\lim_{n \to \infty}\sum_{i=1}^{n}\frac{1}{2^{i}}=\lim_{n \to \infty}S_{n}$$

Por la afirmación de la relación $(1)$, tenemos que:

$$\lim_{n \to \infty}S_{n}=\lim_{n \to \infty}\left ( \frac{2^{n}-1}{2^n} \right )=\lim_{n \to \infty}(1-\frac{1}{2^{n}})=1$$

ya que:

$$\lim_{n \to \infty}\frac{1}{2^{n}}=0$$

$$\therefore \sum_{i=1}^{\infty }\frac{1}{2^{i}}=\frac{1}{2}+\frac{1}{4}+….+\frac{1}{2^{i}}=1$$

Por tanto, la serie converge a un valor y ese valor es $1$.

  • Sea la serie $\sum_{i=1}^{\infty }(\frac{1}{n}-\frac{1}{n+1})$, diga si esta serie converge o diverge.

Vemos que:

$$a_{n}=\left ( \frac{1}{n}-\frac{1}{n+1} \right )$$

Así :

$$S_{1}=1-\frac{1}{2}=\frac{1}{2}$$

$$S_{2}=(1-\frac{1}{2})+(\frac{1}{2}-\frac{1}{2})=\frac{2}{3}$$

$$S_{3}=(1-\frac{1}{2})+(\frac{1}{2}-\frac{1}{3})+(\frac{1}{3}-\frac{1}{4})=1-\frac{1}{4}$$

Vemos que sigue una secuencia, por lo que podemos afirmar lo siguiente:

Afirmación: $$\sum_{i=1}^{\infty }(\frac{1}{n}-\frac{1}{n+1})=S_{n}=1-\frac{1}{n+1} \tag{3}$$

La demostración se le dejará como tarea moral, recuerde que este tipo de demostraciones se usa comúnmente la demostración por inducción.

Entonces de la afirmación $(3)$ tenemos que:

$$\sum_{i=1}^{\infty }(\frac{1}{n}-\frac{1}{n+1})=\lim_{n \to \infty}S_{n}=\lim_{n \to \infty}(1-\frac{1}{n+1})=1$$

ya que:

$$\lim_{n \to \infty}(\frac{1}{n+1})=0$$

$$\therefore \sum_{i=1}^{\infty }(\frac{1}{n}-\frac{1}{n+1})=1$$

Por lo tanto, la serie converge.

  • Sea la serie $\sum_{i=1}^{\infty }(-1)^{n}$, diga si esta serie converge o diverge.

Entonces tenemos que $a_{n}=(-1)^{n}$, vemos que:

$$S_{1}=-1,$$

$$S_{2}=0,$$

$$S_{3}=-1$$

$$S_{4}=0$$

Vemos que esta serie está oscilando, por lo que esta serie está dada como:

$$S_{n}=\left\{ \begin{array}{lcc}
             -1 & si \space n \space es \space impar   \\
             \\ 0 & si \space n \space es \space par \\
             \end{array}
   \right.$$

Por lo que:

$$\sum_{i=1}^{\infty }(-1)^{n}=\lim_{n \to \infty }S_{n} \to diverge$$

No existe el límite, porque vemos que la serie oscila entre los valores $-1$ y $0$.

A este tipo de series se les conoce como series oscilantes.

Tarea moral

Los siguientes ejercicios no son para evaluación, pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionados con el tema visto.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

Diga si las siguientes series convergen o divergen:

  1. $$\sum_{i=1}^{5} 1$$
  2. $$\sum_{i=1}^{\infty} \frac{1}{n}$$
  3. $$\sum_{i=1}^{\infty}\left ( \frac{1}{2} \right )^{n}$$
  4. $$\sum_{i=1}^{\infty}\frac{2}{4n^{2}-1}$$ Hint: Utilice fracciones parciales y demuestre por inducción que $\sum_{i=1}^{\infty}\frac{2}{4n^{2}-1}=\frac{1}{2n-1}-\frac{1}{2n+1}=1-\frac{1}{2n+1}$.
  5. Demuestre por inducción que: $\sum_{i=1}^{\infty }(\frac{1}{n}-\frac{1}{n+1})=1-\frac{1}{n+1}$

Más adelante…

En esta sección vimos la definición y notación de series y series infinitas viendo algunos ejemplos para entender las sumas parciales de estas series y determinando la convergencia y divergencia de algunas series, en la siguiente sección veremos unas series particulares que se llaman series geométricas.

Entradas relacionadas

Ecuaciones Diferenciales I: Soluciones a sistemas de ecuaciones diferenciales

Por Omar González Franco

Los errores y dificultades no resueltos en el pasado de las matemáticas
siempre han sido las oportunidades de su futuro.
– E. T. Bell

Introducción

En la entrada anterior vimos lo que es un sistema de ecuaciones diferenciales, en particular un sistema lineal de primer orden. Vimos también lo que es un problema de valores iniciales y establecimos la notación matricial.

Así mismo, vimos cómo es que una ecuación diferencial lineal de orden $n$ se puede transformar en un sistema lineal de primer orden, esto tiene bastante ventaja ya que, una vez que veamos cómo resolver sistemas de ecuaciones diferenciales, muchas veces será más sencillo resolver el sistema que resolver la ecuación de orden $n$ aplicando los métodos que ya conocemos.

En esta entrada estudiaremos las propiedades de las soluciones de los sistemas lineales de primer orden.

Cabe mencionar que mucho de lo que desarrollaremos en esta entrada es bastante similar a la teoría vista con las ecuaciones diferenciales de orden $n$, comenzando por la validez del principio de superposición.

A partir de ahora sólo usaremos la notación matricial y toda la teoría básica del álgebra lineal que éstas conllevan.

Soluciones de sistemas lineales de primer orden

Comencemos por estudiar el caso homogéneo. El sistema lineal de primer orden homogéneo es

$$\begin{pmatrix}
y_{1}^{\prime} \\ y_{2}^{\prime} \\ \vdots \\ y_{n}^{\prime}
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1} \\ y_{2} \\ \vdots \\ y_{n}
\end{pmatrix} \label{1} \tag{1}$$

O bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} \label{2} \tag{2}$$

En la entrada anterior definimos la solución de un sistema de ecuaciones diferenciales en el intervalo $\delta$ como el conjunto de $n$ funciones

$$S_{0} = \{y_{1}(t), y_{2}(t), \cdots, y_{n}(t)\} \label{3} \tag{3}$$

definidas en $\delta$ y diferenciables en el mismo intervalo, tales que satisfacen simultáneamente las $n$ ecuaciones diferenciables de un sistema lineal.

Las soluciones pueden ser escritas como el vector

$$\mathbf{Y} = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \label{4} \tag{4}$$

cuyos elementos son funciones derivables que satisfacen un sistema lineal en el intervalo $\delta$.

En las siguientes definiciones y teoremas se supondrá que los coeficientes $a_{ij}(t)$, $i, j \in \{1, 2, 3, \cdots, n\}$ y ,para el caso no homogéneo, las funciones $g_{i}(t)$, son continuas en algún intervalo común $\delta$.

Comencemos por mostrar que el principio de superposición también es valido para sistemas lineales.

Demostración: Consideremos la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$

con

$$\mathbf{Y}_{i} = \begin{pmatrix}
y_{1i} \\ y_{2i} \\ \vdots \\ y_{ni}
\end{pmatrix}$$

para $i = 1, 2, \cdots, m$. La derivada de $\mathbf{Y}_{i}$ esta dada por

$$\mathbf{Y}_{i}^{\prime} = \begin{pmatrix}
y_{1i}^{\prime} \\ y_{2i}^{\prime} \\ \vdots \\ y_{ni}^{\prime}
\end{pmatrix}$$

Entonces la derivada de la combinación lineal es

\begin{align*}
\mathbf{Y}^{\prime} &= \begin{pmatrix}
c_{1}y_{11}^{\prime} + c_{2}y_{12}^{\prime} + \cdots + c_{m}y_{1m}^{\prime} \\
c_{1}y_{21}^{\prime} + c_{2}y_{22}^{\prime} + \cdots + c_{m}y_{2m}^{\prime} \\
\vdots \\
c_{1}y_{n1}^{\prime} + c_{2}y_{n2}^{\prime} + \cdots + c_{m}y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \begin{pmatrix}
y_{11}^{\prime} \\ y_{21}^{\prime} \\ \vdots \\ y_{n1}^{\prime}
\end{pmatrix} + c_{2} \begin{pmatrix}
y_{12}^{\prime} \\ y_{22}^{\prime} \\ \vdots \\ y_{n2}^{\prime}
\end{pmatrix} + \cdots + c_{m} \begin{pmatrix}
y_{1m}^{\prime} \\ y_{2m}^{\prime} \\ \vdots \\ y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \mathbf{Y}_{1}^{\prime} + c_{2} \mathbf{Y}_{2}^{\prime} + \cdots + c_{m} \mathbf{Y}_{m}^{\prime}
\end{align*}

Como cada $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, m$, es solución del sistema homogéneo (\ref{2}) en $\delta$, entonces

$$\mathbf{Y}_{i}^{\prime} = \mathbf{A} \mathbf{Y}_{i}$$

así

\begin{align*}
\mathbf{Y}^{\prime} &= c_{1} (\mathbf{AY}_{1}) + c_{2} (\mathbf{AY}_{2}) + \cdots + c_{m} (\mathbf{AY}_{m}) \\
&= \mathbf{A}(c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}) \\
&= \mathbf{AY}
\end{align*}

En donde se ha hecho uso de la propiedad distributiva de la matriz $\mathbf{A}$ y de la hipótesis (\ref{5}). Por lo tanto, la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$

también es solución y los es en el mismo intervalo común $\delta$ ya que esta compuesta de soluciones definidas en dicho intervalo.

$\square$

Intenta hacer la demostración.

Realicemos un ejemplo.

Ejemplo: Probar que la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

es solución del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

Solución: Probemos que cada uno de los vectores de la combinación lineal es solución y usemos el principio de superposición.

Los vectores son

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

Por un lado, derivemos estos vectores.

$$\mathbf{Y}^{\prime}_{1} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{2} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{3} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix}$$

Por otro lado, sustituyamos cada uno de los vectores en el sistema lineal y usemos los resultados anteriores.

$$\mathbf{AY}_{1} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
1 -1 \\ 1 -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{1}$$

$$\mathbf{AY}_{2} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
e^{2t} + e^{2t} \\ e^{2t} + e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{2}$$

y

$$\mathbf{AY}_{3} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix} = \mathbf{Y}^{\prime}_{3}$$

De esta manera queda mostrado que los tres vectores son solución, ya que satisfacen el sistema. Por el principio de superposición concluimos que la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

también es solución del sistema lineal.

$\square$

El principio de superposición nos indica que un sistema lineal puede tener más de una solución, sin embargo, similar al caso de ecuaciones diferenciales de orden $n$, buscamos soluciones que sean linealmente independientes entre sí. A continuación definimos la dependencia e independencia lineal de las soluciones en este contexto.

En la unidad anterior definimos una herramienta muy útil que, además de ayudarnos a resolver ecuaciones diferenciales de orden superior en algunos métodos, nos ayuda a determinar si un conjunto de soluciones es linealmente independiente, dicha herramienta es el Wronskiano, la definición en el caso de los sistemas lineales de primer orden, es la siguiente.

Se puede demostrar que si el Wronskiano es distinto de cero, entonces las soluciones son linealmente independientes, igual que antes, esto es conocido como el criterio para soluciones linealmente independientes. Para demostrar este hecho es conveniente recordar algunos resultados de álgebra que podremos usar en la demostración.

Recordemos que un sistema lineal de $n$ ecuaciones con $n$ incógnitas es un conjunto de ecuaciones

$$\begin{matrix}
b_{11}u_{1} + b_{12}u_{2} + \cdots + b_{1n}u_{n} = d_{1} \\
b_{21}u_{1} + b_{22}u_{2} + \cdots + b_{2n}u_{n} = d_{2}\\
\vdots\\
b_{n1}u_{1} + b_{n2}u_{2} + \cdots + b_{nn}u_{n} = d_{n}
\end{matrix} \label{9} \tag{9}$$

Con $b_{i, j}$ y $d_{i}$, $i, j \in \{1,2, 3, \cdots, n\}$ números reales dados y $u_{i}$, $i = 1, 2, \cdots, n$ las incógnitas. Usando la notación matricial podemos escribir el sistema (\ref{9}) como

$$\mathbf{BU} = \mathbf{D} \label{10} \tag{10}$$

con

$$\mathbf{B} = \begin{pmatrix}
b_{11} & b_{12} & \cdots & b_{1n} \\
b_{21} & b_{22} & \cdots & b_{2n} \\
\vdots & & & \vdots \\
b_{n1} & b_{n2} & \cdots & b_{nn}
\end{pmatrix}, \hspace{1cm} \mathbf{U} = \begin{pmatrix}
u_{1} \\ u_{2} \\ \vdots \\ u_{n}
\end{pmatrix}, \hspace{1cm} \mathbf{D} = \begin{pmatrix}
d_{1} \\ d_{2} \\ \vdots \\ d_{n}
\end{pmatrix}$$

Los resultados que nos interesan son los siguientes.

Si $\mathbf{D} = \mathbf{0}$, el sistema (\ref{10}) también recibe el nombre de sistema homogéneo.

Con estos resultados podemos demostrar el criterio para soluciones linealmente independientes que se enuncia a continuación.

Demostración:

$\Rightarrow$) Por demostrar: $W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$.

Sea $t_{0} \in \delta$ en el que $W(t_{0}) = 0$, en donde $W(t_{0})$ denota al Wronskiano con cada vector solución evaluado en el punto $t_{0}$.

$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0})) $$

En una combinación de ambos teoremas de los resultados de álgebra podemos deducir que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$, no todos cero, tal que

$$\mathbf{Y}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = 0 \label{11} \tag{11}$$

Lo que tenemos es un sistema lineal de $n$ ecuaciones homogéneo con $n$ incógnitas (sistema lineal en el contexto algebraico (\ref{10}) con $\mathbf{D} = \mathbf{0}$, no sistema lineal de ecuaciones diferenciales), dichas incógnitas son las constantes $c_{i}$, $i = 1, 2, \cdots, n$. La relación (\ref{11}) se cumple debido a que si el Wronskiano es igual a cero, entonces es posible que el sistema no tenga solución trivial y mucho menos una solución única, esto lo deducimos de los teoremas de álgebra que establecimos.

Por otro lado, sabemos por hipótesis que los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son solución del sistema homogéneo (\ref{2}) en el intervalo $\delta$, por el principio de superposición sabemos también que la combinación lineal

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n}$$

es solución de (\ref{2}) en $\delta$. Del resultado (\ref{11}) y de la unicidad de la solución se deduce que $\mathbf{Y}(t) = 0$ para algún punto $t = t_{0} \in \delta$, es decir,

$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$

Pero por hipótesis los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes en $\delta$, lo que implica que

$$c_{1} = c_{2} = \cdots = c_{n} = 0$$

lo cual es una contradicción con lo que establecimos en (\ref{11}). Por lo tanto, el Wronskiano tiene que ser distinto de cero, es decir

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$

$\Leftarrow$) Por demostrar: $S$ es linealmente independiente.

Este caso también lo demostraremos por contradicción. Supongamos que los vectores solución $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente dependientes en $\delta$, esto implica que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$ no todos cero, tal que

$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$

Este sistema lo podemos escribir en la forma (\ref{9}) como

$$\begin{matrix}
c_{1}y_{11} + c_{2}y_{12} + \cdots + c_{n}y_{1n} = 0 \\
c_{1}y_{21} + c_{2}y_{22} + \cdots + c_{n}y_{2n} = 0 \\
\vdots\\
c_{1}y_{n1} + c_{2}y_{n2} + \cdots + c_{n}y_{nn} = 0
\end{matrix}$$

En donde las funciones $y_{ij}$, $i, j \in \{1, 2, 3, \cdots, n\}$ son los coeficientes y las constantes $c_{i}$, $i = 1, 2, \cdots, n$ son las incógnitas. Debido a que las $c_{i}$ no son todas cero implica que el sistema no tiene solución trivial y por el segundo teorema de los resultados de álgebra concluimos que

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = 0$$

Pero, por hipótesis

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$

lo cual es una contradicción y todo nace de considerar a $S$ como un conjunto linealmente dependiente. Por lo tanto, el conjunto de soluciones

$$S = \{\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}\}$$

es linealmente independiente en $\delta$.

$\square$

Un resultado interesante se enuncia a continuación.

Este resultado nos garantiza que si $W \neq 0$ para algún punto $t_{0} \in \delta$, entonces $W \neq 0$ para toda $t \in \delta$ y por el criterio anterior las soluciones serán linealmente independientes en ese intervalo.

El conjunto de soluciones linealmente independientes del sistema lineal (\ref{2}) recibe un nombre especial.

El siguiente teorema nos garantiza la existencia de este conjunto.

El conjunto fundamental de soluciones está constituido por vectores que son linealmente independientes entre sí, con estos vectores es posible formar una matriz cuyas columnas están formadas con las entradas de dichos vectores, esta matriz tiene un nombre especial.

Un hecho interesante es que el determinante de la matriz fundamental de soluciones corresponde al Wronskiano.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = |\mathbf{M}(t)| \label{13} \tag{13}$$

Realicemos un ejemplo, para ello consideremos el sistema lineal del ejemplo anterior.

Ejemplo: Mostrar que las soluciones

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

son linealmente independientes.

Solución: En el ejemplo anterior ya comprobamos que efectivamente son solución del sistema lineal dado. Para determinar si son linealmente independientes veamos si el Wronskiano es distinto de cero.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \mathbf{Y}_{3}) = \begin{vmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{vmatrix} = e^{5t} + 0 + 0 -0 -0 -(-e^{5t}) = 2e^{5t} \neq 0$$

Como $W \neq 0$, $\forall$ $t \in \mathbb{R}$, entonces los vectores dados son linealmente independientes y por lo tanto forman un conjunto fundamental de soluciones en $\mathbb{R}$.

$$S = \left\{ \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} \right\}$$

La matriz fundamental de soluciones es

$$\mathbf{M}(t) = \begin{pmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix}$$

$\square$

Un buen ejercicio sería mostrar que un conjunto de soluciones del sistema lineal homogéneo (\ref{2}) forma un espacio vectorial, es relativamente sencillo probar cada una de las propiedades o axiomas que definen a un espacio vectorial. El resultado a demostrar de tarea moral es el siguiente.

Soluciones generales a sistemas lineales

Ahora que conocemos algunas propiedades de las soluciones de sistemas lineales, es momento de conocer la forma general de las soluciones de los sistemas lineales tanto homogéneos como no homogéneos.

Comencemos por enunciar el teorema que establece la forma de la solución general de un sistema lineal homogéneo (\ref{2}).

Demostración: Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema lineal homogéneo en el intervalo $\delta$, sea $t_{0} \in \delta$ y supongamos que

$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0}$$

Es decir, la función $\mathbf{Y}(t)$ satisface el problema de valores iniciales $\mathbf{Y}^{\prime} = \mathbf{AY}; \mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$.

Por otro lado, por el principio de superposición sabemos que la combinación lineal

$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

también es solución del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Donde $c_{i}$, $i = 1, 2, \cdots, n$ son constantes arbitrarias y las $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, n$ son las soluciones del conjunto fundamental de soluciones del sistema lineal. Supongamos que

$$\hat{\mathbf{Y}}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$

Lo que tenemos es el siguiente sistema de $n$ ecuaciones.

$$\begin{matrix}
c_{1}y_{11}(t_{0}) + c_{2}y_{12}(t_{0}) + \cdots + c_{n}y_{1n}(t_{0}) = b_{1} \\
c_{1}y_{21}(t_{0}) + c_{2}y_{22}(t_{0}) + \cdots + c_{n}y_{2n}(t_{0}) = b_{2} \\
\vdots \\
c_{1}y_{n1}(t_{0}) + c_{2}y_{n2}(t_{0}) + \cdots + c_{n}y_{nn}(t_{0}) = b_{n}
\end{matrix}$$

En donde las incógnitas son las contantes $c_{i}$, $i = 1, 2, \cdots, n$. Como las funciones $y_{ij}$, $i,j \in \{1, 2, 3, \cdots, n \}$ pertenecen a vectores del conjunto de soluciones, entonces sabemos que $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes y por el criterio para soluciones linealmente independientes inferimos que $W(t_{0}) \neq 0$, donde

$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0}))$$

De los resultados de álgebra deducimos que el sistema de $n$ ecuaciones tiene solución única, esto significa que existen constantes únicas $c_{1}, c_{2}, \cdots, c_{n}$, tal que

$$c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$

Esto nos indica que

$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

es solución del problema de valores iniciales. Por el teorema de existencia y unicidad para sistemas lineales homogéneas concluimos que $\mathbf{Y}(t) = \hat{\mathbf{Y}}(t)$, es decir,

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

Como $\mathbf{Y}(t)$ es una solución arbitraria, entonces debe ser la solución general del sistema lineal homogéneo en $\delta$.

$\square$

Para concluir la entrada estudiemos el caso no homogéneo.

Sistemas no homogéneos

El sistema lineal de primer orden no homogéneo es

$$\begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{15} \tag{15}$$

O bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} + \mathbf{G} \label{16} \tag{16}$$

El vector de funciones que satisface el sistema (\ref{16}) es una solución y recibe un nombre.

A continuación se enuncia el teorema que nos muestra la forma general de la solución de un sistema lineal no homogéneo.

Demostración: Sea

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
y_{1p} \\ y_{2p} \\ \vdots \\ y_{np}
\end{pmatrix}$$

una solución particular de (\ref{16}) y sean $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$, $n$ soluciones linealmente independientes del sistema homogéneo asociado $\mathbf{Y^{\prime}} = \mathbf{AY}$.

Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema no homogéneo, notemos lo siguiente.

\begin{align*}
(\mathbf{Y}(t) -\mathbf{Y}_{p}(t))^{\prime} &= \mathbf{Y}^{\prime}(t) -\mathbf{Y}_{p}^{\prime}(t) \\
&= (\mathbf{AY}(t) + \mathbf{G}) -(\mathbf{AY}_{p}(t) + \mathbf{G}) \\
&= \mathbf{A} (\mathbf{Y}(t) -\mathbf{Y}_{p}(t))
\end{align*}

Este resultado nos indica que $\mathbf{Y}(t) -\mathbf{Y}_{p}(t)$ es solución del sistema homogéneo, eso significa que se puede escribir como

$$\mathbf{Y}(t) -\mathbf{Y}_{p}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t)$$

entonces, la solución $\mathbf{Y}$ tiene la forma

$$\mathbf{Y}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) \label{19} \tag{19}$$

La solución $\mathbf{Y}(t)$, al ser cualquier solución del sistema lineal no homogéneo, podemos deducir que la solución general debe tener la forma (\ref{19}), por lo que concluimos que $\mathbf{Y}(t)$ se trata de la solución general de (\ref{16}).

Considerando la hipótesis (\ref{17}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

$\square$

Cuando estamos trabajando con un sistema lineal no homogéneo, la solución general del sistema lineal homogéneo asociado (\ref{17}) recibe un nombre particular.

Concluyamos con un ejemplo.

Ejemplo: Probar que el vector

$$\mathbf{Y}_{p} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$

es una solución particular del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$

Solución: Por un lado, derivemos el vector dado.

$$\mathbf{Y}^{\prime}_{p} = \begin{pmatrix}
-\dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ -e^{t} + \dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$

Por otro lado, sustituyamos directamente en el sistema al vector dado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$

Operando obtenemos lo siguiente.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} + e^{t} \\ -\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t}+e^{2t} \\ \dfrac{3}{2}t^{2}e^{3t} + te^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$

Los resultados obtenidos son los mismos, por lo tanto el vector $\mathbf{Y}_{p}$ es solución del sistema.

En los ejemplos anteriores de esta entrada probamos que el conjunto fundamental de soluciones del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

esta constituido por los vectores linealmente independientes

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

de manera que la función complementaria es

$$\mathbf{Y}_{c} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

Como la solución general es

$$\mathbf{Y} = \mathbf{Y}_{c} + \mathbf{Y}_{p}$$

Entonces la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} + \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$

$\square$

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Los siguientes vectores son soluciones de un sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$. Determinar si forman un conjunto fundamental de soluciones en $\mathbb{R}$.
  • $\mathbf{Y}_{1} = \begin{pmatrix}
    1 \\ -1
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
    2 \\ 6
    \end{pmatrix}e^{t} + \begin{pmatrix}
    8 \\ -8
    \end{pmatrix}te^{t}$
  • $\mathbf{Y}_{1} = \begin{pmatrix}
    1 \\ 6 \\ -13
    \end{pmatrix},\hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
    1 \\ -2 \\ -1
    \end{pmatrix}e^{-4t}, \hspace{1cm} \mathbf{Y}_{3}= \begin{pmatrix}
    2 \\ 3 \\ -2
    \end{pmatrix}e^{3t}$
  1. Probar que el vector $\mathbf{Y}_{p}$ es una solución particular del sistema lineal dado.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 1 \\ 3 & 4
    \end{pmatrix} \mathbf{Y} -\begin{pmatrix}
    1 \\ 7
    \end{pmatrix}e^{t}, \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}e^{t} + \begin{pmatrix}
    1 \\ -1
    \end{pmatrix}te^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 & 3 \\
    -4 & 2 & 0 \\
    -6 & 1 & 0
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    -1 \\ 4 \\ 3
    \end{pmatrix} \sin(3t), \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
    \sin(3t) \\ 0 \\ \cos (3t)
    \end{pmatrix}$
  1. Mostrar que la solución general de

    $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 6 & 0 \\ 1 & 0 & 1 \\ 1 & 1 & 0
    \end{pmatrix} \mathbf{Y}$

    en el intervalo $(-\infty, \infty)$ es

    $\mathbf{Y} = c_{1} \begin{pmatrix}
    6 \\ -1 \\ -5
    \end{pmatrix}e^{-t} + c_{2} \begin{pmatrix}
    -3 \\ 1 \\ 1
    \end{pmatrix}e^{-2t} + c_{3} \begin{pmatrix}
    2 \\ 1 \\ 1
    \end{pmatrix}e^{3t}$
  1. Mostrar que la solución general de

    $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 \\ -1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}t^{2} + \begin{pmatrix}
    4 \\ -6
    \end{pmatrix}t + \begin{pmatrix}
    -1 \\ 5
    \end{pmatrix}$

    en el intervalo $(-\infty, \infty)$ es

    $\mathbf{Y} = c_{1} \begin{pmatrix}
    1 \\ -1 -\sqrt{2}
    \end{pmatrix}e^{\sqrt{2t}} + c_{2} \begin{pmatrix}
    1 \\ -1 + \sqrt{2}
    \end{pmatrix}e^{-\sqrt{2t}} + \begin{pmatrix}
    1 \\ 0 \end{pmatrix}t^{2} + \begin{pmatrix}
    -2 \\ 4
    \end{pmatrix}t + \begin{pmatrix}
    1 \\ 0
    \end{pmatrix}$
  1. Demostrar que el conjunto de soluciones del sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$ forma un espacio vectorial con la suma y el producto por escalares usuales de matrices.

Más adelante…

Ahora que conocemos lo que son los sistemas lineales de ecuaciones diferenciales y las propiedades de sus soluciones estamos casi listos para comenzar a desarrollar los distintos métodos de resolución, sin embargo, antes de ello es necesario definir una herramienta matemática que será de suma utilidad en el desarrollo posterior de esta unidad. Dicha herramienta es la exponencial de una matriz.

En la siguiente entrada definiremos lo que significa $e^{\mathbf{A} t}$, donde $\mathbf{A}$ es una matriz de $n \times n$ con componentes constantes y veremos como se relaciona con un sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Así mismo, profundizaremos en el concepto de matriz fundamental de soluciones.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Moderna I: Triángulos en perspectiva

Por Rubén Alexander Ocampo Arellano

Introducción

En esta entrada mostraremos el teorema de Desargues que nos habla sobre triángulos en perspectiva, también mostraremos los teoremas de Pascal y de Pappus, estos nos dicen cuando los lados opuestos de un hexágono se intersecan en puntos colineales.

Definición. Dos triángulos $\triangle ABC$ y $\triangle A’B’C’$ están en perspectiva desde una recta si los lados correspondientes $AB$, $A’B’$; $BC$, $B’C’$ y $CA$, $C’A’$ se intersecan en puntos colineales, a dicha recta se le conoce como eje de perspectiva.

Dos triángulos $\triangle ABC$ y $\triangle A’B’C’$ están en perspectiva desde un punto si las rectas que unen vértices correspondientes $AA’$, $BB’$ y $CC’$ son concurrentes, a dicho punto se le conoce como centro de perspectiva.

Observación. Notemos que ya hemos trabajado con un tipo especial de perspectiva, la homotecia, donde los vértices correspondientes son concurrentes pero los lados correspondientes son paralelos.

En este caso el centro de perspectiva es el centro de homotecia y como las rectas paralelas se intersecan en el punto al infinito entonces la recta al infinito es el eje de perspectiva.

El siguiente teorema generaliza esta dualidad eje-centro de perspectiva.

Teorema de Desargues

Teorema 1, de Desargues. Dos triángulos tienen un centro de perspectiva si y solo si tienen un eje de perspectiva.

Demostración. Consideremos dos triángulos, $\triangle ABC$ y $\triangle A’B’C’$,
sean $R = AB \cap A’B’$, $P = BC \cap B’C’$ y $Q = CA \cap C’A’$.

Figura 1

Supongamos que $AA’$, $BB’$ y $CC’$ concurren en $S$, aplicamos el teorema de Menelao a $\triangle SAB$, $\triangle SAC$ y $\triangle SBC$ con sus respectivas transversales $B’A’R$, $C’A’Q$ y $B’C’P$.

$\begin{equation} \dfrac{SA’}{A’A} \dfrac{AR}{RB} \dfrac{BB’}{B’S} = -1, \end{equation}$
$\begin{equation} \dfrac{SA’}{A’A} \dfrac{AQ}{QC} \dfrac{CC’}{C’S} = -1, \end{equation}$
$ \begin{equation} \dfrac{SB’}{B’B} \dfrac{BP}{PC} \dfrac{CC’}{C’S} = -1. \end{equation}$

Hacemos el cociente de $(1)$ entre $(2)$ y obtenemos
$\begin{equation} \dfrac{AR}{RB} \dfrac{BB’}{B’S} \dfrac{QC}{AQ} \dfrac{C’S}{CC’} = 1. \end{equation}$

Multiplicamos $(3)$ por $(4)$ y obtenemos
$\dfrac{AR}{RB} \dfrac{BP}{PC} \dfrac{QC}{AQ} = – 1$.

Por lo tanto, por el teorema de Menelao, $P$, $Q$ y $R$ son colineales.

$\blacksquare$

Conversamente, supongamos que $RPQ$ es una recta y sea $S = BB’ \cap CC’$.

Notemos que $QR$, $CB$ y $C’B$ concurren en $P$ (figura 1), por lo tanto, $\triangle QCC’$ y $\triangle RBB’$ están en perspectiva desde $P$, por la implicación que ya probamos los puntos $A = QC \cap RB$, $A’ = QC’ \cap RB’$ y $S = BB’ \cap CC’$, son colineales.

Por lo tanto, $AA’$, $BB’$ y $CC’$ concurren en $S$.

$\blacksquare$

Punto de Gergonne

Proposición. Considera un triángulo $\triangle ABC$ y su incírculo $\Gamma$, sean $D$, $E$ y $F$ los puntos de tangencia de $\Gamma$ con los lados $BC$, $CA$ y $AB$ respectivamente, entonces $AD$, $BE$ y $CF$ son concurrentes, en un punto conocido como punto de Gergonne.

Demostración. En la entrada anterior demostramos que los triángulos $\triangle ABC$ y $\triangle DEF$ están en perspectiva desde la recta de Gergonne de $\triangle ABC$, es decir, $AB$, $DE$; $BC$, $EF$ y $CA$, $FD$ se intersecan en tres puntos colineales.

Figura 2

Por lo tanto, por el teorema de Desargues $AD$, $BE$ y $CF$ son concurrentes

$\blacksquare$

Triángulos con dos ejes de perspectiva

Teorema 2. Si dos triángulos tienen dos ejes de perspectiva entonces tienen tres ejes de perspectiva.

Demostración. Supongamos que los triángulos $\triangle ABC$ y $\triangle A’B’C’$ están en perspectiva desde dos rectas, es decir, los puntos, $Z = AB \cap B’C’$, $X = BC \cap C’A’$ y $Y = CA \cap A’B’$ son colineales y los puntos $R = AB \cap C’A’$, $P = BC \cap A’B’$ y $Q = CA \cap B’C’$ son colineales.

Sean $F = AB \cap A’B’$, $D = BC \cap B’C’$ y $E = CA \cap C’A’$, aplicamos el teorema Menelao a $\triangle ABC$ y las transversales $DZQ$, $FPY$ y $EXR$.

Figura 3

$\dfrac{AZ}{ZB} \dfrac{BD}{DC} \dfrac{CQ}{QA} = -1$,
$\dfrac{AF}{FB} \dfrac{BP}{PC} \dfrac{CY}{YA} = -1$,
$\dfrac{AR}{RB} \dfrac{BX}{XC} \dfrac{CE}{EA} = -1$.

Multiplicamos estas tres igualdades y reordenamos
$\dfrac{AF}{FB} \dfrac{BD}{DC} \dfrac{CE}{EA} (\dfrac{AZ}{ZB} \dfrac{BX}{XC} \dfrac{CY}{YA}) (\dfrac{AR}{RB} \dfrac{BP}{PC} \dfrac{CQ}{QA}) = – 1$.

Recordemos que como $X$, $Y$, $Z$ y $P$, $Q$, $R$ son colineales entonces
$\dfrac{AZ}{ZB} \dfrac{BX}{XC} \dfrac{CY}{YA} = – 1$,
$\dfrac{AR}{RB} \dfrac{BP}{PC} \dfrac{CQ}{QA} = – 1$.

Por lo tanto
$\dfrac{AF}{FB} \dfrac{BD}{DC} \dfrac{CE}{EA} = -1$.

Y por el teorema de Menelao $D$, $E$ y $F$ son colineales.

$\blacksquare$

Corolario. Si dos triángulos tienen dos centros de perspectiva entonces tienen tres centros de perspectiva.

Demostración. Por el teorema de Desargues, si dos triángulos tienen dos centros de perspectiva entonces tienen dos ejes de perspectiva.

Por el teorema anterior, existe un tercer eje de perspectiva.

Nuevamente por el teorema de Desargues, existe un tercer centro de perspectiva.

$\blacksquare$

Teorema de Pappus

Teorema 3, de Pappus. Si los vértices de un hexágono se encuentran alternadamente sobre dos rectas entonces los lados opuestos se intersecan en tres puntos colineales.

Demostración. Sean $ABCDEF$ un hexágono tal que $AEC$ y $DBF$ son dos rectas distintas,
$P = EF \cap AB$, $Q = AB \cap CD$, $R = CD \cap EF$,
$P’ = BC \cap ED$, $Q’ = DE \cap FA$ y $R’ = FA \cap BC$.

Figura 4

Notemos que las rectas $AEC$ y $DBF$ son dos ejes de perspectiva de $\triangle PQR$ y $\triangle P’Q’R’$, pues
$A = PQ \cap Q’R’$, $C = QR \cap R’P’$, $E = RP \cap P’Q’$,
$B = PQ \cap R’P’$, $D = QR \cap P’Q’$ y $F = RP \cap Q’R’$.

Por el teorema anterior $X = PQ \cap P’Q’$, $Y = QR \cap Q’R’$ y $Z = RP \cap R’P’$, son colineales.

$\blacksquare$

Teorema de Pascal

Teorema 4, de Pascal. En todo hexágono cíclico los pares de lados opuestos se intersecan en tres puntos colineales.

Demostración. Sean $ABCDEF$ un hexágono cíclico,
$X = AB \cap DE$, $Y = BC \cap EF$, $Z = CD \cap FA$ las intersecciones de los lados opuestos,
consideremos $P = DE \cap FA$, $Q = FA \cap BC$ y $R = BC \cap DE$.

Figura 5

Aplicaremos el teorema de Menelao a $\triangle PQR$ y las transversales $AXB$, $CDZ$ y $FEY$.
$\dfrac{PA}{AQ} \dfrac{QB}{BR} \dfrac{RX}{XP} = – 1$,
$\dfrac{PZ}{ZQ} \dfrac{QC}{CR} \dfrac{RD}{DP} = – 1$,
$\dfrac{PF}{FQ} \dfrac{QY}{YR} \dfrac{RE}{EP} = – 1$.

Si multiplicamos las tres ecuaciones y reacomodamos obtenemos
$\dfrac{PZ}{ZQ} \dfrac{QY}{YR} \dfrac{RX}{XP} (\dfrac{PF \times PA}{PE \times PD}) (\dfrac{QB \times QC}{QF \times QA}) (\dfrac{RD \times RE}{RC \times RB}) = -1$.

Por otro lado, las potencias de $P$, $Q$ y $R$ respeto al circuncírculo de $ABCDEF$ son la siguientes
$PF \times PA = PE \times PD$,
$QF \times QA = QB \times QC$,
$RD \times RE = RC \times RB$.

Por lo tanto $\dfrac{PZ}{ZQ} \dfrac{QY}{YR} \dfrac{RX}{XP} = -1$.

Por el teorema de Menelao $X$, $Y$ y $Z$ son colineales.

$\blacksquare$

Casos limite en el teorema de Pascal

Existen casos limite donde podemos hacer uso del teorema de Pascal, es decir, podemos considerar un triángulo, un cuadrilátero o un pentágono como un hexágono donde dos vértices se aproximaron hasta volverse uno solo y como consecuencia el lado comprendido entre ellos se vuelve una tangente al circuncírculo en dicho punto.

A continuación, ilustramos esto con un ejemplo.

Problema 1. Considera $\Gamma$ una circunferencia y $l$ una recta, $K \in l$ fuera de $\Gamma$, $P$, $Q \in \Gamma$, sean $KA$ y $KB$ las tangentes desde $K$ a $\Gamma$, $X = PA \cap l$, $Y = PB \cap l$, $C = QX \cap \Gamma$ y $D = QY \cap \Gamma$. Muestra que las tangentes a $\Gamma$ en $C$ y $D$ se intersecan en $l$.

Demostración. Sea $M$ la intersección de las tangentes a $\Gamma$ en $C$ y $D$, $U = AC \cap BD$ y $V = AD \cap BC$.

Figura 6

Por el teorema de Pascal en el hexágono $APBCQD$, $V$ es colineal con $X$ e $Y$, es decir $V \in l$.

Ahora aplicamos el teorema de Pascal al hexágono $AACBBD$, $U$ es colineal con $V$ y $K$, es decir $U \in l$.

Aplicando nuevamente Pascal a $ACCBDD$ tenemos que $M$ es colineal con $U$ y con $V$.

Por lo tanto, $M \in l$.

$\blacksquare$

Pascal, Desargues y un punto al infinito

Problema 2. Sean $\triangle ABC$ un triángulo acutángulo, $B’$ y $C’$ los puntos medios de $CA$ y $AB$ respectivamente, sea $\Gamma_1$ una circunferencia que pasa por $B’$ y $C’$ y que es tangente al circuncírculo de $\triangle ABC$, $\Gamma(ABC)$ en $T$. Muestra que $T$, el pie de la altura por $A$, y el centroide de $\triangle ABC$, son colineales.

Demostración. Sean $B’’ = TB’ \cap \Gamma(ABC)$, $C’’ = TC’ \cap \Gamma(ABC)$ y $D’ = BB’’ \cap CC’’$

Figura 7

Por el teorema de Pascal en el hexágono $ABB’’TC’’C$, $B’$, $D’$ y $C’$ son colineales.

Notemos que existe una homotecia con centro en $T$ que lleva a $\Gamma_1$ en $\Gamma(ABC)$, así que, $C’B’ \parallel C’’B’’$.

Como resultado, $\angle C’’CB = \angle CC’’B’’ = \angle CBB’’$, pues $\angle CC’’B’’$ y $\angle CBB’’$ abarcan el mismo arco.

En consecuencia, $\triangle D’BC$ es isósceles, por lo tanto, el pie de la altura por $D’$ en $\triangle D’BC$ es $A’$, el punto medio de $BC$, o conversamente, la proyección de $A’$ el punto medio de $BC$, en $B’C’$ es $D’$.

Recordemos que existe una homotecia con centro en $G$, el centroide de $\triangle ABC$, que lleva a $\triangle A’B’C’$ en $\triangle ABC$, como $D$ es el pie de altura por $A$ en $\triangle ABC$ y $D’$ el pie de la altura por $A’$ en $\triangle A’B’C’$, entonces $D$ y $D’$ son puntos homólogos en esta homotecia, por lo tanto, $D$, $G$ y $D’$ son colineales.

Por otro lado, como $BB’$, $CC’$ y $DD’$ concurren en $G$, $\triangle D’BC$ y $\triangle DB’C’$ están en perspectiva desde $G$.

Por el teorema de Desargues, los puntos $X = D’B \cap DB’$, $Y = D’C \cap DC’$, $P = BC \cap B’C’$, son colineales, pero $P$ es un punto ideal, pues por la homotecia entre $\triangle A’B’C’$ y $\triangle ABC$, $B’C’ \parallel BC$.

En consecuencia, $XY \parallel B’C’$.

Como $DB’ \cap D’B’’ = X$, $DC’ \cap D’C’’ = Y$ y $B’C’ \cap B’’C’’ = P$, entonces $\triangle DB’C’$ y $\triangle D’B’’C’’$ están en perspectiva desde $XY$, por el teorema de Desargues, $DD’$, $B’B’’$ y $C’C’’$ son concurrentes.

Por lo tanto, $T$, $D$ y $G$ son colineales.

$\blacksquare$

Más adelante…

En la siguiente entrada mostraremos el teorema de Ceva, que nos da condiciones necesarias y suficientes para que tres rectas, cada una por un vértice distinto de un triángulo dado, sean concurrentes.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Muestra que si tres triángulos:
    $i)$ tienen un eje común de perspectiva, entonces los tres centros de perspectiva son colineales,
    $ii)$ tienen un centro común de perspectiva, entonces los tres ejes de perspectiva son concurrentes.
  2. Muestra que todo triángulo esta en perspectiva desde una recta con:
    $i)$ su triángulo medial,
    $ii)$ su triángulo órtico.
  3. Sean $\triangle ABC$ y $D \in BC$, $\Gamma_1$, $\Gamma_2$, considera los incírculos de $\triangle ABD$ y $\triangle ADC$ respectivamente, $\Gamma_3,$ $\Gamma_4$ los excírculos tangentes a $BC$ de $\triangle ABD$ y $\triangle ADC$ respectivamente (figura 8). Prueba que las tangentes comunes externas a $\Gamma_1$, $\Gamma_2$ y $\Gamma_3$, $\Gamma_4$, concurren en $BC$.
Figura 8
  1. Sea $\square BB’C’C$ un rectángulo construido externamente sobre el lado $BC$ de un triángulo $\triangle ABC$, sean sea $A’ \in BC$, el pie de la altura por $A$, $X = AB \cap A’B’$, $Y = CA \cap C’A’$, muestra que $XY \parallel BC$.
  2. Considera $\Gamma$ el circuncírculo de un triangulo $\triangle ABC$, sean $Q$ el punto medio del arco $\overset{\LARGE{\frown}}{AB}$ que no contiene a $C$, $R$ el punto medio del arco $\overset{\LARGE{\frown}}{CA}$ que no contiene a $B$, $P$ un punto en el arco $\overset{\LARGE{\frown}}{BC}$ que no contiene a $A$, $H = AB \cap PQ$, $J = CA \cap PR$, prueba que $HJ$ pasa por el incentro de $\triangle ABC$.
  3. Sea $\triangle ABC$ y $B’ \in CA$, $C’ \in AB$, sean $D$, $E$ los puntos de tangencia de $\Gamma$ el incírculo de $\triangle ABC$, con $CA$ y $AB$ respectivamente, sean $C’X$ y $B’Y$ segmentos tangentes a $\Gamma$ tal que $X$, $Y \in \Gamma$ (figura 9), demuestra que $B’C’$, $DE$ y $XY$ son concurrentes.
Figura 9

Entradas relacionadas

Fuentes

  • Andreescu, T., Korsky, S. y Pohoata, C., Lemmas in Olympiad Geometry. USA: XYZ Press, 2016, pp 71-82.
  • Lozanovski, S., A Beautiful Journey Through Olympiad Geometry. Version 1.4. 2020, pp 103-109.
  • Johnson, R., Advanced Euclidean Geometry. New York: Dover, 2007, pp 230-239.
  • Coxeter, H. y Greitzer, L., Geometry Revisited. Washington: The Mathematical Association of America, 1967, pp 67-76.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»