Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Cálculo Diferencial e Integral II: Definición de series y series infinitas

Por Miguel Ángel Rodríguez García

Introducción

En esta entrada veremos la definición de series y sumas parciales para conocer lo básico en este nuevo tema que con llevará a teoremas que nos dirán si una serie es divergente o convergente.

Cabe recalcar que para este tema se debe tener noción de sucesiones que se estudió en Cálculo Diferencial e Integral I. Comenzamos estudiando las sumas parciales que se definen como sigue.

Sumas parciales

Definición. Sea $\left \{ a_{n} \right \}$ una sucesión, definimos la nueva sucesión $S_{n}$ «la sucesión de la sumas parciales de $\left \{ a_{n} \right \}$» como:

$$S_{n}=a_{1}+a_{2}+….+a_{n}$$

Esta serie se denota comúnmente como:

$$S_{n}= a_{1}+a_{2}+….+a_{n} =\sum_{i=1}^{n}a_{i}$$

Donde $a_{i}$ es el término general de la sucesión y se va sumando desde el valor inferior $i=1$ hasta el valor $i=n$.

Veamos unos ejemplos:

  • Sea $\left \{ a_{n} \right \}$ una sucesión dada por $a_{n}=\frac{1}{n}$

En este caso tenemos que $a_{1}=\frac{1}{1}$, $a_{2}=\frac{1}{2}$ y $a_{3}=\frac{1}{3}$ entonces tenemos que la sucesión de sumas parciales hasta $n=3$ es:

$$S_{1}=\sum_{i=1}^{1}a_{i}=a_{1}=1, \space$$

$$S_{2}=\sum_{i=1}^{2}a_{i}=a_{1}+a_{2}=1+\frac{1}{2}=\frac{3}{2}, \space$$

$$S_{3}=\sum_{i=1}^{3}a_{i}=a_{1}+a_{2}+a_{3}=1+\frac{1}{2}+\frac{1}{3}=\frac{11}{6}$$

  • Sea $\left \{ a_{n} \right \}$ una sucesión dada por $a_{n}=(-1)^{n}$

Tenemos que las sumas parciales hasta $n=4$ son:

$$S_{1}=-1, \space$$

$$S_{2}=S_{1}+a_{2}=-1+1=0, \space$$

$$S_{3}=S_{2}+a_{3}=-1$$

$$S_{4}=S_{3}+a_{4}=0$$

A este tipo de series se les conoce como series oscilantes, ya que como vemos, las sumas parciales van oscilando sobre algunos valores.

  • Sea $a_{n}=\left ( \frac{1}{2} \right )^{n}$

Tenemos que:

$$S_{1}=\frac{1}{2},$$

$$S_{2}=S_{1}+a_{2}=\frac{1}{2}+\frac{1}{4}=\frac{3}{4},$$

$$S_{3}=S_{2}+a_{3}=\frac{7}{8}$$

$$S_{4}=S_{3}+a_{4}=\frac{15}{16}$$

Se puede afirmar que las sumas parciales de esta sucesión tienden al valor siguiente:

Afirmación: $$\sum_{i=1}^{n} \left ( \frac{1}{2} \right )^{n} = S_{n}=\frac{2^{n}-1}{2^{n}}=1-\left ( \frac{1}{2} \right )^{n} \tag{1}$$

Demostración:

Esta afirmación se demuestra por inducción, por lo que recordamos que demostrar por inducción consta de tres pasos siguientes:

$1)$ para $n=1$ tenemos que:

$$ \sum_{i=1}^{1} \left ( \frac{1}{2} \right )^{1} =S_{1}=\frac{2^{1}-1}{2^{1}}=1-\left ( \frac{1}{2} \right )^{1}=\frac{1}{2}$$

Por lo que para $n=1$ cumple.

$2)$ Supongamos valido para $n=k$ entonces:

$$ \sum_{i=1}^{k} \left ( \frac{1}{2} \right )^{k}=\frac{2^{k}-1}{2^{k}}=1-\left ( \frac{1}{2} \right )^{k}$$

$3)$ Demostremos para $n=k+1$, por lo que:

$$ \sum_{i=1}^{k+1} \left ( \frac{1}{2} \right )^{k+1} =S_{k+1}=S_{k}+a_{k+1}=\frac{2^{k}-1}{2^k}+\left ( \frac{1}{2} \right )^{k+1}=\frac{2^{k}-1}{2^{k}}+\frac{1}{2^{k+1}}$$

Multiplicamos por $\frac{2}{2}$ en la fracción de la izquierda, por lo que se tiene que:

$$ 1-\left ( \frac{1}{2} \right )^{k+1} =\frac{2\left ( 2^{k}-1 \right )}{2^{k+1}}+\frac{1}{2^{k+1}}=\frac{2^{k+1}-2}{2^{k+1}}+\frac{1}{2^{k+1}}=\frac{2^{k+1}-2+1}{2^{k+1}}=\frac{2^{k+1}-1}{2^{k+1}}$$

$$\therefore \space \forall \space n \space \epsilon \space \mathbb{N} \space \space \space \space \space \space \sum_{i=1}^{n} \left ( \frac{1}{2} \right )^{n} =S_{n}=\frac{2^{n}-1}{2^{n}}= 1-\left ( \frac{1}{2} \right )^{n} $$

$\square$

Ya que hemos estudiado un poco las sumas parciales, veamos cuando una serie converge o diverge.

Series

Definición. Si la sucesión de sumas parciales $S_{n}$ de la sucesión $a_{n}$, converge a un número $L$ con $L \space \epsilon \space \mathbb{R}$, entonces:

$$\sum_{i=1}^{n}a_{n}=L$$

Es decir, la serie $a_{n}$ converge al valor $L$.

En caso contrario, si $S_{n}$ no converge, entonces la serie $\sum_{i=1}^{n}a_{n}$ diverge.

La anterior definición es para series que no son infinitas, a las series infinitas las definimos como sigue:

Definición. Se dice que la sucesión $\left \{ a_{n} \right \}$ es sumable (o convergente) si la sucesión de sumas parciales $S_{n}$ converge, para $\lim_{n \to \infty} S_{n}$, es decir:

$$\lim_{n \to \infty} S_{n}=L$$

Donde $L$ es un número. La notación anterior se puede denotar de la siguiente manera:

$$\lim_{n \to \infty} S_{n}=\lim_{n \to \infty}\left ( a_{1}+a_{2}+….+a_{n} \right )=\lim_{n \to \infty}\sum_{i=1}^{n}a_{i}=\sum_{i=1}^{\infty}a_{i} \tag{2}$$

$\sum_{i=1}^{\infty}a_{i}$ recibe el nombre de suma infinita de $a_{n}$ ó la serie infinita de $a_{n}$.

  • Si $S_{n}$ converge se dice que la serie converge.
  • Si $S_{n}$ diverge se dice que la serie diverge.

Veamos unos ejemplos.

Ejemplos

  • Sea la serie $\sum_{i=1}^{\infty }a_{i}$ con $a_{i}=\frac{1}{2^{i}}$, diga si esta serie converge o diverge.

De la definición $(2)$ tenemos que:

$$\sum_{i=1}^{\infty}a_{i}=\lim_{n \to \infty}\sum_{i=1}^{n}\frac{1}{2^{i}}=\lim_{n \to \infty}S_{n}$$

Por la afirmación de la relación $(1)$, tenemos que:

$$\lim_{n \to \infty}S_{n}=\lim_{n \to \infty}\left ( \frac{2^{n}-1}{2^n} \right )=\lim_{n \to \infty}(1-\frac{1}{2^{n}})=1$$

ya que:

$$\lim_{n \to \infty}\frac{1}{2^{n}}=0$$

$$\therefore \sum_{i=1}^{\infty }\frac{1}{2^{i}}=\frac{1}{2}+\frac{1}{4}+….+\frac{1}{2^{i}}=1$$

Por tanto, la serie converge a un valor y ese valor es $1$.

  • Sea la serie $\sum_{i=1}^{\infty }(\frac{1}{n}-\frac{1}{n+1})$, diga si esta serie converge o diverge.

Vemos que:

$$a_{n}=\left ( \frac{1}{n}-\frac{1}{n+1} \right )$$

Así :

$$S_{1}=1-\frac{1}{2}=\frac{1}{2}$$

$$S_{2}=(1-\frac{1}{2})+(\frac{1}{2}-\frac{1}{2})=\frac{2}{3}$$

$$S_{3}=(1-\frac{1}{2})+(\frac{1}{2}-\frac{1}{3})+(\frac{1}{3}-\frac{1}{4})=1-\frac{1}{4}$$

Vemos que sigue una secuencia, por lo que podemos afirmar lo siguiente:

Afirmación: $$\sum_{i=1}^{\infty }(\frac{1}{n}-\frac{1}{n+1})=S_{n}=1-\frac{1}{n+1} \tag{3}$$

La demostración se le dejará como tarea moral, recuerde que este tipo de demostraciones se usa comúnmente la demostración por inducción.

Entonces de la afirmación $(3)$ tenemos que:

$$\sum_{i=1}^{\infty }(\frac{1}{n}-\frac{1}{n+1})=\lim_{n \to \infty}S_{n}=\lim_{n \to \infty}(1-\frac{1}{n+1})=1$$

ya que:

$$\lim_{n \to \infty}(\frac{1}{n+1})=0$$

$$\therefore \sum_{i=1}^{\infty }(\frac{1}{n}-\frac{1}{n+1})=1$$

Por lo tanto, la serie converge.

  • Sea la serie $\sum_{i=1}^{\infty }(-1)^{n}$, diga si esta serie converge o diverge.

Entonces tenemos que $a_{n}=(-1)^{n}$, vemos que:

$$S_{1}=-1,$$

$$S_{2}=0,$$

$$S_{3}=-1$$

$$S_{4}=0$$

Vemos que esta serie está oscilando, por lo que esta serie está dada como:

$$S_{n}=\left\{ \begin{array}{lcc}
             -1 & si \space n \space es \space impar   \\
             \\ 0 & si \space n \space es \space par \\
             \end{array}
   \right.$$

Por lo que:

$$\sum_{i=1}^{\infty }(-1)^{n}=\lim_{n \to \infty }S_{n} \to diverge$$

No existe el límite, porque vemos que la serie oscila entre los valores $-1$ y $0$.

A este tipo de series se les conoce como series oscilantes.

Tarea moral

Los siguientes ejercicios no son para evaluación, pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionados con el tema visto.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

Diga si las siguientes series convergen o divergen:

  1. $$\sum_{i=1}^{5} 1$$
  2. $$\sum_{i=1}^{\infty} \frac{1}{n}$$
  3. $$\sum_{i=1}^{\infty}\left ( \frac{1}{2} \right )^{n}$$
  4. $$\sum_{i=1}^{\infty}\frac{2}{4n^{2}-1}$$ Hint: Utilice fracciones parciales y demuestre por inducción que $\sum_{i=1}^{\infty}\frac{2}{4n^{2}-1}=\frac{1}{2n-1}-\frac{1}{2n+1}=1-\frac{1}{2n+1}$.
  5. Demuestre por inducción que: $\sum_{i=1}^{\infty }(\frac{1}{n}-\frac{1}{n+1})=1-\frac{1}{n+1}$

Más adelante…

En esta sección vimos la definición y notación de series y series infinitas viendo algunos ejemplos para entender las sumas parciales de estas series y determinando la convergencia y divergencia de algunas series, en la siguiente sección veremos unas series particulares que se llaman series geométricas.

Entradas relacionadas

Ecuaciones Diferenciales I: Soluciones a sistemas de ecuaciones diferenciales

Por Omar González Franco

Los errores y dificultades no resueltos en el pasado de las matemáticas
siempre han sido las oportunidades de su futuro.
– E. T. Bell

Introducción

En la entrada anterior vimos lo que es un sistema de ecuaciones diferenciales, en particular un sistema lineal de primer orden. Vimos también lo que es un problema de valores iniciales y establecimos la notación matricial.

Así mismo, vimos cómo es que una ecuación diferencial lineal de orden $n$ se puede transformar en un sistema lineal de primer orden, esto tiene bastante ventaja ya que, una vez que veamos cómo resolver sistemas de ecuaciones diferenciales, muchas veces será más sencillo resolver el sistema que resolver la ecuación de orden $n$ aplicando los métodos que ya conocemos.

En esta entrada estudiaremos las propiedades de las soluciones de los sistemas lineales de primer orden.

Cabe mencionar que mucho de lo que desarrollaremos en esta entrada es bastante similar a la teoría vista con las ecuaciones diferenciales de orden $n$, comenzando por la validez del principio de superposición.

A partir de ahora sólo usaremos la notación matricial y toda la teoría básica del álgebra lineal que éstas conllevan.

Soluciones de sistemas lineales de primer orden

Comencemos por estudiar el caso homogéneo. El sistema lineal de primer orden homogéneo es

$$\begin{pmatrix}
y_{1}^{\prime} \\ y_{2}^{\prime} \\ \vdots \\ y_{n}^{\prime}
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1} \\ y_{2} \\ \vdots \\ y_{n}
\end{pmatrix} \label{1} \tag{1}$$

O bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} \label{2} \tag{2}$$

En la entrada anterior definimos la solución de un sistema de ecuaciones diferenciales en el intervalo $\delta$ como el conjunto de $n$ funciones

$$S_{0} = \{y_{1}(t), y_{2}(t), \cdots, y_{n}(t)\} \label{3} \tag{3}$$

definidas en $\delta$ y diferenciables en el mismo intervalo, tales que satisfacen simultáneamente las $n$ ecuaciones diferenciables de un sistema lineal.

Las soluciones pueden ser escritas como el vector

$$\mathbf{Y} = \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} \label{4} \tag{4}$$

cuyos elementos son funciones derivables que satisfacen un sistema lineal en el intervalo $\delta$.

En las siguientes definiciones y teoremas se supondrá que los coeficientes $a_{ij}(t)$, $i, j \in \{1, 2, 3, \cdots, n\}$ y ,para el caso no homogéneo, las funciones $g_{i}(t)$, son continuas en algún intervalo común $\delta$.

Comencemos por mostrar que el principio de superposición también es valido para sistemas lineales.

Demostración: Consideremos la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$

con

$$\mathbf{Y}_{i} = \begin{pmatrix}
y_{1i} \\ y_{2i} \\ \vdots \\ y_{ni}
\end{pmatrix}$$

para $i = 1, 2, \cdots, m$. La derivada de $\mathbf{Y}_{i}$ esta dada por

$$\mathbf{Y}_{i}^{\prime} = \begin{pmatrix}
y_{1i}^{\prime} \\ y_{2i}^{\prime} \\ \vdots \\ y_{ni}^{\prime}
\end{pmatrix}$$

Entonces la derivada de la combinación lineal es

\begin{align*}
\mathbf{Y}^{\prime} &= \begin{pmatrix}
c_{1}y_{11}^{\prime} + c_{2}y_{12}^{\prime} + \cdots + c_{m}y_{1m}^{\prime} \\
c_{1}y_{21}^{\prime} + c_{2}y_{22}^{\prime} + \cdots + c_{m}y_{2m}^{\prime} \\
\vdots \\
c_{1}y_{n1}^{\prime} + c_{2}y_{n2}^{\prime} + \cdots + c_{m}y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \begin{pmatrix}
y_{11}^{\prime} \\ y_{21}^{\prime} \\ \vdots \\ y_{n1}^{\prime}
\end{pmatrix} + c_{2} \begin{pmatrix}
y_{12}^{\prime} \\ y_{22}^{\prime} \\ \vdots \\ y_{n2}^{\prime}
\end{pmatrix} + \cdots + c_{m} \begin{pmatrix}
y_{1m}^{\prime} \\ y_{2m}^{\prime} \\ \vdots \\ y_{nm}^{\prime}
\end{pmatrix} \\
&= c_{1} \mathbf{Y}_{1}^{\prime} + c_{2} \mathbf{Y}_{2}^{\prime} + \cdots + c_{m} \mathbf{Y}_{m}^{\prime}
\end{align*}

Como cada $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, m$, es solución del sistema homogéneo (\ref{2}) en $\delta$, entonces

$$\mathbf{Y}_{i}^{\prime} = \mathbf{A} \mathbf{Y}_{i}$$

así

\begin{align*}
\mathbf{Y}^{\prime} &= c_{1} (\mathbf{AY}_{1}) + c_{2} (\mathbf{AY}_{2}) + \cdots + c_{m} (\mathbf{AY}_{m}) \\
&= \mathbf{A}(c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}) \\
&= \mathbf{AY}
\end{align*}

En donde se ha hecho uso de la propiedad distributiva de la matriz $\mathbf{A}$ y de la hipótesis (\ref{5}). Por lo tanto, la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{m} \mathbf{Y}_{m}$$

también es solución y los es en el mismo intervalo común $\delta$ ya que esta compuesta de soluciones definidas en dicho intervalo.

$\square$

Intenta hacer la demostración.

Realicemos un ejemplo.

Ejemplo: Probar que la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

es solución del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

Solución: Probemos que cada uno de los vectores de la combinación lineal es solución y usemos el principio de superposición.

Los vectores son

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

Por un lado, derivemos estos vectores.

$$\mathbf{Y}^{\prime}_{1} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{2} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}^{\prime}_{3} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix}$$

Por otro lado, sustituyamos cada uno de los vectores en el sistema lineal y usemos los resultados anteriores.

$$\mathbf{AY}_{1} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
1 -1 \\ 1 -1 \\ 0
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{1}$$

$$\mathbf{AY}_{2} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
e^{2t} + e^{2t} \\ e^{2t} + e^{2t} \\ 0
\end{pmatrix} = \begin{pmatrix}
2e^{2t} \\ 2e^{2t} \\ 0
\end{pmatrix} = \mathbf{Y}^{\prime}_{2}$$

y

$$\mathbf{AY}_{3} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} = \begin{pmatrix}
0 \\ 0 \\ 3e^{3t}
\end{pmatrix} = \mathbf{Y}^{\prime}_{3}$$

De esta manera queda mostrado que los tres vectores son solución, ya que satisfacen el sistema. Por el principio de superposición concluimos que la combinación lineal

$$\mathbf{Y} = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + c_{3} \mathbf{Y}_{3} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

también es solución del sistema lineal.

$\square$

El principio de superposición nos indica que un sistema lineal puede tener más de una solución, sin embargo, similar al caso de ecuaciones diferenciales de orden $n$, buscamos soluciones que sean linealmente independientes entre sí. A continuación definimos la dependencia e independencia lineal de las soluciones en este contexto.

En la unidad anterior definimos una herramienta muy útil que, además de ayudarnos a resolver ecuaciones diferenciales de orden superior en algunos métodos, nos ayuda a determinar si un conjunto de soluciones es linealmente independiente, dicha herramienta es el Wronskiano, la definición en el caso de los sistemas lineales de primer orden, es la siguiente.

Se puede demostrar que si el Wronskiano es distinto de cero, entonces las soluciones son linealmente independientes, igual que antes, esto es conocido como el criterio para soluciones linealmente independientes. Para demostrar este hecho es conveniente recordar algunos resultados de álgebra que podremos usar en la demostración.

Recordemos que un sistema lineal de $n$ ecuaciones con $n$ incógnitas es un conjunto de ecuaciones

$$\begin{matrix}
b_{11}u_{1} + b_{12}u_{2} + \cdots + b_{1n}u_{n} = d_{1} \\
b_{21}u_{1} + b_{22}u_{2} + \cdots + b_{2n}u_{n} = d_{2}\\
\vdots\\
b_{n1}u_{1} + b_{n2}u_{2} + \cdots + b_{nn}u_{n} = d_{n}
\end{matrix} \label{9} \tag{9}$$

Con $b_{i, j}$ y $d_{i}$, $i, j \in \{1,2, 3, \cdots, n\}$ números reales dados y $u_{i}$, $i = 1, 2, \cdots, n$ las incógnitas. Usando la notación matricial podemos escribir el sistema (\ref{9}) como

$$\mathbf{BU} = \mathbf{D} \label{10} \tag{10}$$

con

$$\mathbf{B} = \begin{pmatrix}
b_{11} & b_{12} & \cdots & b_{1n} \\
b_{21} & b_{22} & \cdots & b_{2n} \\
\vdots & & & \vdots \\
b_{n1} & b_{n2} & \cdots & b_{nn}
\end{pmatrix}, \hspace{1cm} \mathbf{U} = \begin{pmatrix}
u_{1} \\ u_{2} \\ \vdots \\ u_{n}
\end{pmatrix}, \hspace{1cm} \mathbf{D} = \begin{pmatrix}
d_{1} \\ d_{2} \\ \vdots \\ d_{n}
\end{pmatrix}$$

Los resultados que nos interesan son los siguientes.

Si $\mathbf{D} = \mathbf{0}$, el sistema (\ref{10}) también recibe el nombre de sistema homogéneo.

Con estos resultados podemos demostrar el criterio para soluciones linealmente independientes que se enuncia a continuación.

Demostración:

$\Rightarrow$) Por demostrar: $W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$.

Sea $t_{0} \in \delta$ en el que $W(t_{0}) = 0$, en donde $W(t_{0})$ denota al Wronskiano con cada vector solución evaluado en el punto $t_{0}$.

$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0})) $$

En una combinación de ambos teoremas de los resultados de álgebra podemos deducir que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$, no todos cero, tal que

$$\mathbf{Y}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = 0 \label{11} \tag{11}$$

Lo que tenemos es un sistema lineal de $n$ ecuaciones homogéneo con $n$ incógnitas (sistema lineal en el contexto algebraico (\ref{10}) con $\mathbf{D} = \mathbf{0}$, no sistema lineal de ecuaciones diferenciales), dichas incógnitas son las constantes $c_{i}$, $i = 1, 2, \cdots, n$. La relación (\ref{11}) se cumple debido a que si el Wronskiano es igual a cero, entonces es posible que el sistema no tenga solución trivial y mucho menos una solución única, esto lo deducimos de los teoremas de álgebra que establecimos.

Por otro lado, sabemos por hipótesis que los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son solución del sistema homogéneo (\ref{2}) en el intervalo $\delta$, por el principio de superposición sabemos también que la combinación lineal

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n}$$

es solución de (\ref{2}) en $\delta$. Del resultado (\ref{11}) y de la unicidad de la solución se deduce que $\mathbf{Y}(t) = 0$ para algún punto $t = t_{0} \in \delta$, es decir,

$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$

Pero por hipótesis los vectores $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes en $\delta$, lo que implica que

$$c_{1} = c_{2} = \cdots = c_{n} = 0$$

lo cual es una contradicción con lo que establecimos en (\ref{11}). Por lo tanto, el Wronskiano tiene que ser distinto de cero, es decir

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$

$\Leftarrow$) Por demostrar: $S$ es linealmente independiente.

Este caso también lo demostraremos por contradicción. Supongamos que los vectores solución $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente dependientes en $\delta$, esto implica que existen constantes $c_{1}, c_{2}, \cdots, c_{n}$ no todos cero, tal que

$$c_{1} \mathbf{Y}_{1} + c_{2} \mathbf{Y}_{2} + \cdots + c_{n} \mathbf{Y}_{n} = 0$$

Este sistema lo podemos escribir en la forma (\ref{9}) como

$$\begin{matrix}
c_{1}y_{11} + c_{2}y_{12} + \cdots + c_{n}y_{1n} = 0 \\
c_{1}y_{21} + c_{2}y_{22} + \cdots + c_{n}y_{2n} = 0 \\
\vdots\\
c_{1}y_{n1} + c_{2}y_{n2} + \cdots + c_{n}y_{nn} = 0
\end{matrix}$$

En donde las funciones $y_{ij}$, $i, j \in \{1, 2, 3, \cdots, n\}$ son los coeficientes y las constantes $c_{i}$, $i = 1, 2, \cdots, n$ son las incógnitas. Debido a que las $c_{i}$ no son todas cero implica que el sistema no tiene solución trivial y por el segundo teorema de los resultados de álgebra concluimos que

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = 0$$

Pero, por hipótesis

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) \neq 0$$

lo cual es una contradicción y todo nace de considerar a $S$ como un conjunto linealmente dependiente. Por lo tanto, el conjunto de soluciones

$$S = \{\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}\}$$

es linealmente independiente en $\delta$.

$\square$

Un resultado interesante se enuncia a continuación.

Este resultado nos garantiza que si $W \neq 0$ para algún punto $t_{0} \in \delta$, entonces $W \neq 0$ para toda $t \in \delta$ y por el criterio anterior las soluciones serán linealmente independientes en ese intervalo.

El conjunto de soluciones linealmente independientes del sistema lineal (\ref{2}) recibe un nombre especial.

El siguiente teorema nos garantiza la existencia de este conjunto.

El conjunto fundamental de soluciones está constituido por vectores que son linealmente independientes entre sí, con estos vectores es posible formar una matriz cuyas columnas están formadas con las entradas de dichos vectores, esta matriz tiene un nombre especial.

Un hecho interesante es que el determinante de la matriz fundamental de soluciones corresponde al Wronskiano.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}) = |\mathbf{M}(t)| \label{13} \tag{13}$$

Realicemos un ejemplo, para ello consideremos el sistema lineal del ejemplo anterior.

Ejemplo: Mostrar que las soluciones

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

del sistema lineal

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

son linealmente independientes.

Solución: En el ejemplo anterior ya comprobamos que efectivamente son solución del sistema lineal dado. Para determinar si son linealmente independientes veamos si el Wronskiano es distinto de cero.

$$W(\mathbf{Y}_{1}, \mathbf{Y}_{2}, \mathbf{Y}_{3}) = \begin{vmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{vmatrix} = e^{5t} + 0 + 0 -0 -0 -(-e^{5t}) = 2e^{5t} \neq 0$$

Como $W \neq 0$, $\forall$ $t \in \mathbb{R}$, entonces los vectores dados son linealmente independientes y por lo tanto forman un conjunto fundamental de soluciones en $\mathbb{R}$.

$$S = \left\{ \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} \right\}$$

La matriz fundamental de soluciones es

$$\mathbf{M}(t) = \begin{pmatrix}
1 & e^{2t} & 0 \\ -1 & e^{2t} & 0 \\ 0 & 0 & e^{3t}
\end{pmatrix}$$

$\square$

Un buen ejercicio sería mostrar que un conjunto de soluciones del sistema lineal homogéneo (\ref{2}) forma un espacio vectorial, es relativamente sencillo probar cada una de las propiedades o axiomas que definen a un espacio vectorial. El resultado a demostrar de tarea moral es el siguiente.

Soluciones generales a sistemas lineales

Ahora que conocemos algunas propiedades de las soluciones de sistemas lineales, es momento de conocer la forma general de las soluciones de los sistemas lineales tanto homogéneos como no homogéneos.

Comencemos por enunciar el teorema que establece la forma de la solución general de un sistema lineal homogéneo (\ref{2}).

Demostración: Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema lineal homogéneo en el intervalo $\delta$, sea $t_{0} \in \delta$ y supongamos que

$$\mathbf{Y}(t_{0}) = \begin{pmatrix}
b_{1} \\ b_{2} \\ \vdots \\ b_{n}
\end{pmatrix} = \mathbf{Y}_{0}$$

Es decir, la función $\mathbf{Y}(t)$ satisface el problema de valores iniciales $\mathbf{Y}^{\prime} = \mathbf{AY}; \mathbf{Y}(t_{0}) = \mathbf{Y}_{0}$.

Por otro lado, por el principio de superposición sabemos que la combinación lineal

$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

también es solución del sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Donde $c_{i}$, $i = 1, 2, \cdots, n$ son constantes arbitrarias y las $\mathbf{Y}_{i}$, $i = 1, 2, \cdots, n$ son las soluciones del conjunto fundamental de soluciones del sistema lineal. Supongamos que

$$\hat{\mathbf{Y}}(t_{0}) = c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$

Lo que tenemos es el siguiente sistema de $n$ ecuaciones.

$$\begin{matrix}
c_{1}y_{11}(t_{0}) + c_{2}y_{12}(t_{0}) + \cdots + c_{n}y_{1n}(t_{0}) = b_{1} \\
c_{1}y_{21}(t_{0}) + c_{2}y_{22}(t_{0}) + \cdots + c_{n}y_{2n}(t_{0}) = b_{2} \\
\vdots \\
c_{1}y_{n1}(t_{0}) + c_{2}y_{n2}(t_{0}) + \cdots + c_{n}y_{nn}(t_{0}) = b_{n}
\end{matrix}$$

En donde las incógnitas son las contantes $c_{i}$, $i = 1, 2, \cdots, n$. Como las funciones $y_{ij}$, $i,j \in \{1, 2, 3, \cdots, n \}$ pertenecen a vectores del conjunto de soluciones, entonces sabemos que $\mathbf{Y}_{1}, \mathbf{Y}_{2}, \cdots, \mathbf{Y}_{n}$ son linealmente independientes y por el criterio para soluciones linealmente independientes inferimos que $W(t_{0}) \neq 0$, donde

$$W(t_{0}) = W(\mathbf{Y}_{1}(t_{0}), \mathbf{Y}_{2}(t_{0}), \cdots, \mathbf{Y}_{n}(t_{0}))$$

De los resultados de álgebra deducimos que el sistema de $n$ ecuaciones tiene solución única, esto significa que existen constantes únicas $c_{1}, c_{2}, \cdots, c_{n}$, tal que

$$c_{1} \mathbf{Y}_{1}(t_{0}) + c_{2} \mathbf{Y}_{2}(t_{0}) + \cdots + c_{n} \mathbf{Y}_{n}(t_{0}) = \mathbf{Y}_{0}$$

Esto nos indica que

$$\hat{\mathbf{Y}}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

es solución del problema de valores iniciales. Por el teorema de existencia y unicidad para sistemas lineales homogéneas concluimos que $\mathbf{Y}(t) = \hat{\mathbf{Y}}(t)$, es decir,

$$\mathbf{Y}(t) = c_{1} \mathbf{Y}_{1}(t) + c_{2} \mathbf{Y}_{2}(t) + \cdots + c_{n} \mathbf{Y}_{n}(t)$$

Como $\mathbf{Y}(t)$ es una solución arbitraria, entonces debe ser la solución general del sistema lineal homogéneo en $\delta$.

$\square$

Para concluir la entrada estudiemos el caso no homogéneo.

Sistemas no homogéneos

El sistema lineal de primer orden no homogéneo es

$$\begin{pmatrix}
y_{1}^{\prime}(t) \\ y_{2}^{\prime}(t) \\ \vdots \\ y_{n}^{\prime}(t)
\end{pmatrix} = \begin{pmatrix}
a_{11}(t) & a_{12}(t) & \cdots & a_{1n}(t) \\
a_{21}(t) & a_{22}(t) & \cdots & a_{2n}(t) \\
\vdots & & & \vdots \\
a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t)
\end{pmatrix} \begin{pmatrix}
y_{1}(t) \\ y_{2}(t) \\ \vdots \\ y_{n}(t)
\end{pmatrix} + \begin{pmatrix}
g_{1}(t) \\ g_{2}(t) \\ \vdots \\ g_{n}(t)
\end{pmatrix} \label{15} \tag{15}$$

O bien,

$$\mathbf{Y^{\prime}} = \mathbf{AY} + \mathbf{G} \label{16} \tag{16}$$

El vector de funciones que satisface el sistema (\ref{16}) es una solución y recibe un nombre.

A continuación se enuncia el teorema que nos muestra la forma general de la solución de un sistema lineal no homogéneo.

Demostración: Sea

$$\mathbf{Y}_{p}(t) = \begin{pmatrix}
y_{1p} \\ y_{2p} \\ \vdots \\ y_{np}
\end{pmatrix}$$

una solución particular de (\ref{16}) y sean $\mathbf{Y}_{1}(t), \mathbf{Y}_{2}(t), \cdots, \mathbf{Y}_{n}(t)$, $n$ soluciones linealmente independientes del sistema homogéneo asociado $\mathbf{Y^{\prime}} = \mathbf{AY}$.

Sea $\mathbf{Y}(t)$ una solución arbitraria del sistema no homogéneo, notemos lo siguiente.

\begin{align*}
(\mathbf{Y}(t) -\mathbf{Y}_{p}(t))^{\prime} &= \mathbf{Y}^{\prime}(t) -\mathbf{Y}_{p}^{\prime}(t) \\
&= (\mathbf{AY}(t) + \mathbf{G}) -(\mathbf{AY}_{p}(t) + \mathbf{G}) \\
&= \mathbf{A} (\mathbf{Y}(t) -\mathbf{Y}_{p}(t))
\end{align*}

Este resultado nos indica que $\mathbf{Y}(t) -\mathbf{Y}_{p}(t)$ es solución del sistema homogéneo, eso significa que se puede escribir como

$$\mathbf{Y}(t) -\mathbf{Y}_{p}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t)$$

entonces, la solución $\mathbf{Y}$ tiene la forma

$$\mathbf{Y}(t) = c_{1}\mathbf{Y}_{1}(t) + c_{2}\mathbf{Y}_{2}(t) + \cdots + c_{n}\mathbf{Y}_{n}(t) + \mathbf{Y}_{p}(t) \label{19} \tag{19}$$

La solución $\mathbf{Y}(t)$, al ser cualquier solución del sistema lineal no homogéneo, podemos deducir que la solución general debe tener la forma (\ref{19}), por lo que concluimos que $\mathbf{Y}(t)$ se trata de la solución general de (\ref{16}).

Considerando la hipótesis (\ref{17}) concluimos que la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = \mathbf{Y}_{c}(t) + \mathbf{Y}_{p}(t)$$

$\square$

Cuando estamos trabajando con un sistema lineal no homogéneo, la solución general del sistema lineal homogéneo asociado (\ref{17}) recibe un nombre particular.

Concluyamos con un ejemplo.

Ejemplo: Probar que el vector

$$\mathbf{Y}_{p} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$

es una solución particular del siguiente sistema lineal no homogéneo.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$

Solución: Por un lado, derivemos el vector dado.

$$\mathbf{Y}^{\prime}_{p} = \begin{pmatrix}
-\dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ -e^{t} + \dfrac{1}{2}e^{2t} + \dfrac{1}{2}e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$

Por otro lado, sustituyamos directamente en el sistema al vector dado.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix} + \begin{pmatrix}
e^{t} \\ e^{2t} \\ te^{3t}
\end{pmatrix}$$

Operando obtenemos lo siguiente.

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} + e^{t} \\ -\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t}+e^{2t} \\ \dfrac{3}{2}t^{2}e^{3t} + te^{3t}
\end{pmatrix} = \begin{pmatrix}
te^{2t} \\ -e^{t} + e^{2t} + te^{2t} \\ te^{3t} + \dfrac{3}{2}t^{2}e^{3t}
\end{pmatrix}$$

Los resultados obtenidos son los mismos, por lo tanto el vector $\mathbf{Y}_{p}$ es solución del sistema.

En los ejemplos anteriores de esta entrada probamos que el conjunto fundamental de soluciones del sistema lineal homogéneo asociado

$$\mathbf{Y}^{\prime} = \begin{pmatrix}
1 & 1 & 0 \\ 1 & 1 & 0 \\ 0 & 0 & 3
\end{pmatrix} \mathbf{Y}$$

esta constituido por los vectores linealmente independientes

$$\mathbf{Y}_{1} = \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix}, \hspace{1cm} \mathbf{Y}_{3} = \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

de manera que la función complementaria es

$$\mathbf{Y}_{c} = c_{1}
\begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix}$$

Como la solución general es

$$\mathbf{Y} = \mathbf{Y}_{c} + \mathbf{Y}_{p}$$

Entonces la solución general del sistema lineal no homogéneo es

$$\mathbf{Y}(t) = c_{1} \begin{pmatrix}
1 \\ -1 \\ 0
\end{pmatrix} + c_{2} \begin{pmatrix}
e^{2t} \\ e^{2t} \\ 0
\end{pmatrix} + c_{3} \begin{pmatrix}
0 \\ 0 \\ e^{3t}
\end{pmatrix} + \begin{pmatrix}
-\dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ -e^{t} + \dfrac{1}{4}e^{2t} + \dfrac{1}{2}te^{2t} \\ \dfrac{1}{2}t^{2}e^{3t}
\end{pmatrix}$$

$\square$

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  1. Los siguientes vectores son soluciones de un sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$. Determinar si forman un conjunto fundamental de soluciones en $\mathbb{R}$.
  • $\mathbf{Y}_{1} = \begin{pmatrix}
    1 \\ -1
    \end{pmatrix} e^{t}, \hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
    2 \\ 6
    \end{pmatrix}e^{t} + \begin{pmatrix}
    8 \\ -8
    \end{pmatrix}te^{t}$
  • $\mathbf{Y}_{1} = \begin{pmatrix}
    1 \\ 6 \\ -13
    \end{pmatrix},\hspace{1cm} \mathbf{Y}_{2} = \begin{pmatrix}
    1 \\ -2 \\ -1
    \end{pmatrix}e^{-4t}, \hspace{1cm} \mathbf{Y}_{3}= \begin{pmatrix}
    2 \\ 3 \\ -2
    \end{pmatrix}e^{3t}$
  1. Probar que el vector $\mathbf{Y}_{p}$ es una solución particular del sistema lineal dado.
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    2 & 1 \\ 3 & 4
    \end{pmatrix} \mathbf{Y} -\begin{pmatrix}
    1 \\ 7
    \end{pmatrix}e^{t}, \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}e^{t} + \begin{pmatrix}
    1 \\ -1
    \end{pmatrix}te^{t}$
  • $\mathbf{Y}^{\prime} = \begin{pmatrix}
    1 & 2 & 3 \\
    -4 & 2 & 0 \\
    -6 & 1 & 0
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    -1 \\ 4 \\ 3
    \end{pmatrix} \sin(3t), \hspace{1cm} \mathbf{Y}_{p} = \begin{pmatrix}
    \sin(3t) \\ 0 \\ \cos (3t)
    \end{pmatrix}$
  1. Mostrar que la solución general de

    $\mathbf{Y}^{\prime} = \begin{pmatrix}
    0 & 6 & 0 \\ 1 & 0 & 1 \\ 1 & 1 & 0
    \end{pmatrix} \mathbf{Y}$

    en el intervalo $(-\infty, \infty)$ es

    $\mathbf{Y} = c_{1} \begin{pmatrix}
    6 \\ -1 \\ -5
    \end{pmatrix}e^{-t} + c_{2} \begin{pmatrix}
    -3 \\ 1 \\ 1
    \end{pmatrix}e^{-2t} + c_{3} \begin{pmatrix}
    2 \\ 1 \\ 1
    \end{pmatrix}e^{3t}$
  1. Mostrar que la solución general de

    $\mathbf{Y}^{\prime} = \begin{pmatrix}
    -1 & -1 \\ -1 & 1
    \end{pmatrix} \mathbf{Y} + \begin{pmatrix}
    1 \\ 1
    \end{pmatrix}t^{2} + \begin{pmatrix}
    4 \\ -6
    \end{pmatrix}t + \begin{pmatrix}
    -1 \\ 5
    \end{pmatrix}$

    en el intervalo $(-\infty, \infty)$ es

    $\mathbf{Y} = c_{1} \begin{pmatrix}
    1 \\ -1 -\sqrt{2}
    \end{pmatrix}e^{\sqrt{2t}} + c_{2} \begin{pmatrix}
    1 \\ -1 + \sqrt{2}
    \end{pmatrix}e^{-\sqrt{2t}} + \begin{pmatrix}
    1 \\ 0 \end{pmatrix}t^{2} + \begin{pmatrix}
    -2 \\ 4
    \end{pmatrix}t + \begin{pmatrix}
    1 \\ 0
    \end{pmatrix}$
  1. Demostrar que el conjunto de soluciones del sistema lineal homogéneo $\mathbf{Y}^{\prime} = \mathbf{AY}$ forma un espacio vectorial con la suma y el producto por escalares usuales de matrices.

Más adelante…

Ahora que conocemos lo que son los sistemas lineales de ecuaciones diferenciales y las propiedades de sus soluciones estamos casi listos para comenzar a desarrollar los distintos métodos de resolución, sin embargo, antes de ello es necesario definir una herramienta matemática que será de suma utilidad en el desarrollo posterior de esta unidad. Dicha herramienta es la exponencial de una matriz.

En la siguiente entrada definiremos lo que significa $e^{\mathbf{A} t}$, donde $\mathbf{A}$ es una matriz de $n \times n$ con componentes constantes y veremos como se relaciona con un sistema lineal $\mathbf{Y}^{\prime} = \mathbf{AY}$. Así mismo, profundizaremos en el concepto de matriz fundamental de soluciones.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Geometría Moderna I: Triángulos en perspectiva

Por Rubén Alexander Ocampo Arellano

Introducción

En esta entrada mostraremos el teorema de Desargues que nos habla sobre triángulos en perspectiva, también mostraremos los teoremas de Pascal y de Pappus, estos nos dicen cuando los lados opuestos de un hexágono se intersecan en puntos colineales.

Definición. Dos triángulos $\triangle ABC$ y $\triangle A’B’C’$ están en perspectiva desde una recta si los lados correspondientes $AB$, $A’B’$; $BC$, $B’C’$ y $CA$, $C’A’$ se intersecan en puntos colineales, a dicha recta se le conoce como eje de perspectiva.

Dos triángulos $\triangle ABC$ y $\triangle A’B’C’$ están en perspectiva desde un punto si las rectas que unen vértices correspondientes $AA’$, $BB’$ y $CC’$ son concurrentes, a dicho punto se le conoce como centro de perspectiva.

Observación. Notemos que ya hemos trabajado con un tipo especial de perspectiva, la homotecia, donde los vértices correspondientes son concurrentes pero los lados correspondientes son paralelos.

En este caso el centro de perspectiva es el centro de homotecia y como las rectas paralelas se intersecan en el punto al infinito entonces la recta al infinito es el eje de perspectiva.

El siguiente teorema generaliza esta dualidad eje-centro de perspectiva.

Teorema de Desargues

Teorema 1, de Desargues. Dos triángulos tienen un centro de perspectiva si y solo si tienen un eje de perspectiva.

Demostración. Consideremos dos triángulos, $\triangle ABC$ y $\triangle A’B’C’$,
sean $R = AB \cap A’B’$, $P = BC \cap B’C’$ y $Q = CA \cap C’A’$.

Figura 1

Supongamos que $AA’$, $BB’$ y $CC’$ concurren en $S$, aplicamos el teorema de Menelao a $\triangle SAB$, $\triangle SAC$ y $\triangle SBC$ con sus respectivas transversales $B’A’R$, $C’A’Q$ y $B’C’P$.

$\begin{equation} \dfrac{SA’}{A’A} \dfrac{AR}{RB} \dfrac{BB’}{B’S} = -1, \end{equation}$
$\begin{equation} \dfrac{SA’}{A’A} \dfrac{AQ}{QC} \dfrac{CC’}{C’S} = -1, \end{equation}$
$ \begin{equation} \dfrac{SB’}{B’B} \dfrac{BP}{PC} \dfrac{CC’}{C’S} = -1. \end{equation}$

Hacemos el cociente de $(1)$ entre $(2)$ y obtenemos
$\begin{equation} \dfrac{AR}{RB} \dfrac{BB’}{B’S} \dfrac{QC}{AQ} \dfrac{C’S}{CC’} = 1. \end{equation}$

Multiplicamos $(3)$ por $(4)$ y obtenemos
$\dfrac{AR}{RB} \dfrac{BP}{PC} \dfrac{QC}{AQ} = – 1$.

Por lo tanto, por el teorema de Menelao, $P$, $Q$ y $R$ son colineales.

$\blacksquare$

Conversamente, supongamos que $RPQ$ es una recta y sea $S = BB’ \cap CC’$.

Notemos que $QR$, $CB$ y $C’B$ concurren en $P$ (figura 1), por lo tanto, $\triangle QCC’$ y $\triangle RBB’$ están en perspectiva desde $P$, por la implicación que ya probamos los puntos $A = QC \cap RB$, $A’ = QC’ \cap RB’$ y $S = BB’ \cap CC’$, son colineales.

Por lo tanto, $AA’$, $BB’$ y $CC’$ concurren en $S$.

$\blacksquare$

Punto de Gergonne

Proposición. Considera un triángulo $\triangle ABC$ y su incírculo $\Gamma$, sean $D$, $E$ y $F$ los puntos de tangencia de $\Gamma$ con los lados $BC$, $CA$ y $AB$ respectivamente, entonces $AD$, $BE$ y $CF$ son concurrentes, en un punto conocido como punto de Gergonne.

Demostración. En la entrada anterior demostramos que los triángulos $\triangle ABC$ y $\triangle DEF$ están en perspectiva desde la recta de Gergonne de $\triangle ABC$, es decir, $AB$, $DE$; $BC$, $EF$ y $CA$, $FD$ se intersecan en tres puntos colineales.

Figura 2

Por lo tanto, por el teorema de Desargues $AD$, $BE$ y $CF$ son concurrentes

$\blacksquare$

Triángulos con dos ejes de perspectiva

Teorema 2. Si dos triángulos tienen dos ejes de perspectiva entonces tienen tres ejes de perspectiva.

Demostración. Supongamos que los triángulos $\triangle ABC$ y $\triangle A’B’C’$ están en perspectiva desde dos rectas, es decir, los puntos, $Z = AB \cap B’C’$, $X = BC \cap C’A’$ y $Y = CA \cap A’B’$ son colineales y los puntos $R = AB \cap C’A’$, $P = BC \cap A’B’$ y $Q = CA \cap B’C’$ son colineales.

Sean $F = AB \cap A’B’$, $D = BC \cap B’C’$ y $E = CA \cap C’A’$, aplicamos el teorema Menelao a $\triangle ABC$ y las transversales $DZQ$, $FPY$ y $EXR$.

Figura 3

$\dfrac{AZ}{ZB} \dfrac{BD}{DC} \dfrac{CQ}{QA} = -1$,
$\dfrac{AF}{FB} \dfrac{BP}{PC} \dfrac{CY}{YA} = -1$,
$\dfrac{AR}{RB} \dfrac{BX}{XC} \dfrac{CE}{EA} = -1$.

Multiplicamos estas tres igualdades y reordenamos
$\dfrac{AF}{FB} \dfrac{BD}{DC} \dfrac{CE}{EA} (\dfrac{AZ}{ZB} \dfrac{BX}{XC} \dfrac{CY}{YA}) (\dfrac{AR}{RB} \dfrac{BP}{PC} \dfrac{CQ}{QA}) = – 1$.

Recordemos que como $X$, $Y$, $Z$ y $P$, $Q$, $R$ son colineales entonces
$\dfrac{AZ}{ZB} \dfrac{BX}{XC} \dfrac{CY}{YA} = – 1$,
$\dfrac{AR}{RB} \dfrac{BP}{PC} \dfrac{CQ}{QA} = – 1$.

Por lo tanto
$\dfrac{AF}{FB} \dfrac{BD}{DC} \dfrac{CE}{EA} = -1$.

Y por el teorema de Menelao $D$, $E$ y $F$ son colineales.

$\blacksquare$

Corolario. Si dos triángulos tienen dos centros de perspectiva entonces tienen tres centros de perspectiva.

Demostración. Por el teorema de Desargues, si dos triángulos tienen dos centros de perspectiva entonces tienen dos ejes de perspectiva.

Por el teorema anterior, existe un tercer eje de perspectiva.

Nuevamente por el teorema de Desargues, existe un tercer centro de perspectiva.

$\blacksquare$

Teorema de Pappus

Teorema 3, de Pappus. Si los vértices de un hexágono se encuentran alternadamente sobre dos rectas entonces los lados opuestos se intersecan en tres puntos colineales.

Demostración. Sean $ABCDEF$ un hexágono tal que $AEC$ y $DBF$ son dos rectas distintas,
$P = EF \cap AB$, $Q = AB \cap CD$, $R = CD \cap EF$,
$P’ = BC \cap ED$, $Q’ = DE \cap FA$ y $R’ = FA \cap BC$.

Figura 4

Notemos que las rectas $AEC$ y $DBF$ son dos ejes de perspectiva de $\triangle PQR$ y $\triangle P’Q’R’$, pues
$A = PQ \cap Q’R’$, $C = QR \cap R’P’$, $E = RP \cap P’Q’$,
$B = PQ \cap R’P’$, $D = QR \cap P’Q’$ y $F = RP \cap Q’R’$.

Por el teorema anterior $X = PQ \cap P’Q’$, $Y = QR \cap Q’R’$ y $Z = RP \cap R’P’$, son colineales.

$\blacksquare$

Teorema de Pascal

Teorema 4, de Pascal. En todo hexágono cíclico los pares de lados opuestos se intersecan en tres puntos colineales.

Demostración. Sean $ABCDEF$ un hexágono cíclico,
$X = AB \cap DE$, $Y = BC \cap EF$, $Z = CD \cap FA$ las intersecciones de los lados opuestos,
consideremos $P = DE \cap FA$, $Q = FA \cap BC$ y $R = BC \cap DE$.

Figura 5

Aplicaremos el teorema de Menelao a $\triangle PQR$ y las transversales $AXB$, $CDZ$ y $FEY$.
$\dfrac{PA}{AQ} \dfrac{QB}{BR} \dfrac{RX}{XP} = – 1$,
$\dfrac{PZ}{ZQ} \dfrac{QC}{CR} \dfrac{RD}{DP} = – 1$,
$\dfrac{PF}{FQ} \dfrac{QY}{YR} \dfrac{RE}{EP} = – 1$.

Si multiplicamos las tres ecuaciones y reacomodamos obtenemos
$\dfrac{PZ}{ZQ} \dfrac{QY}{YR} \dfrac{RX}{XP} (\dfrac{PF \times PA}{PE \times PD}) (\dfrac{QB \times QC}{QF \times QA}) (\dfrac{RD \times RE}{RC \times RB}) = -1$.

Por otro lado, las potencias de $P$, $Q$ y $R$ respeto al circuncírculo de $ABCDEF$ son la siguientes
$PF \times PA = PE \times PD$,
$QF \times QA = QB \times QC$,
$RD \times RE = RC \times RB$.

Por lo tanto $\dfrac{PZ}{ZQ} \dfrac{QY}{YR} \dfrac{RX}{XP} = -1$.

Por el teorema de Menelao $X$, $Y$ y $Z$ son colineales.

$\blacksquare$

Casos limite en el teorema de Pascal

Existen casos limite donde podemos hacer uso del teorema de Pascal, es decir, podemos considerar un triángulo, un cuadrilátero o un pentágono como un hexágono donde dos vértices se aproximaron hasta volverse uno solo y como consecuencia el lado comprendido entre ellos se vuelve una tangente al circuncírculo en dicho punto.

A continuación, ilustramos esto con un ejemplo.

Problema 1. Considera $\Gamma$ una circunferencia y $l$ una recta, $K \in l$ fuera de $\Gamma$, $P$, $Q \in \Gamma$, sean $KA$ y $KB$ las tangentes desde $K$ a $\Gamma$, $X = PA \cap l$, $Y = PB \cap l$, $C = QX \cap \Gamma$ y $D = QY \cap \Gamma$. Muestra que las tangentes a $\Gamma$ en $C$ y $D$ se intersecan en $l$.

Demostración. Sea $M$ la intersección de las tangentes a $\Gamma$ en $C$ y $D$, $U = AC \cap BD$ y $V = AD \cap BC$.

Figura 6

Por el teorema de Pascal en el hexágono $APBCQD$, $V$ es colineal con $X$ e $Y$, es decir $V \in l$.

Ahora aplicamos el teorema de Pascal al hexágono $AACBBD$, $U$ es colineal con $V$ y $K$, es decir $U \in l$.

Aplicando nuevamente Pascal a $ACCBDD$ tenemos que $M$ es colineal con $U$ y con $V$.

Por lo tanto, $M \in l$.

$\blacksquare$

Pascal, Desargues y un punto al infinito

Problema 2. Sean $\triangle ABC$ un triángulo acutángulo, $B’$ y $C’$ los puntos medios de $CA$ y $AB$ respectivamente, sea $\Gamma_1$ una circunferencia que pasa por $B’$ y $C’$ y que es tangente al circuncírculo de $\triangle ABC$, $\Gamma(ABC)$ en $T$. Muestra que $T$, el pie de la altura por $A$, y el centroide de $\triangle ABC$, son colineales.

Demostración. Sean $B’’ = TB’ \cap \Gamma(ABC)$, $C’’ = TC’ \cap \Gamma(ABC)$ y $D’ = BB’’ \cap CC’’$

Figura 7

Por el teorema de Pascal en el hexágono $ABB’’TC’’C$, $B’$, $D’$ y $C’$ son colineales.

Notemos que existe una homotecia con centro en $T$ que lleva a $\Gamma_1$ en $\Gamma(ABC)$, así que, $C’B’ \parallel C’’B’’$.

Como resultado, $\angle C’’CB = \angle CC’’B’’ = \angle CBB’’$, pues $\angle CC’’B’’$ y $\angle CBB’’$ abarcan el mismo arco.

En consecuencia, $\triangle D’BC$ es isósceles, por lo tanto, el pie de la altura por $D’$ en $\triangle D’BC$ es $A’$, el punto medio de $BC$, o conversamente, la proyección de $A’$ el punto medio de $BC$, en $B’C’$ es $D’$.

Recordemos que existe una homotecia con centro en $G$, el centroide de $\triangle ABC$, que lleva a $\triangle A’B’C’$ en $\triangle ABC$, como $D$ es el pie de altura por $A$ en $\triangle ABC$ y $D’$ el pie de la altura por $A’$ en $\triangle A’B’C’$, entonces $D$ y $D’$ son puntos homólogos en esta homotecia, por lo tanto, $D$, $G$ y $D’$ son colineales.

Por otro lado, como $BB’$, $CC’$ y $DD’$ concurren en $G$, $\triangle D’BC$ y $\triangle DB’C’$ están en perspectiva desde $G$.

Por el teorema de Desargues, los puntos $X = D’B \cap DB’$, $Y = D’C \cap DC’$, $P = BC \cap B’C’$, son colineales, pero $P$ es un punto ideal, pues por la homotecia entre $\triangle A’B’C’$ y $\triangle ABC$, $B’C’ \parallel BC$.

En consecuencia, $XY \parallel B’C’$.

Como $DB’ \cap D’B’’ = X$, $DC’ \cap D’C’’ = Y$ y $B’C’ \cap B’’C’’ = P$, entonces $\triangle DB’C’$ y $\triangle D’B’’C’’$ están en perspectiva desde $XY$, por el teorema de Desargues, $DD’$, $B’B’’$ y $C’C’’$ son concurrentes.

Por lo tanto, $T$, $D$ y $G$ son colineales.

$\blacksquare$

Más adelante…

En la siguiente entrada mostraremos el teorema de Ceva, que nos da condiciones necesarias y suficientes para que tres rectas, cada una por un vértice distinto de un triángulo dado, sean concurrentes.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Muestra que si tres triángulos:
    $i)$ tienen un eje común de perspectiva, entonces los tres centros de perspectiva son colineales,
    $ii)$ tienen un centro común de perspectiva, entonces los tres ejes de perspectiva son concurrentes.
  2. Muestra que todo triángulo esta en perspectiva desde una recta con:
    $i)$ su triángulo medial,
    $ii)$ su triángulo órtico.
  3. Sean $\triangle ABC$ y $D \in BC$, $\Gamma_1$, $\Gamma_2$, considera los incírculos de $\triangle ABD$ y $\triangle ADC$ respectivamente, $\Gamma_3,$ $\Gamma_4$ los excírculos tangentes a $BC$ de $\triangle ABD$ y $\triangle ADC$ respectivamente (figura 8). Prueba que las tangentes comunes externas a $\Gamma_1$, $\Gamma_2$ y $\Gamma_3$, $\Gamma_4$, concurren en $BC$.
Figura 8
  1. Sea $\square BB’C’C$ un rectángulo construido externamente sobre el lado $BC$ de un triángulo $\triangle ABC$, sean sea $A’ \in BC$, el pie de la altura por $A$, $X = AB \cap A’B’$, $Y = CA \cap C’A’$, muestra que $XY \parallel BC$.
  2. Considera $\Gamma$ el circuncírculo de un triangulo $\triangle ABC$, sean $Q$ el punto medio del arco $\overset{\LARGE{\frown}}{AB}$ que no contiene a $C$, $R$ el punto medio del arco $\overset{\LARGE{\frown}}{CA}$ que no contiene a $B$, $P$ un punto en el arco $\overset{\LARGE{\frown}}{BC}$ que no contiene a $A$, $H = AB \cap PQ$, $J = CA \cap PR$, prueba que $HJ$ pasa por el incentro de $\triangle ABC$.
  3. Sea $\triangle ABC$ y $B’ \in CA$, $C’ \in AB$, sean $D$, $E$ los puntos de tangencia de $\Gamma$ el incírculo de $\triangle ABC$, con $CA$ y $AB$ respectivamente, sean $C’X$ y $B’Y$ segmentos tangentes a $\Gamma$ tal que $X$, $Y \in \Gamma$ (figura 9), demuestra que $B’C’$, $DE$ y $XY$ son concurrentes.
Figura 9

Entradas relacionadas

Fuentes

  • Andreescu, T., Korsky, S. y Pohoata, C., Lemmas in Olympiad Geometry. USA: XYZ Press, 2016, pp 71-82.
  • Lozanovski, S., A Beautiful Journey Through Olympiad Geometry. Version 1.4. 2020, pp 103-109.
  • Johnson, R., Advanced Euclidean Geometry. New York: Dover, 2007, pp 230-239.
  • Coxeter, H. y Greitzer, L., Geometry Revisited. Washington: The Mathematical Association of America, 1967, pp 67-76.

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Cálculo Diferencial e Integral II: Probabilidad

Por Miguel Ángel Rodríguez García

Introducción

En la sección anterior vimos la aplicación de la integral para calcular la fuerza y la presión hidrostática de un fluido, en esta sección veremos como se aplica la integral en probabilidad.

Probabilidad

El concepto de probabilidad desempeña un papel en el análisis del comportamiento aleatorio, usando a la probabilidad como la medida que un evento ocurra o no, siendo el conjunto de eventos posibles que pueden ser finitos. La probabilidad denotada comúnmente por la letra $P$ es un número donde $0 \leq P \leq 1$, indicando que, si $P$ es muy próximo a $0$ entonces es más improbable que ocurra el evento, mientras que, si $P$ es próximo a $1$ entonces es muy probable que ocurra el evento.

Sabemos que el área debajo de una curva lo podemos calcular con una integral definida, también se puede calcular la probabilidad de que ocurra un evento dentro de un intervalo $[a, b]$ dada una variable aleatoria continua $X$, recordemos que una variable aleatoria continua es aquella que puede tomar cualquier valor dentro de un intervalo. Cada variable aleatoria continua tiene una función de densidad de probabilidad denotada por $f(x)$, por lo que al integrar esta función se puede calcular la probabilidad de que $X$ esta en $[a, b]$.

La función de densidad de probabilidad $f(x)$ de una variable aleatoria $X$ satisface las siguientes condiciones:

  • $$f(x) \geq 0 \space \space \forall x$$

El área bajo la función de densidad es unitaria:

  • $$\int_{- \infty}^{\infty}f(x)dx=1$$

Definición: La probabilidad de que $X$ toma un valor en el intervalo $[a, b]$ es el área bajo la curva de la función de densidad dada como:

$$P(a \leq x \leq b)=\int_{a}^{b}f(x)dx$$

Veamos un ejemplo.

  • ¿Cuál es la probabilidad de que reciba un paquete entre las $3 \space PM$ y $5 \space PM$? Con la siguiente función de probabilidad:

$$f(x)=\left\lbrace\begin{array}{c} \frac{2}{99}(x+12)-\frac{14}{99} \space \space \space \space -5\leq x \leq 4\\ \frac{-1}{11}(x+12)+\frac{18}{11} \space \space \space \space 4 \leq x \leq 6 \end{array}\right.$$

Calculamos la probabilidad como:

$$P(3 \leq x \leq 5)=\int_{3}^{5}f(x)dx=\int_{3}^{4}\left ( \frac{2}{99}(x+12)-\frac{14}{99} \right )dx+\int_{4}^{5}\left ( \frac{-1}{11}(x+12)+\frac{18}{11} \right )dx$$

$$=\frac{2}{99}\left [ \frac{x^{2}}{2}+5x \right ]\bigg|_{3}^{4}-\frac{1}{11}\left [ \frac{x^{2}}{2}-6x \right ]\bigg|_{4}^{5}=\frac{17}{99}+\frac{1.5}{11}$$

$$\therefore P(3 \leq x \leq 5)=\frac{61}{198} \approx 0.308$$

  • Sea $f(x)=0.006x(10-x)$ para $0 \leq x \leq 10$ y $f(x)=0$ para todos los demás valores de $x$. Compruebe que $f(x)$ es una función de densidad de probabilidad y determine $P(4 \leq X \leq 8)$.

Para comprobar que $f$ es una función de densidad de probabilidad, entonces vemos que para $0 \leq x \leq 10$ se tiene que $0.006x(10-x)\geq 0$, por tanto $f(x)\geq 0$.

Ahora veamos que satisfaga $\int_{- \infty}^{\infty}f(x)dx=1$:

$$\int_{-\infty}^{\infty}f(x)dx=\int_{0}^{10}0.006x(10-x)dx=0.006\int_{0}^{10}(10x-x^{2})dx=0.006\left [ 5x^{2}-\frac{1}{3}x^{3} \right ]\bigg|_{0}^{10}=0.006\left ( 500-1000/3 \right )=1$$

Por tanto, $f$ es una función de densidad de probabilidad.

Ahora la probabilidad de que $X$ está entre $4$ y $8$ lo calculamos como:

$$P(4 \leq X \leq 8)=\int_{4}^{8}f(x)dx=\int_{4}^{8}0.006x(10-x)dx=0.006\int_{4}^{8}(10x-x^{2})dx=0.006\left [ 5x^{2}-\frac{1}{3}x^{3} \right ]\bigg|_{4}^{8}=0.544$$

$$\therefore P(4 \leq X \leq 8)= 0.544 $$

Aplicación en física

En física se pueden encontrar problemas que involucren la probabilidad, por ejemplo, en mecánica cuántica se puede calcular la probabilidad en la que una partícula se encuentra en una caja, aunque en este caso sabemos que el resultado es 1, ya que en cualquier punto dentro de la caja la partícula está adentro, pero veamos en un enfoque probabilístico.

La función de onda, representada como $\psi (x,t)$, es la amplitud de encontrar la partícula en un punto dado en el espacio. Si esta partícula se encuentra en una caja de longitud $L$, con una función de onda constante $\psi (x,t)=C$, entonces:

$$P(-\infty, \infty)=\int_{-\infty}^{\infty}\mid \psi(x,t) \mid^{2}dx=1$$

Teniendo la condición de normalización, así tenemos que:

$$P(0,L)=\int_{0}^{L}\mid C\mid^{2}dx=\mid C\mid ^{2}\int_{0}^{L}dx=\mid C\mid ^{2}L=1$$

$$\Rightarrow C=\sqrt{\frac{1}{L}}$$

La probabilidad de encontrar esta partícula lo calculamos como:

$$P(0,L)=\int_{0}^{L}\mid \sqrt{\frac{1}{L}}\mid^{2}dx=\mid \sqrt{\frac{1}{L}}\mid ^{2}\int_{0}^{L}dx=\mid \sqrt{\frac{1}{L}}\mid ^{2}L=1$$

Lo que se esperaba, la probabilidad de encontrar la partícula dentro de la caja es 1, aunque es un ejemplo muy sencillo, la probabilidad se puede encontrar más allá de la física.

Media de una variable aleatoria

La media de cualquier variable aleatoria se define como:

$$\mu = \int_{-\infty}^{\infty}xf(x)dx$$

Se interpreta como el valor promedio de la variable aleatoria $X$ o se interpreta también como una medida de la posición central de la función de densidad de probabilidad.

Distribución Normal

Muchos fenómenos aleatorios importantes se pueden modelar mediante una distribución normal, el cual se define como:

$$f(x)=\frac{1}{\sigma \sqrt{2 \pi}}e^{-\frac{(x-\mu)^{2}}{2 \sigma ^{2}}}$$

Donde $\mu$ es la media de la función $f(x)$, $\sigma$ es la desviación estándar, el cual se puede interpretar como; que tan dispersos están los valores de $X$. Geométricamente, esta distribución normal tiene una figura similar al de una campana, como se muestra en la siguiente imagen.

Figura 1: Distribución normal con $\mu=0$ y $\sigma=1$.

El factor $\frac{1}{\sigma \sqrt{2 \pi}}$ es necesario para que $f(x)$ sea normalizable y, por tanto, sea una función de densidad de probabilidad.

Tarea moral

Los siguientes ejercicios no son para evaluación, pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionados con el tema visto.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Sea $f(x)=kx^{2}(1-x)$ si $0 \leq x \leq 1$ y $f(x)=0$ si $x<0$ o $x>1$. Para que valor de $k$ es una función de densidad de probabilidad.
  2. Encuentre la media de la distribución exponencial dada como: $$f(t)=\left\lbrace\begin{array}{c} 0 \space \space si \space \space t<0 \\ ce^{-ct} \space \space si \space \space t \geq 0\end{array}\right.$$
  3. Suponga que el tiempo de espera promedio para que la llamada de un cliente sea contestada por un representante de una compañía es de 5 minutos.
    1. Encuentre la probabilidad en la que una llamada sea contestada durante el primer minuto.
    2. Determine la probabilidad en el que la llamada de un cliente espere mas de cinco minutos a que sea contestada su llamada.
  4. Las puntuaciones del cociente intelectual (CI) tiene una distribución normal con media $100$ y desviación estándar $15$. ¿Qué porcentaje de la población tiene una puntuación de CI entre 85 y 115. Hint: La función $y=e^{x^{2}}$ no tiene una antiderivada elemental por lo que no se puede evaluar la integral de manera exacta por lo que se tiene que usar un método numero, regla de Simpson o regla del punto medio para aproximar la integral.

Más adelante…

En esta unidad vimos una pequeña introducción a la probabilidad, así como la media de una variable aleatoria y la distribución Gaussiana como aplicación de la integral. Con este tema acabamos la unidad 6, en la siguiente sección comenzaremos la unidad 7 empezando a estudiar series.

Entradas relacionadas

Cálculo Diferencial e Integral II: Fuerza y presión hidrostática

Por Miguel Ángel Rodríguez García

Introducción

En esta sección veremos otra aplicación de las integrales en el área de la física y es en la presión hidrostática, que resuelve algunos problemas que requieren determinar fuerzas o presiones que actúan sobre un objeto sumergido en algún fluido estático.

Fuerza y presión hidrostática

Supongamos que una placa horizontal delgada con área $A$ sumergido en un fluido con densidad constante $\rho$ a una profundidad $h$ debajo de la superficie del fluido como se muestra en la figura $(1)$.

Figura 1: Placa sumergida en un fluido.

El volumen del fluido sobre la placa es:

$$V=Ah$$

De modo que su masa es:

$$m=\rho V=\rho Ah$$

Por lo que la fuerza que ejerce la placa sobre el fluido es:

$$F=mg=\rho g Ah$$

Donde $g$ es la aceleración ejercida por la gravedad $(g=9.81 \space m/s^{2})$ en la Tierra. Recordemos que la presión $P$ se define como la fuerza por unidad de área:

$$P=\frac{F}{A}=\rho gh$$

Donde las unidades son Pascales o Newton por metro cuadrado: $1 \space N/m^{2}=1 \space Pa$.

A la cantidad $w=\rho g$ se le conoce como el peso específico, gravedad especifica o densidad de peso.

Veamos un ejemplo:

  • ¿Cuál es la presión y la fuerza sobre la parte superior de un plato plano y circular de 3 metros que está sumergido a 10 metros bajo el agua.

Recordemos que la densidad del agua es: $\rho=1000 \space kg/m^{3}$, entonces podemos calcular la presión como:

$$P=\rho gh=\left ( 1000 \space kg/m^{3}\right )\left (9.81 \space m/s^{2} \right )\left (10m \right )=98000 \space Pa$$.

Como la fuerza la podemos calcular como: $F=PA$, entonces:

$$F=P \pi r^{2}=\left (98000 \space Pa \right )\left (\pi \right )\left (3m \right )^{2}=2.77×10^{6}N$$

Existe un principio importante, a este principio se le denomina el principio de Pascal, el cual nos dice que la presión de un fluido en el que cualquier punto en un líquido, la presión es la misma en todas las direcciones, es decir, un buzo siente la misma presión en la nariz y en ambos oídos. Al tener la presión dependiente de la profundidad, entonces al sumergir un cuerpo más profundo en un fluido, la presión va cambiando, veamos como va cambiando.

Figura 2: Superficie sumergido en un fluido.

Supongamos que una superficie plana se sumerge verticalmente en un fluido con densidad de peso $w$ donde la parte sumergida se extiende sobre el eje $y$ desde $y=a$ hasta $y=b$. Hacemos una partición de $[a, b]$ cortando la región en delgadas franjas horizontales perpendiculares al eje $y$ por lo que el ancho de estas franjas es $\Delta y$ unidades por $L(y)$ unidades de largo (figura $(2)$), por lo que la fuerza que ejerce el fluido contra un lado de la franja se aproxima como:

$$\Delta F\approx w \space \cdot (profundidad \space de \space la \space franja) \cdot \space L(y)\cdot \Delta y$$

Supongamos que hay $n$ franjas en el intervalo $[a, b]$, sumamos estas $n$ franjas, por lo que la suma de Riemann es:

$$F \approx \sum_{i=1}^{n} w \space \cdot (profundidad \space de \space la \space franja) \cdot \space L(y_{i})\cdot \Delta y_{i}$$

Para una función continua en el intervalo $[a, b]$ y tendiendo a $n \to \infty$ entonces se tiene que:

$$F=\int_{a}^{b} w \space h(y) L(y)dy$$

Veamos un ejemplo:

  • Calcule la fuerza del fluido total que se ejerce sobre una pared vertical en una represa con altura de $100m$ y ancho $300m$

Calculemos la densidad de peso como:

$$w=\rho g=\left (1000 \space kg/m^{3} \right )\left (9.81 \space m/s^{2} \right )=9800 \space N/m^{2}$$

Supongamos que la profundidad va variando como $h(y)=y$ y el ancho de la represa es $L=300 \space m$, por lo que la fuerza la podemos calcular como:

$$F=\int_{0}^{100}wh(y)L(y)dy=\int_{0}^{100}\left (9800 \right )\left (y \right )\left (300 \right )dy=2.94×10^{6}\int_{0}^{100}y dy$$

$$=2.94×10^{6}\left [ \frac{y^{2}}{2} \right ]\bigg|_{0}^{100}=1.47×10^{10} \space N$$.

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

Tarea moral

Los siguientes ejercicios no son para evaluación, pero son ejercicios para que practiques lo aprendido que te ayudaran en el desarrollo del entendimiento del tema, por lo que te invitamos a resolver los siguientes ejercicios propuestos relacionados con el tema visto.

  1. ¿Cuál es la presión en el fondo de una alberca a 2 metros?.
  2. Encuentre la fuerza en un lado de un contenedor cubico de $6 \space cm$ si el recipiente esta lleno de mercurio. La densidad del mercurio es $\rho=13600 \space kg/m^{3}$
  3. Una placa triangular rectángulo de base $2 \space m$ altura $1 \space m$ está sumergida verticalmente en agua, con el vértice superior $3 \space m$ debajo de la superficie. Encuentra la fuerza en un lado de la placa. Hint: Considere la ecuación de una recta.
  4. Determine la fuerza hidrostática sobre una cara de un cilindro con radio de $3 \space cm$ si el cilindro esta sumergido a $10 \space cm$. Hint: Utilice la ecuación de un circulo y ponga el origen en el centro del cilindro.
  5. Una placa triangular rectángulo de base $2 \space m$ y altura $1\space m$ está sumergida verticalmente en agua, con el vértice superior $3\space m$ debajo de la superficie. Encuentra la fuerza en un lado de la placa.

Más adelante…

En esta sección, vimos como resolver algunos problemas de fuerza y presión en algún fluido estático, en la siguiente sección veremos otra aplicación de la integral en el área de la probabilidad.

Entradas relacionadas