Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Cálculo Diferencial e Integral II: Propiedades de la integral indefinida

Por Moisés Morales Déciga

Introducción

En la entrada anterior se dio el paso de generalizar la integral. Ya no solo considerarla como un valor, si no como una función.

Al momento de precisar esta generalización, pudimos encontrar el paralelismo que existe con la integral definida, lo podemos ver de la siguiente forma.

$$\text{Integral Definida} \Rightarrow \int \limits_a^b f(u) \ du.$$

$$\text{Integral Indefinida} \Rightarrow \int \limits_a^x f(u) \ du.$$

Como lo mencionamos anteriormente, la diferencia reside en el intervalo de integración, como se observa arriba sería el límite superior.

Pero, sin perdida de generalidad, se puede considerar el límite inferior o ambos, ya que el hecho de que sea indefinida es que no tiene un inicio o fin especifico, si no que estos dependen de una variable.

Entonces, el resultado de la integral no es un número real, ahora es una función que depende de la variable $x$, en este caso.

Y, dado que esta es nuestra única diferencia, se puede hacer analogía con las propiedades propuestas con la integral definida.

I. Aditividad

Considere un intervalo de integración $[a,x]$, y un punto $c$ dentro de este intervalo. $a<c<x.$

Entonces, la integral se puede separar de la siguiente forma.

$$ \int \limits_a^x f(u) \ du = \int \limits_a^c f(u) \ du + \int \limits_c^x f(u) \ du.$$

En este caso, se genera una integral definida y una integral indefinida.

Ejemplo:

Sea $f(u)$ la siguiente función.

$$f(u) =\left\lbrace\begin{array}{c} u^2 \ \ [0, 3] \\ sin(u) \ \ (3,10] \end{array}\right.$$

Se pueden tener diferentes casos al momento de pedir la integral de la función, ya que se puede partir el intervalo dependiendo del valor de $x$.

a) Si $ 0 \leq x \leq 3.$

Entonces, la integral de $f(u)$ se plantea como sigue.

$$\int \limits_0^x u^2 \ du.$$

Ya que es la parte donde la función tiene el dominio que se quiere integrar.

b) Si $ 3 < x \leq 10.$

Entonces la integral se ve de la siguiente manera.

$$\int \limits_3^x sin(u) \ du.$$

Y tenemos el mismo argumento que en el caso anterior.

c) Si $x \in [0,10] \ y \ x > 3.$

En este caso la $x$ corre en todo el intervalo y está condicionado que $x$ tiene que ser mayor que 3, entonces la integral se ve de la siguiente manera.

$$\int \limits_0^x f(u) \ du = \int \limits_0^3 u^2 \ du + \int \limits_3^x sin(u) \ du.$$

Y este caso, como se mencionó en la propiedad de la Aditividad, genera una integral definida y una integral indefinida.

d) Si $x \in [0,10] .$

Este caso solo condiciona a que el valor de $x$ tiene que estar dentro del dominio de la función, por lo que la integral queda de la siguiente manera.

$$ \int \limits_a^x f(u) \ du .$$

Y que se podrá dar solución en el momento en que se defina el valor de $x$.

II. Suma

Sea $h(u)$ una función tal que:

$$h(u) = f(u) + g(u).$$

Donde $f(u)$ y $g(u)$ también son funciones. Entonces, para calcular la integral de $h(x)$, tenemos la siguiente propiedad.

$$\int \limits_a^x h(u) \ du = \int \limits_a^x [f(u) \ + \ g(u)] \ du = \int \limits_a^x f(u) \ du + \int \limits_a^x g(u) \ du. $$

Entonces, la integral de una suma, es la suma de las integrales.

III. Producto por una constante

Sea $h(u)$ una función tal que $h(u)= c \cdot f(u)$, donde $c$ es cualquier real y $f(u)$ una función. Entonces,

$$\int \limits_a^x h(u) \ du = \int \limits_a^x c \cdot f(u) \ du = c \int \limits_a^x f(u) \ du.$$

Las constantes que se encuentran multiplicando a una función pueden entrar y salir de la integral.

IV. Linealidad

Sean $f(x)$ y $h(x)$ dos funciones y sean $\alpha$ y $\beta$ dos números reales. Entonces:

$$\int \limits_a^x [\alpha \ f(u) + \beta \ g(u)] \ du = \alpha \int \limits_a^x f(u) \ du + \beta \int \limits_a^x g(u) \ du.$$

Esta propiedad contiene a las dos anteriores (suma y producto), lo que la hace sumamente útil y provoca que se mencione en múltiples ocasiones.

Más adelante…

Ya que tenemos estás propiedades, podemos simplificar el proceso para desarrollar la integral y poder descomponerla en integrales más simples ó, en caso contrario, podemos aplicarlas para poder simplificarlas (reducirlas) o encontrar una sustitución adecuada para que se pueda integrar con mayor facilidad.

En la siguiente sección, tendremos un recordatorio de derivadas. Esto es necesario ya que existe una relación importante entre la derivada y la integral. Es posible que para este momento de tu formación, haz escuchado que la integral es el proceso contrario a o la inversa de la derivación.

Entonces, para poder explicar esta relación entre ambos procesos, es necesario recordar como funciona la derivada, que significa y como se calcula.

Tarea moral

  1. Utiliza la propiedad de linealidad.
    $$\int \limits_a^x \alpha \ \left[ f(u) \ – \ g(u) + 1 \right] \cdot \beta \ h(u) \ du.$$
  2. Aplique las reglas correspondientes para expandir la forma de la integral, para los diferentes casos.
    $$f(x) = \left\lbrace\begin{array}{c} 3x^2 \ – \ x + 13 \ \ [0, 5] \\ \frac{7}{x} \ \ (5,10] \end{array}\right.$$
    i) Integral indefinida para cualquier $x$ entre 5 y 9.
    ii) Integral indefinida para cualquier $x$ entre 0 y 5.
    ii) Integral indefinida para cualquier $x$ entre 3 y 8, pasando por el 5.
  3. Aplique las reglas correspondientes para dejar en una sola integral la siguiente integral.
    $$1/7 \int \limits_a^x u^6 \ du \ – \ 7 \int \limits_a^x cos(u) \ du \ + \ 8 \int \limits_a^x \frac{1}{u+1} \ du.$$

Entradas relacionadas

  • Página del curso: Cálculo Diferencial e Integral II
  • Entrada anterior: La integral como función del límite superior – Integral Indefinida
  • Entrada siguiente: Recordatorio de derivadas

Cálculo Diferencial e Integral II: La integral como función del límite superior, integral indefinida.

Por Moisés Morales Déciga

Introducción:

En la primera unidad del curso, hemos definido la integral mediante las sumas de Riemann considerando los distintos comportamiento que estas pueden tener.

Vimos que hacer en los casos sencillos donde se tienen funciones bien portadas como las continuas, acotadas, monótonas, etc. Pero también se vieron casos más interesantes, por ejemplo, como cuando son continuas en subintervalos, y estos podían ser finitos o infinitos, como las funciones escalonadas o la función de Dirichlet.

En estos ejemplos se mostraba la integrabilidad o la no integrabilidad de la función. Pero a pesar de que los ejemplos podían ser contrastantes entre sí, todos compartían una característica y era que se encontraban definidos dentro de un intervalo cerrado.

Esto era, que la función se encontraba dentro de un segmento del eje de las abscisas el cual tenía un inicio y un fin bien determinado.

En esta nueva unidad se tendrá una generalización de este proceso. Ya no se considerarán intervalos con un inicio y fin, ahora trabajaremos la integral en un intervalo que el inicio o el fin (o ambos) dependerán de una variable, por lo que será un intervalo no definido.

A este nuevo fenómeno de generar la integral en un intervalo no definido se le conocerá como integral indefinida.

Integral Indefinida

En la unidad anterior se determinó que el valor de la integral depende del intervalo de integración o de los límites de integración donde teníamos la siguiente representación $[a,b]$.

Y se decía que el límite inferior era el punto $a$ y el límite superior era el punto $b$ y entre esos dos puntos se tenía la curva de la función y la integral era el área contenida bajo esa curva.

Ahora, consideremos el límite inferior como un número fijo $\alpha$, que no es un número particular, es decir, que puede ser cualquiera. Y el límite superior será una variable denotada con $x$. Teniendo la siguiente notación.

$$ \phi (x) =\int \limits_{\alpha}^{x} f(u) \ du.$$

Así que la función $\phi(x)$ se denomina como la integral indefinida de la función $f(x)$.

De forma que la función $\phi(x)$, es una función que depende de $x$.

Esto cambia la percepción de la integral ya que, anteriormente, solo se concebía la integral como un número (que era el área bajo la curva). Pero ahora la integral ya no solo es un escalar, a partir de este momento, podemos mostrar que la integral también es una función que puede depender de una variable independiente.

De manera análoga, se puede hacer que el límite inferior sea variable y, por lo tanto, que ambos límites puedan variables o dependan de otra función.

De una forma geométrica, se puede ver de la siguiente manera.

Así que la integral indefinida $ \phi (x) $ está dada por el área sombreada en rojo, que se encuentra delimitada por la curva en azul $y=f(u)$ dentro del intervalo $[\alpha , x]$.

Entonces, hasta que no se determine un valor para $x$, el valor de la integral irá cambiando.

Se debe recordar que el signo del área se determina por el cuadrante en el que se encuentra, como se vio en la Unidad 1.

Observación: Cualquier integral definida es un caso particular de una integral indefinida $\phi(x)$.

En el momento en que se define el valor de $\alpha$ y de $x$, recuperamos un intervalo definido y tenemos una integral definida.

Las reglas básicas para la integral que se vieron, tienen su generalización con integrales indefinidas, por ejemplo, la suma:

\begin{align*}
\int \limits_a^b f(u) \ du & = \int \limits_a^\alpha f(u) \ du + \int \limits_\alpha^b f(u) \ du \\ &= – \int \limits_\alpha^a f(u) \ du + \int \limits_\alpha^b f(u) \ du \\ & = \phi(b) \ – \ \phi(a) .
\end{align*}

De esta forma queda una integral definida en términos de integrales indefinidas.

Así, se puede expresar cualquier integral indefinida con límite inferior $\alpha’$ en términos de $\phi(x)$:

$$ \int \limits_{\alpha’}^x f(u) \ du = \phi(x) \ – \ \phi({\alpha’}) . $$

En donde $\phi({\alpha’}) $ es una constante, así que, sin pérdida de generalidad, se puede concluir que cualquier integral definida difiere de la integral indefinida $\phi(x)$ por una constante.

$$ \int \limits^x f(u) \ du = \phi(x) + C.$$

Donde a $C$ se le conoce como la constante de integración.

Continuidad de la integral indefinida

En la unidad anterior, al momento de trabajar con funciones continuas nos era sencillo generar las sumas de Riemann ya que se encontraba la función dentro del intervalo bien definida en todo momento. No presentaba saltos extraños o, como era continua, no presentaba discontinuidades en ningún tramo del intervalo o de cualquier partición de este.

En este caso, hemos dicho que la integral indefinida también es una función. Entonces, es importante conocer cuales son las características de esta nueva función.

En este caso, vamos a mostrar que la integral de una función continua, también es continua, entonces:

Sea $f(x)$ función continua en el intervalo $[a,b]$ y sea $\alpha$ un punto dentro del intervalo, i.e. $\alpha \in [a,b]$. Se define la integral indefinida como:

$$\phi(x) = \int \limits_\alpha^x f(u) \ du.$$

Teorema: La integral indefinida $\phi(x)$ de una función $f(x)$ continua, es asimismo, continua.

Demostración:

Sea $x, y$ dos valores dentro del intervalo donde la función es continua.

Por el teorema del valor medio se tiene que:

\begin{align*}
\phi(y) \ – \ \phi(x) & = \int \limits_x^y f(u) \ du \\ &
= f(\xi) (y \ – \ x).
\end{align*}

Donde $\xi$ es algún valor en el intervalo con puntos extremos $x$ y $y$.

Ahora, por la continuidad de $f$, obtenemos lo siguiente:

\begin{align*}
\lim_{y \rightarrow x} \phi(y) & = \lim_{y \rightarrow x} [\phi(x) + f(\xi) (y \ – \ x) ] \\&
= \ \lim_{y \rightarrow x} \phi(x) + \lim_{y \rightarrow x} f(\xi) (y \ – \ x) \\ &
= \ \phi(x) \ + \ f(\xi) \ \lim_{y \rightarrow x} (y \ – \ x) \\ &
= \ \phi(x) + f(\xi) \cdot 0
\end{align*}

$$\therefore \lim_{y \rightarrow x} \phi(y) = \phi(x).$$

Lo que muestra que $\phi$ es continua.

Adicionalmente, si lo vemos dentro de cualquier intervalo cerrado, obtenemos lo siguiente:

$$|\phi(y) \ – \ \phi(x)| \leq M \ |y \ – \ x|.$$

donde $M$ es el máximo de $|f|$ en el intervalo, de modo que $\phi$ es aún Lipschitz-continua.

Si quieres recordar continuidad, sigue este link.

$\square$

Durante la demostración se recordó el teorema del valor medio, mostrando la siguiente ecuación:

\begin{align*}
\phi(y) \ – \ \phi(x) & = \int \limits_x^y f(u) \ du \\ &
= f(\xi) (y \ – \ x).
\end{align*}

Observación: Si $f(x)$ es una función positiva en todo el intervalo $[x,y]$, se obtiene que $\phi(x)$ es una función creciente.

$$\phi(y) = f(\xi) (y \ – \ x) > \phi(x).$$

Más adelante…

Teniendo definidas las integrales indefinidas, podremos revisar las propiedades que estas integrales tienen y teoremas que son de alta importancia, tanto en cálculo como en las demás asignaturas.

Este paso de trabajar con integrales indefinidas nos da una mayor libertad al momento de trabajar con funciones. Anteriormente, al trabajar con integrales definidas, teníamos plena conciencia de que punto a que punto se necesitaba integrar, lo que, al momento de evaluar o de integral solo encontramos un número; pero ahora que trabajamos con integrales indefinidas.

Y como estamos ampliando la definición de la integral, es necesario mostrar las propiedades que esta extensión genera ya que, si consideramos estas propiedades se nos podrá facilitar el manejo de de esta transformación de funciones.

Estas propiedades las veremos en la siguiente entrada.

Tarea moral

  1. Escribe las siguientes integrales definidas como integrales indefinidas.
    • $ \int \limits_3^{12} x^3 \ dx $
    • $ \int \limits_1^5 ln(t) \ dt $
    • $ \int \limits_{-\pi}^{\pi} sin(\theta) \ d \theta $
  2. Sea $f(x)$ una función continua y se cumple que $f(x) = \int \limits_0^x f(t) \ dt$.
    Demuestra que $f(x)$ es idénticamente 0.

Entradas relacionadas

  • Página del curso: Cálculo Diferencial e Integral II
  • Entrada anterior: Funciones que no son Riemann integrables
  • Entrada siguiente: Propiedades de la integral indefinida

1.8. CONJUNTOS LINEALMENTE (IN)DEPENDIENTES Y CONJUNTOS GENERADORES: relación entre sí

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

¿Para qué sirve hacer el resumen de un texto?
Algunos beneficios son que: 1) mejora la comprensión lectora, 2) facilita el estudio y memorización, 3) aumenta la capacidad de análisis y 4) fomenta la escritura clara y precisa.

Para elaborar un buen resumen es necesario analizar cuidadosamente la información, identificar lo esencial y comprender su estructura. Al hacerlo, no solo se logra un texto más claro y breve, sino que también se mejora la capacidad de organizar ideas y aprender con mayor profundidad.

En matemáticas rara vez se habla de resúmenes. De hecho, lo más parecido que se suele ver es una lista fórmulas, ¿no es verdad? Pues bien, hablando de los subespacios generados, ¿qué tal si pudiéramos simplificarlos?

Tomamos un conjunto de vectores que, gracias a las combinaciones lineales, genera un subespacio vectorial y eso ya optimiza mucho las cosas, ya ni siquiera necesitamos describir todo el subespacio generado, pero si el conjunto generador pudiéramos hacerlo más pequeño obtendríamos varios beneficios, tal como lo hace un resumen de texto.

Nota: Dado $\{u_1,u_2,\dots ,u_t\}$ un conjunto finito de vectores denotaremos a $\langle\{u_1,u_2,\dots ,u_t\}\rangle$ por $\langle u_1,u_2,\dots ,u_t\rangle$.

Lema (1.8.1. Dependencia lineal): Sean $V$ un $K$ – espacio vectorial y $v_1,v_2,…,v_m$ una lista de vectores en $V$. Si $v_1,v_2,…,v_m$ es una lista l.d. y $v_1\not=\theta_V$, entonces existe $j\in\{2,3,…,m\}$ tal que:
a) $v_j\in\langle v_1,v_2,…,v_{j-1}\rangle$ y
b) $\langle v_1,v_2,…,v_{j-1},v_{j+1},…,v_m\rangle=\langle v_1,v_2,…,v_m\rangle$

Nota: $\langle v_1,v_2,…,v_{j-1},v_{j+1},…,v_m\rangle$ lo denotamos por $\langle v_1,v_2,…,\widehat{v_j},…,v_m\rangle$

Demostración: Sean $V$ un $K$ – espacio vectorial y $v_1,v_2,…,v_m$ una lista l.d. con $v_1\not=\theta_V$.

Como la lista es l.d., entonces existen $\lambda_1,\lambda_2,…,\lambda_m\in K$ no todos nulos tales que

$\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$. (*)

a) Dado que existe al menos un escalar no nulo en (*) tenemos dos casos:

Caso 1. Únicamente $\lambda_1\not=0_K$.
Así, \begin{align*}\theta_V&=\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m\\ &=\lambda_1v_1+0_Kv_2+…+0_Kv_m\\ &=\lambda_1v_1+\theta_V+…+\theta_V=\lambda_1v_1.\end{align*}
De donde, $\lambda_1v_1=\theta_V$ con $\lambda_1\not=0_K$, entonces $v_1=\lambda_1^{-1}\theta_V=\theta_V$ lo que contradice la hipótesis de que $v_1\not=\theta_V$.
Por lo tanto, este caso no es posible.

Caso 2. Existe al menos un $\lambda_i\not=0_K$ con $i\in\{2,3,…,m\}$.
Consideremos $j=\text{máx}\{i\in\{2,3,…,m-1\}|\lambda_i\not=0_K\}.$
Entonces $\lambda_{j+1}=\cdots =\lambda_m=0$ por lo cual \begin{align*}\theta_V&=\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m\\ &=\lambda_1v_1+\lambda_2v_2+\cdots+\lambda_jv_j+0_Kv_{j+1}+\cdots+0_Kv_m\\&=\lambda_1v_1+\lambda_2v_2+\cdots+\lambda_jv_j+\theta_V\\ &=\lambda_1v_1+\lambda_2v_2+\cdots+\lambda_jv_j.\end{align*}
Así, $\lambda_1v_1+\cdots+\lambda_jv_j=\theta_V$, en consecuencia $\lambda_jv_j=-\lambda_1v_1-\lambda_2v_2-\cdots -\lambda_{j-1}v_{j-1}.$

Además, dado que $\lambda_j\neq 0$ existe el inverso multiplicativo de $\lambda_j,$ entonces

$\begin{array}{ll}v_j&=\lambda_j^{-1}(-\lambda_1v_1-\lambda_2v_2-\cdots-\lambda_{j-1}v_{j-1})\\&=(-\lambda_j^{-1}\lambda_1)v_1+(-\lambda_j^{-1}\lambda_2)v_2+\cdots+(-\lambda_j^{-1}\lambda_{j-1})v_{j-1}\in\langle v_1,v_2,\dots,v_{j-1}\rangle\end{array}$

$\therefore v_j\in\langle v_1,v_2,\dots,v_{j-1}\rangle$.

b) Veamos que se cumplen las dos contenciones entre los subconjuntos deseados, contemplando que la $j$ para este inciso debe ser la misma que en el inciso anterior.

En primer lugar:
Tenemos que $\{v_1,v_2,\dots,\widehat{v_j},…,v_m\}\subseteq \{v_1,v_2,\dots,v_j,\dots,v_m\}\subseteq\langle v_1,v_2,\dots,v_j,\dots,v_m\rangle$ y este último subconjunto es un subespacio de $V$.
Además, sabemos que si $S\subseteq W\subseteq V$ con $W$ un subespacio vectorial, entonces $\langle S\rangle\subseteq W$.
$\therefore\langle v_1,v_2,\dots,\widehat{v_j},\dots,v_m\rangle\subseteq\langle v_1,v_2,\dots,v_j,\dots,v_m\rangle$.

En segundo lugar:
Si $w\in\langle v_1,v_2,\dots,v_j,\dots,v_m\rangle$, entonces existen $\mu_1,\mu_2,\dots,\mu_j,\dots,\mu_m\in K$ tales que $w=\mu_1v_1+\mu_2v_2+\cdots+\mu_jv_j+\cdots+\mu_mv_m$.
Sabemos que $v_j=(-\lambda_j^{-1}\lambda_1)v_1+(-\lambda_j^{-1}\lambda_2)v_2+\cdots+(-\lambda_j^{-1}\lambda_{j-1})v_{j-1}$.
De donde,

\begin{array}{ll} w&=\mu_1v_1+\mu_2v_2+\cdots+\mu_{j-1}v_{j-1}+\\ &\phantom{=}\mu_j[(-\lambda_j^{-1}\lambda_1)v_1+(-\lambda_j^{-1}\lambda_2)v_2+…+(-\lambda_j^{-1}\lambda_{j-1})v_{j-1}]+\\ &\phantom{=}\mu_{j+1}v_{j+1}…+\mu_mv_m\\ &=(\mu_1-\mu_j\lambda_j^{-1}\lambda_1)v_1+(\mu_2-\mu_j\lambda_j^{-1}\lambda_2)v_2+\cdots \\ &\phantom{=}+(\mu_{j-1}-\mu_j\lambda_j^{-1}\lambda_{j-1})v_{j-1}+\mu_{j+1}v_{j+1}+\cdots+\mu_mv_m\\ &\in\langle v_1,v_2,\dots,\widehat{v_j},…,v_m\rangle\end{array}
Así, $w\in\langle v_1,v_2,\dots,\widehat{v_j},\dots,v_m\rangle$.
$\therefore \langle v_1,v_2,\dots,v_j,\dots,v_m\rangle\subseteq\langle v_1,v_2,\dots,\widehat{v_j},\dots,v_m\rangle$

Teorema (1.8.2.): Sea $V$ un $K$ – espacio vectorial. Si $v_1,v_2,…,v_m$ es una lista l.i. de vectores en $V$ con $m\in\mathbb{N}^+$, entonces todo conjunto generador de $V$ tiene al menos $m$ elementos.

Demostración: Sea $V$ un $K$ – espacio vectorial.
Sea $v_1,v_2,…,v_m$ es una lista l.i. de vectores en $V$, llamémosle $L$ a esta lista.
Sea $S$ tal que $\langle S\rangle = V$.

Caso 1. $S$ es infinito.
Entonces $S$ tiene más de $m$ elementos.

Caso 2. $S$ es finito.
Digamos que $S=\{w_1,w_2,…,w_k\}$ con $w_1,w_2,…,w_k$ distintos. Probemos que $m\leq k$.

Observemos que como $L$ es una lista l.i. de vectores en $V$, entonces para cada $i\in\{1,2,…,m\}$ tenemos que $v_i\not=\theta_V$.

(1) Como $ v_1\in V=\langle S\rangle$, entonces $v_1,w_1,w_2,…,w_k$ es una lista l.d.
Dado que $v_1\not= \theta_V$, por el lema podemos concluir que existe $j_1\in\{1,2,…,k\}$ tal que $\langle \{v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle =\langle v_1,w_1,w_2,…,w_k\rangle =V.$

(2) Como $ v_2\in V=\langle \{v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle$, entonces $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$ es una lista l.d.
Dado que con $v_2\not= \theta_V$, por el lema podemos concluir que algún vector $v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$ es combinación lineal de los vectores que le anteceden en la lista $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_k$, pero dicho vector no puede ser $v_1$ pues sabemos que $L$ es l.i., por lo que $v_1$ no puede ser combinación lineal de $v_2$. Así, existe algún vector $w_1,w_2,…,\widehat{w_{j_1}},…,w_k$, digamos $w_{j_2}$ con $j_2\in\{1,2,…,k\}\setminus\{j_1\}$, que es combinación lineal de los vectores que le anteceden en la lista $v_2,v_1,w_1,w_2,…,\widehat{w_{j_1}},…,w_{j_k}$ y tal que $\langle \{v_2,v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1},w_{j_2}\}\rangle$$=\langle \{v_2,v_1,w_1,w_2,…,w_k\}\setminus\{w_{j_1}\}\rangle =V.$

Continuando de este modo, en cada paso quitamos un vector $w_{j_t}$ del conjunto generador, y lo sustituimos por $v_t$, obteniendo de esta manera un nuevo conjunto generador. Observemos entonces que después de $t$ pasos hemos quitado $t$ vectores de $S$, y los hemos sustituido por $v_t,\dots ,v_2,v_1$.

Veamos que $k\geq m$.

Para ello supongamos por reducción al absurdo que $k< m$.

Continuando con el proceso anterior, después de $k$ pasos hemos quitado $k$ vectores de $S$, $w_{j_1},w_{j_2},…,w_{j_k}$ (que son entonces los $k$ vectores de $S$, es decir, son precisamente $w_1,w_2,…,w_k$, sólo que quizás en otro orden) y los hemos sustituido por $v_k,\dots ,v_2,v_1$. Tenemos además que:
\begin{align*}V&=\langle \{v_{k-1},v_{k-2},…,v_2,v_1,w_1,w_2,…,w_k\}-\{w_{j_1},w_{j_2},…,w_{j_k}\}\rangle\\&=\langle \{v_{k-1},v_{k-2},…,v_2,v_1\}\rangle .\end{align*}
Pero si $V=\langle \{v_{k-1},…,v_2,v_1\}\rangle$, entonces $v_k\in \langle \{v_{k-1},…,v_2,v_1\}\rangle$ y por lo tanto $v_1,v_2,…,v_k$ sería l.d. y en consecuencia también $v_1,v_2,…,v_m$ sería l.d., lo cual contradice nuestra hipótesis.

Por lo tanto, $m\leq k$.

Corolario (1.8.3.): Sea $V$ un $K$ – espacio vectorial. Si existe $S$ un subconjunto finito de $V$ generador con $k$ elementos, entonces todo conjunto linealmente independiente es finito y tiene a lo más $k$ elementos.
En consecuencia, no existen conjuntos infinitos l.i. en $V$.

Demostración: Sea $V$ un $K$ – espacio vectorial.
Sea $S\subseteq V$ finito con $k$ elementos tal que $\langle S\rangle =V$.
Sea $T\subseteq V$ un subconjunto l.i. Supongamos por reducción al absurdo que $T$ es infinito, consideremos entonces $\hat{T}$ un subconjunto de $T$ con $k+1$ elementos. Tenemos que $\hat{T}$ es un conjunto l.i. con $k+1$ elementos y $S$ es un conjunto generador con $k$ elementos, lo que contradice el teorema anterior. Concluimos entonces que $T$ debe ser finito.
Nuevamente por el teorema anterior se cumple que $|T|\leq |S|$, y como $|S|=k$ entonces $|T|\leq k$.

Tarea Moral

  1. Demuestra que, dado $V$ un $K$ – espacio vectorial con $K$ un campo, sólo existe un subconjunto $S$ unitario linealmente dependiente y exhíbelo.
  2. Sea $S=\{v_1,v_2,…,v_m\}\subseteq V.$
    Demuestra que son equivalentes:
    • $S$ es l.d.
    • Existe $v_j\in S$ tal que $v_j\in \langle S-{v_j}\rangle$.
  3. Recordando que $\{e_1,e_2,e_3\}$ es linealmente independiente $\mathbb{R}^3$ y el teorema de esta entrada sabemos que cualquier conjunto de solo $1$ o $2$ elementos, no podrá generar a $\mathbb{R}^3$.
    • Describe qué subespacio(s) de $\mathbb{R}^3$ se puede(n) generar con un $S\subseteq\mathbb{R}^3$ si $|S|=1$.
    • Describe qué subespacio(s) de $\mathbb{R}^3$ se puede(n) generar con un $S\subseteq\mathbb{R}^3$ si $|S|=2$.

Más adelante…

Ahora que sabemos la relación de cardinalidad que existe entre los conjuntos linealmente independientes y los conjuntos generadores, nos damos cuenta de que, dicho muy informalmente, los conjuntos generadores de un espacio vectorial $V$ tienen una cardinalidad mayor o igual a los l.i. en $V$.
Nos enfocaremos en aquellos conjuntos que son generadores del espacio vectorial $V$ al que pertenecen y linealmente independientes. Veremos algunas propiedades de sus cardinalidades.

Entradas relacionadas

1.7. (IN)DEPENDENCIA LINEAL: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

En matemáticas es de mucho interés estudiar aquello que es único (por qué lo es, «quién» es y cómo encontrarlo). En este punto de la teoría, sabemos que el neutro aditivo de un campo $K$ cualquiera siempre existe y es único, al igual que el neutro de un $K$ – espacio vectorial $V$ cualquiera.

Sabemos que las combinaciones lineales son elementos del espacio vectorial donde estamos trabajando y ahora estudiaremos la(s) combinación(es) lineale(s) que podemos obtener usando un conjunto de vectores fijo buscando como resultado el neutro de nuestro espacio vectorial. El sutil detalle de que sea sólo una o resulten existir más combinaciones lineales que cumplan la igualdad será el centro del tema… al fin y al cabo, sí sabemos que al menos existe una: la trivial, obtenida si todos los escalares involucrados son el neutro aditivo del campo.

Por ejemplo, si tenemos $3$ vectores en $mathbb{R}^2$, podemos obtener el $(0,0)$ como combinación lineal de esos vectores de formas diferentes a la trivial

LISTA LINEALMENTE (IN)DEPENDIENTE

Definición: Sea $V$ un $K$ – espacio vectorial. Una lista $v_1,v_2,…,v_m$$\in V$ en una lista linealmente dependiente si existen $\lambda_1,\lambda_2,…,\lambda_m\in K$ NO TODOS NULOS tales que $\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$.
Decimos que es una lista linealmente independiente en caso contrario. Es decir, si el hecho de que $\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$ con $\lambda_1,\lambda_2,…,\lambda_m\in K$, implica que $\lambda_1=\lambda_2=\cdots =\lambda_m=0_K$.

Nota: Es común abreviar «linealmente dependiente» con l.d. y «linealmente independiente» con l.i.

Ejemplos

  • Sean $K=\mathbb{R}$, $V=\mathcal{P}_3[\mathbb{R}]$
    Sean $v_1=1+x-x^2+2x^3$, $v_2=2-3x+x^3$, $v_3=4-x-2x^2+5x^3$
    La lista $v_1,v_2,v_3$ es l.d.

Justificación. Se cumple que $2v_1+1v_2-1v_3=0x^3+0x^2+0x+0=\theta_V$

  • Sean $K=\mathbb{R}$, $V=\mathbb{R}^n$
    La lista $e_1,e_2,…,e_n$ es l.i.

Justificación. Tenemos que $e_i$ se define como el vector de $n$ entradas donde la $i$-ésima es $1$ y las demás son $0$. Así, $\lambda_1e_1+\lambda_2e_2+…+\lambda_ne_n=(\lambda_1,\lambda_2,…,\lambda_n)$. Por lo que, si $\lambda_1e_1+\lambda_2e_2+…+\lambda_ne_n=(0,0,…,0)=\theta_V$, entonces $(\lambda_1,\lambda_2,…,\lambda_n)=(0,0,…,0)$ y en consecuencia $\lambda_i=0$ para toda $i\in{1,2,…,n}.$

  • Sean $K=\mathbb{R}$, $V=\mathbb{R}^2$
    Sean $v_1=(x_1,0)$, $v_2=(x_2,0)$, $v_3=(x_3,y_3)$ con $x_i\not= 0$ para toda $i\in\{1,2,3\}$.
    La lista $v_1,v_2,v_3$ es l.d.

Justificación. Consideremos $\lambda_1,\lambda_2,\lambda_3$ tales que
$\lambda_1v_1+\lambda_2v_2+\lambda_3v_3=(0,0).$
Entonces $\lambda_1(x_1,0)+\lambda_2(x_2,0)+\lambda_3(x_3,y_3)=(0,0).$
Desarrollando el lado izquierdo de esta igualdad tenemos que $(\lambda_1x_1+\lambda_2x_2+\lambda_3x_3,y_3)=(0,0).$ Por lo tanto $\lambda_1v_1+\lambda_2v_2+\lambda_3v_3=(0,0)$ si y sólo si
a) $\lambda_1x_1+\lambda_2x_2+\lambda_3x_3=0$ y b) $\lambda_3y_3=0$.
Si $\lambda_3=0$, b) se cumple para cualesquiera $\lambda_1,\lambda_2\in\mathbb{R}$. Veamos si se le puede asignar un valor distinto de cero a $\lambda_1$ o a $\lambda_2$ y que se cumpla a).
Tenemos que a) se cumple si y sólo si $\lambda_1x_1=-(\lambda_2x_2+\lambda_3x_3)$. Por lo tanto, si $\lambda_3=0$, tenemos que $\lambda_1x_1=-\lambda_2x_2$, y dado que $x_1$ es no nulo esto implica que $\lambda_1=-\lambda_2\frac{x_2}{x_1}$. Así, eligiendo $\lambda_2=1$, $\lambda_1=-\frac{x_2}{x_1}$ y $\lambda_3=0$ se cumplen a) y b), existiendo así una combinación lineal no trivial de $v_1,v_2$ y $v_3$ igualada al vector cero.

CONJUNTO LINEALMENTE (IN)DEPENDIENTE

Definición: Sea $V$ un $K$ – espacio vectorial. Un subconjunto $S$ de $V$ es un conjunto linealmente dependiente (l.d.) si existe $m\in\mathbb{N}^+$ tal que $S$ contiene $m$ elementos distintos que forman una lista dependiente.
Decimos que es un conjunto linealmente independiente (l.i.) en caso contrario. Es decir, si para cualquier $m\in\mathbb{N}^+$ todas las listas que se pueden formar con $m$ elementos distintos de $S$ son linealmente independientes.

Observación: Si $S$ es un conjunto finito con $m$ vectores distintos, digamos $\{v_1,v_2,…,v_m\}$, entonces:
i) Si se puede encontrar una combinación lineal $\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$ donde $\lambda_1, \dots, \lambda_m\in \mathbb{R}$ con al menos una $\lambda_j$ distinta de $0_K$ para alguna $j\in\{1,2,…,m\}$, entonces $S$ es l.d.
ii) Si el hecho de que se tenga una combinación lineal $\lambda_1v_1+\lambda_2v_2+…+\lambda_mv_m=\theta_V$ donde $\lambda_1, \dots, \lambda_m\in \mathbb{R}$, implica que $\lambda_j$ debe ser $0_K$ para toda $j\in\{1,2,…,m\}$, entonces $S$ es l.i.

Ejemplos

  • Sean $K$ un campo y $V=\mathcal{P}_m(K)$
    $S=\{1,x,x^2,…,x^m\}$$\subseteq\mathcal{P}_m(K)$ es l.i.

Justificación. Sean $\lambda_0,\lambda_1,\lambda_2,…,\lambda_m\in\mathbb{R}$ tales que $\lambda_01+\lambda_1x+\lambda_2x^2+…+\lambda_mx^m=\theta_V$, es decir $\lambda_01+\lambda_1x+\lambda_2x^2+…+\lambda_mx^m=0+0x+0x^2+…+0x^m$.
Recordando que dos polinomios so iguales si y sólo si coinciden coeficiente a coeficiente concluimos que $\lambda_i=0$ para toda $i\in\{0,1,2,…,m\}.$

  • Sean $K=\mathbb{R}$ y $V=\mathbb{R}^3$
    $S=\{(1,3,-7),(2,1,-2),(5,10,-23)\}$$\subseteq\mathbb{R}^3$ es l.d.

Justificación. Sean $\lambda_1,\lambda_2,\lambda_3\in\mathbb{R}$ tales que $\lambda_1(1,3,-7)+\lambda_2(2,1,-2)+\lambda_3(5,10,-23)=(0,0,0)$.
Entonces $(\lambda_1+2\lambda_2+5\lambda_3,3\lambda_1+\lambda_2+10\lambda_3,-7\lambda_1-2\lambda_2-23\lambda_3)=(0,0,0)$. De donde:
\begin{align*}
\lambda_1+2\lambda_2+5\lambda_3&=0…(1)\\
3\lambda_1+\lambda_2+10\lambda_3&=0…(2)\\
-7\lambda_1-2\lambda_2-23\lambda_3&=0…(3)\\
\end{align*}
De $(1)$: $\lambda_1=-2\lambda_2-5\lambda_3…(4)$
Sustituyendo $(4)$ en $(2)$: $3(-2\lambda_2-5\lambda_3)+\lambda_2+10\lambda_3=0$
$\Longrightarrow-5\lambda_2-5\lambda_3…(5)\Longrightarrow\lambda_2=-\lambda_3…(5)$
Sustituyendo $(5)$ en $(4)$: $\lambda_1=-2(-\lambda_3)-5\lambda_3$
$\Longrightarrow\lambda_1=-3\lambda_3…(6)$
En particular, si $\lambda_3=1$ tenemos que $\lambda_2=-1$ y $\lambda_1=-3$, y encontramos así una solución no trivial del sistema dado por $(1)$, $(2)$ y $(3)$.

  • Sean $K=\mathbb{R}$ y $V=\mathcal{M}_{2\times 2}(\mathbb{R})$
    $S=\left\{ \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} \right\}$$\subseteq\mathcal{M}_{2\times 2}(\mathbb{R})$ es l.i.

Justificación. Sean $\lambda_1,\lambda_2,\lambda_3\in\mathbb{R}$ tales que $\lambda_1 \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} +\lambda_2 \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}+\lambda_3\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$.

Entonces $\begin{pmatrix} \lambda_1 & \lambda_1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} 0 & \lambda_2 \\ 0 & \lambda_2 \end{pmatrix}+ \begin{pmatrix} 0 & 0 \\ \lambda_3 & \lambda_3 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

Así, $\begin{pmatrix} \lambda_1 & \lambda_1+\lambda_2 \\ \lambda_3 & \lambda_2+\lambda_3 \end{pmatrix}=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$. De donde:
\begin{align*}
\lambda_1&=0…(1)\\
\lambda_1+\lambda_2&=0…(2)\\
\lambda_3&=0…(3)\\
\lambda_2+\lambda_3&=0…(4)\\
\end{align*}
Sustituyendo $(1)$ en $(2)$: $\lambda_2=0$
Por lo tanto, $\lambda_1=\lambda_2=\lambda_3=0.$

  • Sean $K=\mathbb{R}$ y $V=\mathbb{R}^3$
    $S=\{(n,n,n)|n\in\mathbb{Z}\}$$\subseteq\mathbb{R}^3$ es l.d.

Justificación. La lista en $S$ dada por $(1,1,1),(5,5,5)$ es l.d. porque $-5(1,1,1)+(5,5,5)=(0,0,0)$.

Tarea Moral

Sean $K$ un campo y $V$ un $K$ – espacio vectorial.

  1. Sean $S,\tilde{S}\subseteq V$ tales que $S\subseteq\tilde{S}$.
    Para cada inciso, responde y justifica tu respuesta demostrándolo o dando un contraejemplo.
    • Si $S$ es l.d., ¿es posible determinar si $\tilde{S}$ es l.d. o l.i.?
    • Si $S$ es l.i., ¿es posible determinar si $\tilde{S}$ es l.d. o l.i.?
    • Si $\tilde{S}$ es l.d., ¿es posible determinar si $S$ es l.d. o l.i.?
    • Si $\tilde{S}$ es l.i., ¿es posible determinar si $S$ es l.d. o l.i.?
  2. Sea $S=\{v_1,v_2,…,v_m\}\subseteq V$
    Demuestra que son equivalentes:
    • $S$ es l.d.
    • Existe $v_j\in S$ tal que $\langle S\rangle=\langle S\setminus \{v_j\}\rangle$

Más adelante…

El segundo ejercicio de la tarea moral se refiere al subespacio generado por un conjunto linealmente dependiente.
Veamos ahora más relaciones que existen entre los conjuntos linealmente dependientes, los linealmente independientes y los espacios que estos conjuntos generan.

Entradas relacionadas

Geometría Moderna II: Unidad 4 Razón Cruzada

Por Armando Arzola Pérez

Introducción

Ya se ha visto que en una hilera armónica se tienen cuatro puntos colineales $A,B,C,D$, donde el segmento $AB$ está dividido por $C$ y $D$ en razones cuya razón es:
$\hspace{15em} \frac{AC}{CB} / \frac{AD}{DB} = -1.$
En este caso $A$ y $B$ están separados armónicamente por $C$ y $D$, pero que pasaría si estos cuatro puntos estuvieran en posiciones cualesquiera en la recta que se encuentran, es aquí donde entra la definición de razón cruzada.

Razón cruzada para hilera y haces

Definición. (Razón Cruzada) Dados cuatro puntos colineales distintos $A,B,C,D$ en una recta, diremos que la razón cruzada es:

$\frac{AC}{CB} / \frac{AD}{DB} = \{ ABCD \} = k$ con $k \neq -1.$

Lo denotaremos $\{ ABCD \} $.

También se le conoce como razón anarmónica y razón doble.

Observación. Si los cuatro puntos son armónicos, entonces $\{ ABCD \} = -1 $, de igual forma inversamente.

Definición. (Razón Cruzada con líneas concurrentes) Sean cuatro rectas concurrentes $OA$, $OB$, $OC$ y $OD$ en un punto $O$, que no se forme un haz armónico, entonces la razón cruzada es:

$\frac{sen (AOC)}{sen (COB)} / \frac{sen (AOD)}{sen (DOB)} $,

se denotará como $O \{ ABCD \} $. De igual forma, la razón cruzada de cuatro líneas concurrentes $a,b,c,d$ se denotará $\{ a,b,c,d \} $.

Observación. Dados cuatro puntos colineales $A,B,C, D$ se tienen estos casos:

1) $\{ ABCC \} =1$ esto, ya que $\{ ABCC \} =\frac{AC}{CB} / \frac{AC}{CB} = \frac{AC * CB}{CB * AC} =1$.

2) $\{ ABCB \} =0$ esto ya que $\{ ABCB \} =\frac{AC}{CB} / \frac{AB}{BB} = \frac{AC * BB}{CB * AB} =0$.

3) $\{ ABCA \} =\infty $ esto ya que $\{ ABCA \} =\frac{AC}{CB} / \frac{AA}{AB} = \frac{AC * AB}{CB * AA} =\infty $.

Por lo cual se puede demostrar que si la razón cruzada de cuatro puntos tiene uno de los valores $1,0, \infty $ entonces dos de los puntos coinciden.

Teorema. (Razón Cruzada) Si se tienen cuatro puntos distintos $A,B,C,D$ en una recta y $O$ un punto (no está en la recta) entonces:

$\{ ABCD \} =O \{ ABCD \} .$

Demostración. Para demostrar el teorema se usará lo siguiente, si dos puntos finitos $A$ y $B$ distintos en una recta, sea $P$ otro punto de la misma recta y $C$ un punto que no está en la recta, entonces

$\frac{AP}{PB}=\frac{CA*sen (ACP)}{CB*sen (PCB)}$

Entonces usando lo anterior:

$\frac{AC}{CB}=\frac{OA*sen (AOC)}{OB*sen (COB)}$ y $\frac{AD}{DB}=\frac{OA*sen( AOD)}{OB*sen (DOB)}$

$\{ ABCD \} = \frac{AC}{CB} / \frac{AD}{DB}=\frac{OA*sen(AOC)}{OB*sen(COB)} / \frac{OA*sen(AOD)}{OB*sen(DOB)}=\frac{sen(AOC)}{sen(COB)} / \frac{sen(AOD)}{sen( DOB)}=O \{ ABCD \}.$

Razón cruzada

$\square$

Corolario. Sean dos rectas transversales a cuatro líneas de un haz, de las cuales ninguna pasa por el vértice, cortan a estas líneas en $A,B,C,D$ y $A’,B’,C’,D’$ respectivamente, entonces $\{ ABCD \} = \{ A’B’C’D’ \} $.

Demostración. $\{ ABCD \} = O\{ ABCD \} = O\{ A’B’C’D’ \} =\{ A’B’C’D’ \}.$

$\square$

Corolario. Sean dos haces con vertices en $O$ y $O’$ son subtendidos por la misma hilera de puntos $A,B,C,D$ entonces $O\{ ABCD \} = O’\{ ABCD \}$.

Demostración. $O\{ ABCD \} = \{ ABCD \}=O’\{ ABCD \}.$

$\square$

Corolario. Sean $l$ y $l’$ dos rectas en posición cualquiera y sean $A,B,C,D \in l$ y $A’,B’,C’,D’ \in l’$. Si $\{ ABCD \} = \{ A’B’C’D’ \} $ y $O$ y $O’$ son colineales con $A$ y $A’$, entonces las intersecciones $OB$ y $O’B’$, $OC$ y $O’C’$, $OD$ y $O’D’$ son colineales.

Demostración. Sea $l’$$’$ la recta que contiene a $B’$$’$ y $C’$$’$, y sean $A’$$’=l’$$’ \cap OO’$, $D’$$’=OD \cap O’D’$ y sea $D^*=l’$$’ \cap O’D’$.
Tenemos que $\{ ABCD \} = \{ A’B’C’D’ \} $ entonces $\{ A’B’C’D’ \} = \{ A’$$’B’$$’C’$$’D^* \} $.
$\Rightarrow $ $\{ ABCD \} = \{ A’$$’B’$$’C’$$’D^* \} $
$\Rightarrow $ $O\{ ABCD \} = \{ A’$$’B’$$’C’$$’D^* \} $
$\Rightarrow $ $D’$$’=D^*.$

$\square$

Más adelante…

Se seguirá abordando unas propiedades de la razón cruzada y además se construirá un cuarto elemento dada una razón.

Entradas relacionadas