Archivo de la etiqueta: saca escalares

Álgebra Superior I: Traza de matrices y propiedades

Por Eduardo García Caballero

Introducción

En esta entrada conoceremos una nueva operación que se puede aplicar a matrices: la traza. Esta operación a primera vista parece bastante sencilla, pero no por eso es menos importante; en futuros cursos conocerás cómo se relaciona estrechamente con otros conceptos matemáticos y sus aplicaciones.

Traza

Definimos la traza de una matriz cuadrada como la suma de los elementos de su diagonal. Es importante destacar que únicament ele aplicaremos la operación de traza a matrices cuadradas pues más adelante las propiedades que nos interesarán requieren de esta condición.

Por ejemplo, las trazas de las matrices
\[
A=
\begin{pmatrix}
4 & 9 \\
1 & -6
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
1 & 0 & 3 \\
11 & 5 & 2 \\
6 & 12 & -5
\end{pmatrix}
\]
son, respectivamente,
\[
\operatorname{tr}(A)
=
\operatorname{tr}
\begin{pmatrix}
4 & 9 \\
1 & -6
\end{pmatrix}
=
4+ (-6)
=
-2
\]
y
\[
\operatorname{tr}(B)
=
\operatorname{tr}
\begin{pmatrix}
1 & 0 & 3 \\
11 & 5 & 2 \\
6 & 12 & -5
\end{pmatrix}
=
1 + 5 + (-5) = 1.
\]

Propiedades de la traza

La traza cumple un par de propiedades importantes con respecto a otras operaciones que definimos anteriormente. Para la prueba de estas propiedades consideraremos matrices de tamaño $2 \times 2$, pero fácilmente podrás probarlo para cualquier otro tamaño de matrices cuadradas.

Consideremos las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.
\]

Observemos que la traza se distribuye con respecto a la suma; es decir,
\begin{align*}
\operatorname{tr}(A+B)
&=
\operatorname{tr}
\left(
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
+
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
a_{11}+b_{11} & a_{12}+b_{12} \\
a_{21}+b_{21} & a_{22}+b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}+b_{11}) + (a_{22}+b_{22})
\\[5pt]
&=
(a_{11} + a_{22}) + (b_{11}+b_{22})
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
+
\operatorname{tr}
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{tr}(A) + \operatorname{tr}(B).
\end{align*}

Además, la traza saca escalares; es decir, para cualquier escalar $r$ se cumple que
\begin{align*}
\operatorname{tr}(rA)
&=
\operatorname{tr}
\left(
r
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\right)
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
ra_{11} & ra_{12} \\
ra_{21} & ra_{22}
\end{pmatrix}
\\[5pt]
&=
ra_{11} + ra_{22}
\\[5pt]
&=
r(a_{11} + a_{22})
\\[5pt]
&=
r
\operatorname{tr}
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\\[5pt]
&=
r\operatorname{tr}(A).
\end{align*}

Problemas

Trabajemos con algunos problemas en los cuales aparece la traza:

Problema. Demuestra que para matrices $A$ y $B$ de $2 \times 2$ se cumple que $\operatorname{tr}(AB) = \operatorname{tr}(BA)$.

Solución. Lo demostraremos directamente por la definición de traza.

Consideremos las matrices
\[
A=
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
B=
\begin{pmatrix}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{pmatrix}.
\]

Observemos que
\begin{align*}
\operatorname{tr}(AB)
&=
\operatorname{tr}
\begin{pmatrix}
a_{11}b_{11} + a_{12}b_{21} & a_{11}b_{12} + a_{12}b_{22} \\
a_{21}b_{11} + a_{22}b_{21} & a_{21}b_{12} + a_{22}b_{22}
\end{pmatrix}
\\[5pt]
&=
(a_{11}b_{11} + a_{12}b_{21}) + (a_{21}b_{12} + a_{22}b_{22})
\\[5pt]
&=
(b_{11}a_{11} + b_{12}a_{21}) + (b_{21}a_{12} + b_{22}a_{22})
\\[5pt]
&=
\operatorname{tr}
\begin{pmatrix}
b_{11}a_{11} + b_{12}a_{21} & b_{11}a_{12} + b_{12}a_{22} \\
b_{21}a_{11} + b_{22}a_{21} & b_{21}a_{12} + b_{22}a_{22}
\end{pmatrix}
\\[5pt]
&=
\operatorname{tr}(BA).
\end{align*}

$\square$

Problema. ¿Para qué matrices de $2 \times 2$ se tiene que $\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2$?

Solución. Consideremos la matriz de $2 \times 2$
\[
\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}.
\]

Calculamos
\[
\operatorname{tr}(A^2)
=
\operatorname{tr}
\begin{pmatrix}
a^2 + bc & ab + bd \\
ac + cd & bc + d^2
\end{pmatrix}
=
(a^2+bc)+(bc+d^2) = a^2 + 2bc + d^2
\]
y
\[
(\operatorname{tr}(A))^2
=
(a + d)^2
=
a^2 + 2ad + d^2.
\]

Entonces, notamos que
\[
\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2
\]
si y sólo si
\[
a^2 + 2bc + d^2 = a^2 + 2ad + d^2,
\]
lo cual se cumple si y sólo si
\[
bc = ad.
\]

Entonces, las matrices de $2\times 2$ que cumplen que $\operatorname{tr}(A^2) = (\operatorname{tr}(A))^2$ son aquellas de la forma $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$ tales que $bc = ad$. ¿Podrías dar un ejemplo de una matriz que cumpla esto?

$\square$

Nota. El hecho de que la matriz $A$ anterior cumpla que $bc = ad$ equivale a que $ac – bd = 0$, y esto equivale, como verás en la siguiente entrada, a que “el determinante de $A$ sea cero”.

Más adelante…

En esta entrada aprendimos la definición de traza y vimos algunas de sus propiedades.

Además, en el problema 2, mencionamos un concepto que hasta ahora no hemos visto. En la siguiente entrada conoceremos una de las operaciones más importantes que se pueden aplicar a matrices cuadradas: el determinante.

Tarea moral

  1. Encuenta la traza de las siguientes matrices:
    \[
    \begin{pmatrix}
    3 & 4 \\
    5 & 6
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    \sqrt{2} & 3/\sqrt{2} \\
    \sqrt{3} & \sqrt{6}
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    2x & 9y \\
    4y & -5x
    \end{pmatrix},
    \]
    \[
    \begin{pmatrix}
    1 & 2 & 1 \\
    1 & -3 & 4 \\
    -1 & 0 & 4
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    -3 & 2 & 4 \\
    -4 & 2 & 4 \\
    1 & -1 & 1
    \end{pmatrix},
    \quad
    \begin{pmatrix}
    a & b & c \\
    d & e & f \\
    1 & 2 & 3
    \end{pmatrix}.
    \]
  2. Demuestra que $\text{tr}(AB)=\text{tr}(BA)$ para matrices $A$ y $B$ de $3\times 3$. Intenta también hacerlo para matrices de $n\times n$.
  3. Determina si el siguiente enunciado es verdadero o falso. Si $A$ y $B$ son matrices de $2\times 2$ tales que $\text{tr}(A)=\text{tr}(B)$ y $\text{tr}(A^2)=\text{tr}(B^2)$, entonces $A=B$.
  4. ¿Será cierto que la traza es multiplicativa? Es decir, ¿para cualesquiera matrices $A$ y $B$ se cumple que $\text{tr}(AB)=\text{tr}(A)\text{tr}(B)$?
  5. Sea $A$ una matriz de $2\times 2$. Demuestra que $\text{tr}(AA^T)$ siempre es un número real mayor o igual que cero. ¿Es cierto esto mismo si la matriz es de $3\times 3$? ¿Es cierto siempre que $\text{tr}(A^2)$ es un número mayor o igual a cero?

Entradas relacionadas

Álgebra Superior I: Producto de matrices con vectores

Por Eduardo García Caballero

Introducción

Anteriormente conocimos dos operaciones que podemos realizar utilizando vectores o matrices: la suma entre vectores/matrices y el producto escalar. Como recordarás, estas operaciones involucran exclusivamente vectores o exclusivamente matrices. En esta entrada veremos una operación que involucra a ambos objetos matemáticos a la vez: el producto de una matriz por un vector.

Definición de producto de matrices con vectores

Una condición indispensable para poder realizar el producto matriz-vector es que la cantidad de columnas de la matriz sea la misma que la cantidad de entradas del vector. Basándonos en esto, podríamos multiplicar
\[
\begin{pmatrix}
3 & \tfrac{1}{2} \\
2 & 5
\end{pmatrix}
\begin{pmatrix}
\pi \\
4
\end{pmatrix}
\qquad
\text{o}
\qquad
\begin{pmatrix}
1 & 7 & \sqrt{2} \\
9 & \tfrac{1}{3} & -2
\end{pmatrix}
\begin{pmatrix}
-3 \\
\tfrac{2}{3} \\
5
\end{pmatrix},
\]
pero no podríamos realizar la operación
\[
\begin{pmatrix}
1 & 7 & \sqrt{2} \\
9 & \tfrac{1}{3} & -2
\end{pmatrix}
\begin{pmatrix}
\pi \\
4
\end{pmatrix}.
\]

Como te habrás podido dar cuenta, en este tipo de producto es usual representar los vectores en su forma de “vector vertical” o “vector columna”.

El resultado de multiplicar una matriz por un vector será un nuevo vector, cuyo tamaño corresponde a la cantidad de filas de la matriz original.

Para obtener este nuevo vector, se sigue un algoritmo especial, el cual conocerás en entradas futuras. Sin embargo, a continuación te presentamos las fórmulas que definen a algunos casos especiales de esta operación, lo cual te permitirá obtener el producto en casos con una cantidad pequeña de entradas.

  • Producto de una matriz de tamaño $2 \times 2$ por un vector de tamaño $2$:

\[
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2
\end{pmatrix}
=
\begin{pmatrix}
a_{11}u_1 + a_{12}u_2 \\
a_{21}u_1 + a_{22}u_2
\end{pmatrix}.
\]

  • Producto de una matriz de tamaño $3 \times 2$ por un vector de tamaño $2$:

\[
\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2
\end{pmatrix}
=
\begin{pmatrix}
a_{11}u_1 + a_{12}u_2 \\
a_{21}u_1 + a_{22}u_2 \\
a_{31}u_1 + a_{32}u_2
\end{pmatrix}.
\]

  • Producto de una matriz de tamaño $2 \times 3$ por un vector de tamaño $3$:

\[
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
=
\begin{pmatrix}
a_{11}u_1 + a_{12}u_2 + a_{13}u_3 \\
a_{21}u_1 + a_{22}u_2 + a_{23}u_3
\end{pmatrix}.
\]

  • Producto de una matriz de tamaño $3 \times 3$ por un vector de tamaño $3$:

\[
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
=
\begin{pmatrix}
a_{11}u_1 + a_{12}u_2 + a_{13}u_3 \\
a_{21}u_1 + a_{22}u_2 + a_{23}u_3 \\
a_{31}u_1 + a_{32}u_2 + a_{33}u_3
\end{pmatrix}.
\]

¿Observas algún patrón en estas fórmulas?

Veamos algunos ejemplos numéricos de cómo usar estas fórmulas:

\(
\bullet
\begin{pmatrix}
3 & \tfrac{1}{2} \\
2 & 1
\end{pmatrix}
\begin{pmatrix}
-\tfrac{1}{3} \\
4
\end{pmatrix}
=
\begin{pmatrix}
(3)(-\tfrac{1}{3}) + (\tfrac{1}{2})(4) \\
(2)(-\tfrac{1}{3}) + (1)(4)
\end{pmatrix}
=
\begin{pmatrix}
-1 + 2 \\
-\tfrac{2}{3} + 4
\end{pmatrix}
=
\begin{pmatrix}
1 \\
\tfrac{10}{3}
\end{pmatrix}
\)

\(
\bullet
\begin{pmatrix}
1 & 7 & \sqrt{2} \\
9 & \tfrac{1}{3} & -2
\end{pmatrix}
\begin{pmatrix}
-3 \\
\tfrac{2}{3} \\
5
\end{pmatrix}
=
\begin{pmatrix}
(1)(-3) + (7)(\tfrac{2}{3}) + (\sqrt{2})(5) \\
(9)(-3) + (\tfrac{1}{3})(\tfrac{2}{3}) + (-2)(5)
\end{pmatrix}
=
\begin{pmatrix}
\tfrac{5+15\sqrt{2}}{3} \\
-\tfrac{331}{3}
\end{pmatrix}.
\)

Breve exploración geométrica

Como probablemente hayas visto en tu curso de Geometría Analítica I, el producto de matrices por vectores se puede emplear para representar distintas transformaciones de vectores en el plano y en el espacio.

Si multiplicamos una matriz diagonal por un vector, entonces el resultado corresponderá a “redimensionar” el vector en sus distintas direcciones. Por ejemplo, observamos que el producto
\[
\begin{pmatrix}
3 & 0 \\
0 & 2
\end{pmatrix}
\begin{pmatrix}
3 \\
3
\end{pmatrix}
=
\begin{pmatrix}
9 \\
6
\end{pmatrix}
\]
corresponde a redimensionar el vector original al triple de manera horizontal y al doble de manera vertical.

Por otra parte, multiplicar por una matriz de la forma
\[
\begin{pmatrix}
\cos(\theta) & -\sin(\theta) \\
\sin(\theta) & \cos(\theta)
\end{pmatrix}
\]
ocasiona que el vector rote un ángulo $\theta$ en sentido contrario a las manecillas del reloj; por ejemplo,
\[
\begin{pmatrix}
\cos(30º) & -\sin(30º) \\
\sin(30º) & \cos(30º)
\end{pmatrix}
\begin{pmatrix}
5 \\
4
\end{pmatrix}
=
\begin{pmatrix}
\tfrac{\sqrt{3}}{2} & -\tfrac{1}{2} \\
\tfrac{1}{2} & \tfrac{\sqrt{3}}{2}
\end{pmatrix}
\begin{pmatrix}
5 \\
4
\end{pmatrix}
=
\begin{pmatrix}
(\tfrac{\sqrt{3}}{2})(5) + (-\tfrac{1}{2})(4) \\
(\tfrac{1}{2})(5) + (\tfrac{\sqrt{3}}{2})(4)
\end{pmatrix}
=
\begin{pmatrix}
\tfrac{5\sqrt{3}-4}{2} \\
\tfrac{5+4\sqrt{3}}{2}
\end{pmatrix}.
\]

Propiedades algebraicas del producto de una matriz por un vector

A continuación, exploraremos algunas de las propiedades que cumple el producto matriz-vector. Estas propiedades las deduciremos para matrices de $2 \times 3$ por vectores de tamaño $3$, pero la deducción para otros tamaños de matrices y vectores se realiza de manera análoga.

Primeramente, observemos que para matrices $A$ y $B$ de tamaño $2\times 3$, y para un vector $u$, se cumple que
\begin{align*}
(A+B)u
&=
\left(
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
+
\begin{pmatrix}
b_{11} & b_{12} & b_{13} \\
b_{21} & b_{22} & b_{23}
\end{pmatrix}
\right)
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}+b_{11} & a_{12}+b_{12} & a_{13}+b_{13}\\
a_{21}+b_{21} & a_{22}+b_{22} & a_{23}+b_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
(a_{11}+b_{11})u_1 + (a_{12}+b_{12})u_2+(a_{13}+b_{13})u_3 \\
(a_{21}+b_{21})u_1 + (a_{22}+b_{22})u_2+(a_{23}+b_{23})u_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}u_1+b_{11}u_1 + a_{12}u_2+b_{12}u_2 + a_{13}u_3+b_{13}u_3 \\
a_{21}u_1+b_{21}u_1 + a_{22}u_2+b_{22}u_2 + a_{23}u_3+b_{23}u_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}u_1+a_{12}u_2+a_{13}u_3 \\
a_{21}u_1+a_{22}u_2+a_{23}u_3
\end{pmatrix}
+
\begin{pmatrix}
b_{11}u_1+b_{12}u_2+b_{13}u_3 \\
b_{21}u_1+b_{22}u_2+b_{23}u_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
+
\begin{pmatrix}
b_{11} & b_{12} & b_{13} \\
b_{21} & b_{22} & b_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\\[5pt]
&=
Au + Bu,
\end{align*}
es decir, el producto matriz-vector se distribuye sobre la suma de matrices (esto también se conoce como que el producto matriz-vector abre sumas).

Por otra parte, podemos probar que el producto matriz-vector se distribuye sobre la suma de vectores; es decir, si $A$ es una matriz de $2 \times 3$, y $u$ y $v$ son vectores de tamaño $3$, entonces
\[
A(u+v) = Au + Av.
\]

Además, veamos que si $A$ es una matriz de $2 \times 3$, $r$ es un escalar, y $u$ un vector de tamaño $3$, entonces
\begin{align*}
A(ru)
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\left(
r
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\right)
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
ru_1 \\
ru_2 \\
ru_3 \\
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}ru_1 + a_{12}ru_2 + a_{13}ru_3 \\
a_{21}ru_1 + a_{22}ru_2 + a_{23}ru_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
r(a_{11}u_1) + r(a_{12}u_2) + r(a_{13}u_3) \\
r(a_{21}u_1) + r(a_{22}u_2) + r(a_{23}u_3)
\end{pmatrix}
\\[5pt]
&=
r
\begin{pmatrix}
a_{11}u_1 + a_{12}u_2 + a_{13}u_3 \\
a_{21}u_1 + a_{22}u_2 + a_{23}u_3
\end{pmatrix}
\\[5pt]
&=
r
\left(
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\right)
\\[5pt]
&=
r(Au)
\end{align*}
y, más aún,
\begin{align*}
A(ru)
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\left(
r
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\right)
\\[5pt]
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
ru_1 \\
ru_2 \\
ru_3 \\
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11}ru_1 + a_{12}ru_2 + a_{13}ru_3 \\
a_{21}ru_1 + a_{22}ru_2 + a_{23}ru_3
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
(ra_{11})u_1 + (ra_{12})u_2 + (ra_{13})u_3 \\
(ra_{21})u_1 + (ra_{22})u_2 + (ra_{23})u_3
\end{pmatrix}
\\[5pt]
&=
\left(
\begin{pmatrix}
ra_{11} & ra_{12} & ra_{13} \\
ra_{21} & ra_{22} & ra_{23}
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\right)
\\[5pt]
&=
\left(
r
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\right)
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\\[5pt]
&=
(rA)u.
\end{align*}

Por lo tanto $A(ru) = r(Au) = (rA)u$. Esta propiedad se conoce como que el producto matriz-vector saca escalares.

Como el producto de matrices por vectores abre sumas y saca escalares, se dice que es lineal. Un hecho bastante interesante, cuya demostración se dejará hasta los cursos de álgebra lineal, es que el regreso de esta afirmación también se cumple: ¡A cualquier transformación lineal se le puede asociar una matriz $A$ de modo que aplicar la transformación a un vector $v$ es lo mismo que hacer el producto $Av$!

Otras propiedades de este producto

En entradas anteriores definimos algunos vectores y matrices especiales.

Como recordarás, definimos la matriz identidad de tamaño $3 \times 3$ como
\[
\mathcal{I}_3
=
\begin{pmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{pmatrix}.
\]

Observemos que al multiplicar $\mathcal{I}_3$ por el vector
\[
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
\]
obtendremos
\[
\mathcal{I}_3 u
=
\begin{pmatrix}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & 0 & 1
\end{pmatrix}
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
=
\begin{pmatrix}
1u_1 + 0u_2 + 0u_3 \\
0u_1 + 1u_2 + 0u_3 \\
0u_1 + 0u_2 + 1u_3
\end{pmatrix}
=
\begin{pmatrix}
u_1 \\
u_2 \\
u_3
\end{pmatrix}
=
u.
\]
Como su nombre lo sugiere, la matriz $\mathcal{I}_n$ tiene la propiedad de ser neutro al multiplicarlo por un vector de tamaño $n$ (de hecho, como veremos en la siguiente entrada, ¡la matriz $I_n$ también cumple esta propiedad en otras operaciones!).

Por otra parte, recordemos que definimos el vector canónico $\mathrm{e}_i$ de tamaño $n$ como el vector en el que su $i$-ésima entrada es $1$ y sus demás entradas son $0$. Como ejemplo, veamos que
\begin{align*}
A\mathrm{e}_1
&=
\begin{pmatrix}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23}
\end{pmatrix}
\begin{pmatrix}
1 \\
0 \\
0
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
1a_{11} +0a_{12} +0a_{13} \\
1a_{21} +0a_{22} +0a_{23}
\end{pmatrix}
\\[5pt]
&=
\begin{pmatrix}
a_{11} \\
a_{21}
\end{pmatrix},
\end{align*}
donde este resultado corresponde a al primera columna de la matriz.

De manera análoga, podemos ver que
\[
A\mathrm{e}_2 =
\begin{pmatrix}
a_{12} \\
a_{22}
\end{pmatrix}
\qquad
\text{y}
\qquad
A\mathrm{e}_3 =
\begin{pmatrix}
a_{13} \\
a_{23}
\end{pmatrix}
\]
corresponden a la segunda y tercera columna de la matriz, respectivamente.

En general, para matrices de tamaño $m \times n$ y el vector $\mathrm{e}_i$ de tamaño $n$, el resultado de $A\mathrm{e}_i$ corresponde al vector cuyas entradas son las que aparecen en la $i$-ésima columna de la matriz.

Más adelante…

En esta entrada conocimos el producto de matrices con vectores, exploramos su interpretación geométrica y revisamos algunas de las propiedades algebraicas que cumple. Esta operación se añade a las que aprendimos en entradas anteriores, ampliando nuestra colección de herramientas.

En la siguiente entrada descubriremos una operación que nos permitirá sacar aún más poder a las operaciones que hemos conocido hasta ahora: el producto de matrices.

Tarea moral

  1. Obtén el resultado de las siguientes multipicaciones:

\(
\begin{pmatrix}
1 & -2 & 3 \\
1 & 0 & -1
\end{pmatrix}
\begin{pmatrix}
4 \\
5 \\
6
\end{pmatrix},
\)

\(
\begin{pmatrix}
2 & 5 \\
3 & \tfrac{1}{2}
\end{pmatrix}
\begin{pmatrix}
4 \\
2
\end{pmatrix}.
\)

  1. Considera la matriz $A=\begin{pmatrix} 3 & -4 \\ 4 & -5 \end{pmatrix}$. Realiza la siguiente operación: $$A\left(A\left(A\left(A\begin{pmatrix} 2 \\ 3 \end{pmatrix}\right)\right)\right).$$
  2. ¿Cuál matriz permite rotar un vector en el plano 45º? ¿Cuál 60º?
  3. Deduce las propiedades del producto matriz-vector para matrices de $3 \times 2$ y vectores de tamaño $2$.
  4. Una matriz desconocida $A$ de $3\times 3$ cumple que $Ae_1=\begin{pmatrix} 2 \\ 0 \\ -1 \end{pmatrix}$, que $Ae_2=\begin{pmatrix} 5 \\ 1 \\ -1 \end{pmatrix}$ y que $Ae_3=\begin{pmatrix} -1 \\ -1 \\ -1 \end{pmatrix}$. ¿Cuánto es $A\begin{pmatrix} 2 \\ 3 \\ 4 \end{pmatrix}$?

Entradas relacionadas

Cálculo Diferencial e Integral II: Propiedades de la integral definida

Por Moisés Morales Déciga

Introducción

En las entradas anteriores se dio la motivación de la construcción de la integral y la definición de la integral de Riemann. Para que cierta integral exista, necesitamos que el ínfimo de ciertas sumas superiores coincida con el supremo de ciertas sumas inferiores. Vimos algunas condiciones que garantizan que esto suceda, por ejemplo, que exista el límite de las sumas superiores e inferiores para las particiones homogéneas, y que dicho límite sea el mismo en ambos casos. Lo que haremos ahora es estudiar más propiedades de la integral.

Las propiedades que veremos nos permitirán concluir la existencia de ciertas integrales de manera sencilla y, a la vez, nos permitirán manipular algebraicamente a las integrales. En caso de necesitar un recordatorio de la definición de integral, te recomendamos consultar la entrada anterior.

Integrabilidad de familias de funciones especiales

Hay algunas propiedades de funciones que se estudian desde Cálculo I que implican la integrabilidad. A continuación presentamos un par de ejemplos.

Proposición. Si $f:\mathbb{R}\to \mathbb{R}$ es acotada y monótona en $[a,b]$, entonces es Riemann integrable en $[a,b]$.

Demostración. Supondremos que $f$ es estrictamente creciente. Otras variantes de monotonía (no decreciente, no creciente, estrictamente decreciente) tienen una demostración similar, que puedes hacer por tu cuenta.

Tomemos la partición homogénea $P_n$ del intervalo $[a,b]$. Definiendo $$x_j=a+j\frac{b-a}{n}$$ para $j=0,\ldots,n$, se tiene que las celdas son $$[x_0,x_1],[x_1,x_2],\ldots,[x_{n-1},x_n].$$

Las celdas tienen todas longitud $\frac{b-a}{n}$ y como la función es estrictamente creciente, el mínimo se alcanza al inicio de cada celda. De esta manera, la suma inferior para esta partición es:

\begin{align*}
\underline{S}(f,P_n)=\frac{b-a}{n}\left(f(x_0)+\ldots+f(x_{n-1})\right).
\end{align*}

Similarmente, el máximo se alcanza al final de cada celda. Por ello, la suma superior para esta partición es

\begin{align*}
\overline{S}(f,P_n)=\frac{b-a}{n}\left(f(x_1)+\ldots+f(x_n)\right).
\end{align*}

Restando la suma inferior a la superior, obtenemos

\begin{align*}
\overline{S}(f,P_n)-\underline{S}(f,P_n)&=\left(\frac{b-a}{n}\left(f(x_1)+\ldots+f(x_n)\right)\right)-\left(\frac{b-a}{n}\left(f(x_0)+\ldots+f(x_{n-1})\right)\right)\\
&=\frac{b-a}{n}(f(x_n)-f(x_0))\\
&=\frac{(b-a)(f(b)-f(a))}{n}.
\end{align*}

De acuerdo a la condición de Riemann (enunciada en la entrada anterior), la función será integrable si logramos que esta diferencia sea tan pequeña como queramos. Tomemos entonces cualquier $\epsilon>0$ y $n$ un entero tan grande como para que $n>\frac{1}{\epsilon}(b-a)(f(b)-f(a))$. Para este $n$, se cumple que

\begin{align*}
\overline{S}(f,P_n)-\underline{S}(f,P_n)&=\frac{(b-a)(f(b)-f(a))}{n}<\epsilon,
\end{align*}

y por ello la función es integrable.

$\square$

Proposición. Si $f:\mathbb{R}\to \mathbb{R}$ es continua en $[a,b]$, entonces es Riemann integrable en $[a,b]$.

Demostración. Como primera observación, como $f$ es continua en el intervalo cerrado y acotado $[a,b]$, entonces es acotada, de modo que sí podemos hablar de sus sumas superiores e inferiores.

La estrategia que usaremos para ver que es integrable será verificar nuevamente la condición de Riemann, es decir, que para cualquier $\epsilon > 0$, existe una suma superior y una inferior cuya diferencia es menor que $\epsilon$. La intuición es que con una partición suficientemente fina, el máximo y mínimo de $f$ son muy cercanos porque los puntos que los alcanzan están en una celda muy chiquita (y entonces son muy cercanos). Para poder hacer esto «globalmente» en todas las celdas, necesitaremos una propiedad un poco más fuerte que continuidad: continuidad uniforme (puedes seguir el enlace para recordar este contenido aquí en el blog). Pero ésta se tiene pues las funciones continuas en intervalos cerrados y acotados son uniformemente continuas.

Tomemos entonces $\epsilon >0$. Como mencionamos, $f$ es uniformemente continua y el intervalo $[a,b]$ es cerrado y acotado, entonces $f$ es uniformememente continua. Así, existe una $\delta>0$ tal que si $|x-y|<\delta$, entonces $|f(x)-f(y)|<\frac{\epsilon}{b-a}$. Tomemos $n$ tan grande como para que $\frac{b-a}{n}<\delta$. Tras hacer esto, en cada celda $i$ de la partición homogénea $P_n$ los valores $m_i$ y $M_i$ donde $f$ alcanza el mínimo y máximo respectivamente cumplen que $|M_i-m_i|\leq \frac{b-a}{n}<\delta$ y por lo tanto para cada $i$ se tiene $f(M_i)-f(m_i)=|f(M_i)-f(m_i)|<\frac{\epsilon}{b-a}$.

Ya tenemos los ingredientes para realizar la cuenta de sumas superiores e inferiores.

Por un lado,

$$\overline{S}(f,P_n)=\frac{b-a}{n}\left(f(M_1)+\ldots+f(M_n)\right).$$

Por otro,

$$\underline{S}(f,P_n)=\frac{b-a}{n}\left(f(m_1)+\ldots+f(m_n)\right),$$

así que

\begin{align*}
\overline{S}(f,P_n)-\underline{S}(f,P_n)&=\frac{b-a}{n}\sum_{i=1}^n \left(f(M_i)-f(m_i)\right)\\
&<\frac{b-a}{n}\sum_{i=1}^n \frac{\epsilon}{b-a}\\
&=\frac{b-a}{n}\left(n\frac{\epsilon}{b-a}\right)\\
&=\epsilon.
\end{align*}

Esto muestra que podemos acercar una partición superior tanto como queramos a una inferior. Por el criterio de la entrada anterior, la función $f$ es integrable en $[a,b]$.

$\square$

Separación de la integral en intervalos

Enunciemos una propiedad importante de la integral: puede partirse en intervalos.

Proposición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Sea $c$ cualquier valor entre $[a,b]$. Si la integral

$$\int \limits_{a}^{b} f(x) \ dx$$

existe, entonces las dos integrales

$$\int \limits_{a}^{c} f(x) \ dx, \int \limits_{c}^{b} f(x) \ dx$$

también existen. Y viceversa, si estas dos integrales existen, entonces la primera también.

Cuando las tres integrales existen, se cumple además la siguiente igualdad:

$$\int \limits_{a}^{b} f(x) \ dx = \int \limits_{a}^{c} f(x) \ dx \ + \int \limits_{c}^{b} f(x) \ dx .$$

Demostración. Veamos primero que si la integral en todo $[a,b]$ existe, entonces las otras dos también. Trabajaremos usando la condición de Riemann. Sea $\epsilon>0$. Como $f$ es integrable en $[a,b]$, entonces existe una partición $P$ de $[a,b]$ tal que

$$\overline{S}(f,P)-\underline{S}(f,P)<\epsilon.$$

Podemos suponer que uno de los puntos de $P$ es el punto $c$, pues de no serlo, refinamos a $P$ incluyendo a $c$. Esto no aumenta la suma superior, ni disminuye la inferior, así que sigue cumpliendo la desigualdad anterior. Si $P=\{x_0,\ldots,x_n\}$, podemos entonces pensar que para alguna $k$ en $\{0\ldots,n\}$ se cumple que $x_k=c$, y entonces de esta partición de $[a,b]$ salen las particiones:

  • $P_1 = \{a=x_0, x_1, … , x_k=c\}$ de $[a,c]$ y
  • $P_2 = \{c={x_k}, x_{k+1}, … , x_n=b\}$ de $[c,b]$.

Como las celdas de $P$ son celdas de $P_1$ ó $P_2$, entonces las sumas superiores e inferiores cumplen:

\begin{align*}
\overline{S} (f,P_1) + \overline{S} (f,P_2) &= \overline{S} (f,P), \\
\underline{S} (f,P_1) + \underline{S} (f,P_2) &= \underline{S} (f,P) .\\
\end{align*}

Si se restan ambas sumas, se obtiene lo siguiente:

\begin{align*}
\left(\overline{S} (f,P_1) \ – \ \underline{S} (f,P_1)\right) + \left(\overline{S} (f,P_2) \ – \ \underline{S} (f,P_2)\right) = \overline{S} (f,P) \ – \ \underline{S} (f,P) < \epsilon.\\
\end{align*}

Ambos términos de la izquierda son positivos y su suma es menor que $\epsilon$, así que concluimos:

\begin{align*}
\overline{S} (f,P_1) \ – \ \underline{S} (f,P_1) &< \epsilon,\\
\overline{S} (f,P_2) \ – \ \underline{S} (f,P_2) &< \epsilon.\\
\end{align*}

De este modo, por el criterio de Riemann se tiene que $f$ es integrable en $[a,c]$ y en $[c,b]$.

Si la integrales en $[a,c]$ y $[c,b]$ existen, entonces puede hacerse una prueba similar: para cualquier $\epsilon$ habrá una partición $P$ de $[a,c]$ con diferencia de suma superior e inferior menor a $\epsilon/2$, y lo mismo para una partición $P’$ de $[c,b]$. Un argumento similar al de arriba ayudará a ver que $P\cup P’$ es una partición de $[a,b]$ que hace que la diferencia de la suma superior e inferior sea menor a $\epsilon$. Los detalles quedan para que los verifiques por tu cuenta.

Veamos ahora que cuando las integrales existen, entonces se cumple la igualdad

$$\int \limits_{a}^{b} f(x) \ dx = \int \limits_{a}^{c} f(x) \ dx \ + \int \limits_{c}^{b} f(x) \ dx .$$

Tomemos cualquier partición $P’$ de $[a,b]$. Tomemos el refinamiento $P=P’\cup \{c\}$ y escribamos $P=P_1\cup P_2$ como arriba. Usando que las integrales son ínfimos de sumas superiores (y por lo tanto son cotas inferiores), tenemos que:

\begin{align*}
\overline{S}(f,P’) & \geq \overline{S}(f,P)\\
&=\overline{S}(f,P_1) + \overline{S}(f,P_2)\\
&\geq \int_a^c f(x)\, dx + \int_c^b f(x) \,dx.
\end{align*}

Por definición, $\int \limits_{a}^{b} f(x) \ dx$ es el ínfimo de las sumas superiores sobre todas las particiones $P’$ de $[a,b]$ y entonces es la mayor de las cotas inferiores. Como arriba tenemos que $\int_a^c f(x)\, dx + \int_c^b f(x) \,dx$ es cota inferior para todas estas sumas superiores, entonces:

$$\int_a^b f(x)\, dx \geq \int_a^c f(x)\, dx + \int_c^b f(x) \,dx.$$

Así mismo, para cualesquiera particiones $P_1$ y $P_2$ de $[a,c]$ y $[c,b]$ respectivamente, tenemos que $P_1\cup P_2$ es partición de $[a,b]$ y entonces

$$\overline{S}(f,P_1) + \overline{S}(f,P_2) = \overline{S}(f,P_1\cup P_2) \geq \int_a^b f(x)\,dx,$$

de donde

$$\overline{S}(f,P_1) \geq \int_a^b f(x)\,dx \ – \ \overline{S}(f,P_2).$$

Así, para cualquier partición $P_2$ fija, hemos encontrado que $\int_a^b f(x)\,dx – \overline{S}(f,P_2)$ es cota inferior para todas las sumas superiores de particiones $P_1$ de $[a,c]$. De este modo, por ser la integral en $[a,c]$ la mayor de estas cotas inferiores, se tiene

$$\int_a^c f(x)\, dx \geq \int_a^b f(x)\,dx \ – \ \overline{S}(f,P_2)$$

para cualquier partición $P_2$ de $[c,b]$. Pero entonces

$$\overline{S}(f,P_2) \geq \int_a^b f(x)\,dx \ – \ \int_a^c f(x)\, dx, $$

se cumple para toda partición $P_2$ de $[b,c]$, de donde concluimos

$$\int_b^c f(x)\, dx \geq \int_a^b f(x)\,dx \ – \ \int_a^c f(x)\, dx.$$

Despejando, obtenemos la desigualdad

$$\int_a^b f(x)\, dx + \int_b^c f(x)\, dx \geq \int_a^b f(x).$$

Junto con la desigualdad que mostramos arriba, se obtiene la desigualdad deseada.

$\square$

Límites reales arbitrarios

Hasta ahora siempre hemos hablado de la existencia de la integral de una función en un intervalo $[a,b]$ con $a\leq b$. Cuando $a=b$, la integral que buscamos es en el intervalo $[a,a]$ y se puede mostrar que en este caso la integral siempre existe y es igual a cero, es decir, que $$\int_a^a f(x)\, dx = 0.$$

La siguiente definición nos dice qué hacer cuando en los límites de integración vamos de un número mayor a uno menor.

Definición. Sea $f:\mathbb{R}\to \mathbb{R}$ una función acotada. Sean $a<b$ reales. Si la integral de $f$ en el intervalo $[a,b]$ existe, entonces definimos la integral de $f$ de $b$ a $a$ como sigue: $$\int_b^a f(x)\,dx= – \int_a^b f(x)\, dx.$$

Esta definición es compatible con todo lo que hemos platicado, y nos permite extender la identidad $$\int \limits_{a}^{c} f(x) \ dx, \int \limits_{c}^{b} f(x) \ dx$$ de la proposición de la sección anterior a valores arbitrarios de $a,b,c$, sin importar en qué orden estén en la recta real (siempre y cuando las integrales existan, por supuesto). Por ejemplo, si $a>b>c$, entonces podemos proceder como sigue mediante lo que ya hemos demostrado y definido:

\begin{align*}
\int_a^b f(x)\, dx &= – \int_b^a f(x)\, dx \quad \text{Def. int. para $a>b$.}\\
&= – \left(\int_c^a f(x)\, dx \ – \ \int_c^b f(x)\, dx\right) \quad \text{Por prop. anterior pues $c<b<a$.}\\
&= – \int_c^a f(x)\, dx + \int_c^b f(x)\, dx \quad \text{Distribuir el $-$}\\
&= \int_a^c f(x)\, dx + \int_c^b f(x)\, dx \quad \text{Def. int. para $a>c$}.
\end{align*}

Aquí se ve como con un orden específico de $a,b,c$ se sigue cumpliendo la identidad buscada, aunque $c$ no quede entre $a$ y $b$ y no se cumpla que $a\leq b$. Siempre es posible hacer esto y te recomendamos pensar en cómo argumentar todos los casos posibles de $a,b,c$.

La intuición en áreas de que la integral $\int_b^a f(x)\, dx$ cambia de signo con respecto a $\int_a^b f(x)\, dx$ es que en una recorremos el área de izquierda a derecha y en la otra de derecha a izquierda. Entonces, «recorremos el área al revés» porque «graficamos hacia atrás». Por ejemplo, se tiene el intervalo $[5,1]$, la forma en que se recorrerá al momento de graficar sería del $5$ al $1$ y, si la función es positiva, la integral será negativa.

Linealidad de la integral

Tomemos dos funciones acotadas $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ y supongamos que son integrables en el intervalo $[a,b]$. Tomemos cualquier real arbitrario $\alpha$. A partir de esto, podemos construir la función $f+\alpha g$, que recordemos que su definición es que es una función de $[a,b]$ a $\mathbb{R}$ con regla de asignación $$(f+\alpha g)(x) = f(x) + \alpha g(x).$$

Si tomamos una partición $P$ de $[a,b]$, se puede verificar fácilmente que

\begin{align*}
\overline{S}(f+\alpha g, P)&=\overline{S}(f,P)+\alpha \overline{S}(g,P),\\
\underline{S}(f+\alpha g, P)&=\underline{S}(f,P)+\alpha \underline{S}(g,P).
\end{align*}

Restando ambas expresiones,

$$\overline{S}(f+\alpha g, P) \ – \ \underline {S}(f+\alpha g, P) = \left(\overline{S}(f,P) \ – \ \underline{S}(f,P)\right) + \alpha \left(\overline{S}(g,P) \ – \ \underline{S}(g,P)\right).$$

Intuitivamente (respaldados por el criterio de Riemann), el lado derecho puede ser tan pequeño como queramos pues $f$ y $g$ son integrables. Así que el lado izquierdo también. Esto muestra que $f+\alpha g$ también es integrable en $[a,b]$. Te recomendamos hacer una demostración formal.

Además, si $P_n$ es una sucesión de particiones en donde los tamaños de celda convergen a cero (y por lo tanto para las cuales las sumas superiores convergen a la integral para cada función de arriba), entonces:

\begin{align*}
\int_a^b (f+\alpha g)(x)\, dx &= \lim_{n\to \infty} \overline{S} (f+\alpha g, P_n)\\
&=\lim_{n\to \infty} \left(\overline{S}(f,P_n)+ \alpha\overline{S}(g,P_n)\right)\\
&=\lim_{n\to \infty} \overline{S}(f,P_n) + \alpha \lim_{n\to \infty} \overline{S}(g,P_n)\\
&=\int_a^b f(x)\, dx + \alpha \int_a^b g(x)\, dx.
\end{align*}

En resumen, hemos demostrado lo siguiente:

Teorema. La integral es lineal. Es decir, si $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ son funciones acotadas e integrables en $[a,b]$, entonces para cualquier real $\alpha$ también $f+\alpha g$ es integrable en $[a,b]$ y además se cumple $$\int_a^b (f+\alpha g)(x)\, dx = \int_a^b f(x)\, dx + \alpha \int_a^b g(x)\, dx.$$

Dos casos particulares de interés son los siguientes:

  • Si en el teorema anterior tomamos $\alpha=1$, entonces obtenemos que $\int_a^b (f+g)(x)=\int_a^b f(x)\, dx + \int_a^b g(x)\, dx$, es decir, la integral abre sumas.
  • Si en el teorema anterior tomamos $f$ como la función constante cero, entonces obtenemos que $\int_a^b \alpha g(x)\, dx = \alpha \int_a^b g(x)\, dx$, es decir la integral saca escalares.

La integral respeta desigualdades

Veamos que la integral, en cierto sentido, respeta desigualdades. Un primer paso que es muy sencillo de verificar es lo que sucede con la integral de funciones no negativas.

Proposición. Si $f:\mathbb{R}\to \mathbb{R}$ es una función integrable en el intervalo $[a,b]$ y se cumple $f(x)\geq 0$ para todo $x\in [a,b]$, entonces $$\int_a^b f(x)\, dx \geq 0.$$

Demostración. Como $f(x)\geq 0$, entonces claramente para cualquier partición $P$ se cumple que $\overline{S}(f,P)\geq 0$, pues aparecen puros términos positivos en la suma superior. Así, $0$ es una cota inferior para las sumas superiores. Como la integral es la máxima de dichas cotas superiores, entonces $$\int_a^b f(x)\, dx \geq 0,$$ como queríamos.

$\square$

De este resultado y las propiedades que hemos mostrado, podemos deducir algo mucho más general.

Teorema. Sean $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ funciones integrables en un intervalo $[a,b]$, dentro del cual también se cumple que $f(x)\leq g(x)$. Entonces, $$\int_a^b f(x)\, dx \leq \int_a^b g(x)\, dx.$$

Demostración. Como $f$ y $g$ son integrables en $[a,b]$, entonces la combinación lineal $g-f$ también lo es, y además $(g-f)(x)=g(x)-f(x)\geq 0$. Por la proposición anterior y la linealidad de la integral, tenemos entonces que: $$\int_a^b g(x)\, dx \ – \ \int_a^b f(x)\, dx = \int_a^b (g-f)(x)\, dx \geq 0.$$

De aquí, $$\int_a^b f(x)\, dx \leq \int_a^b g(x)\, dx,$$ como queríamos.

$\square$

Más adelante…

Todas las propiedades que hemos enunciado se utilizarán de aquí en adelante. Es importante que las tengas presentes. Son propiedades que nos permiten factorizar funciones para que al momento de integrar o que nos permiten partir una integral complicada en otras más sencillas con integración inmediata o ya conocida.

En la siguiente entrada enunciaremos y demostraremos el teorema del valor medio para la integral. Es un teorema muy relevante, pues será uno de los ingredientes en la demostración de otros teoremas importantes para el cálculo integral.

Tarea moral

  1. Utilizando las propiedades anteriores, resuelve las siguientes integrales.
    • $\int \limits_0^1 7(4+3x^2) ~dx.$
    • $\int \limits_2^0 \frac{1}{4}(32x-3x^2+6) ~dx.$
  2. Termina con detalle todas las demostraciones de la entrada que hayan quedado pendientes.
  3. Usndo las propiedades de esta entrada, demuestra que la integral $\int_{-10}^{10} x^7-x^5+3x^3+27x\, dx$ existe y determina su valor. Sugerencia. Muestra que la función dentro de la integral es continua y cumple $f(x)=-f(x)$. Usa varias de las propiedades de esta entrada.
  4. Demuestra la siguiente igualdad:
    $$ \int \limits_{a}^{b} \alpha \ f(x) \ dx \ + \int \limits_{a}^{b} \beta\ g(x) \ dx \ = \ \int \limits_{a}^{b} \alpha f(x) \ + \beta g(x) \ dx .$$
  5. Sean $a\leq b\leq c\leq d$ números reales. Sea $f:\mathbb{R}\to \mathbb{R}$ una función integrable en $[a,d]$. Demuestra que todas las integrales $$\int_a^c f(x)\, dx, \int_b^d f(x)\, dx, \int_a^d f(x)\,dx, \int_b^c f(x)\,dx$$
    existen y muestra que satisfacen la siguiente identidad:
    $$\int_a^c f(x)\, dx + \int_b^d f(x)\, dx = \int_a^d f(x)\,dx + \int_b^c f(x)\,dx.$$
  6. Sean $a<b$ reales. Demuestra que si la función $f:\mathbb{R}\to \mathbb{R}$ es continua en $[a,b]$, se cumple que $f(x)\geq 0$ para $x\in [a,b]$ y además existe por lo menos un punto $c$ tal que $f(c)>0$, entonces $\int_a^b f(x)\, dx >0$. Como sugerencia, demuestra que existe todo un intervalo (aunque sea muy chiquito) donde la función es positiva, y usa otras propiedades que hemos mostrado. Luego, encuentra un contraejemplo para esta afirmación en donde $f$ no sea continua.

Entradas relacionadas