Archivo de la etiqueta: vectores

Seminario de Resolución de Problemas: Vectores en geometría

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente, comenzamos esta serie de entradas de geometría platicando de algunas técnicas euclideanas o sintéticas que se pueden usar para resolver problemas en el plano. Después, tomamos herramientas de la geometría analítica, las cuales nos permiten poner problemas en términos de coordenadas y ecuaciones. Lo que haremos ahora es ver varios ejemplos del uso de vectores en geometría.

A diferencia de la geometría analítica, cuando hablamos de soluciones por vectores estamos hablando de aquellas que aprovechan la estructura de espacio vectorial en $\mathbb{R}^2$. En otras palabras, usamos argumentos en los cuales pensamos a los puntos del plano como vectores, los cuales tienen una dirección y una magnitud. Los vectores tienen operaciones de suma y de producto por un escalar. Además, tienen producto punto, norma y transformaciones dadas por matrices. Apenas tocaremos la superficie del tipo de teoría que se puede usar. Un buen curso de álgebra lineal te puede dar más herramientas para resolver problemas geométricos.

Interpretar puntos como vectores

Pongamos un origen $O$ en el plano. A cada punto $P$ le corresponden ciertas coordenadas dadas por parejas de reales $(x,y)$, que identificaremos con $P$. Al origen le corresponden las coordenadas $(0,0)$. Si tenemos otro punto $Q=(w,z)$, entonces su suma es el vector $P+Q=(x+w,y+z)$. Si tomamos un real $r$, el vector $rP$ es el vector de coordenadas $(rx,ry)$.

Suma de vectores
Suma de vectores

La suma $P+Q$ se puede encontrar mediante la ley del paralelogramo: los puntos $O,P,P+Q,Q$ hacen un paralelogramo en ese orden cíclico. La resta $Q-P$ está definida por $Q+(-1)P$, y la llamamos el vector $PQ$. Geométricamente coincide con el vector que va «de $P$ a $Q$». Observa que el orden es importante y que $OP=P$.

Resta de vectores
Resta de vectores

Proposición (de la razón). Si tenemos dos puntos $P$ y $Q$ distintos y $m,n$ son reales, entonces podemos encontrar al único punto $R$ en la recta por $P$ y $Q$ tal que $$\frac{PR}{RQ}=\frac{m}{n}$$ así: $$R=\frac{n}{m+n}P + \frac{m}{m+n} Q.$$

Punto en una recta con cierta razón
Punto en una recta con cierta razón

Veamos dos problemas en los que se usan estas ideas de vectores en geometría, en particular, la proposición de la razón.

Problema. En el triángulo $ABC$ se toman puntos $D,E,F$ sobre los segmentos $BC,CA,AB$ tales que $\frac{BD}{DC}=\frac{CE}{EA}=\frac{AF}{FB}=\frac{1}{4}$. Muestra que $ABC$ y $DEF$ tienen el mismo gravicentro.

Sugerencia pre-solución. Encuentra una fórmula en términos vectoriales para el gravicentro de un triángulo $ABC$.

Solución. Tomemos un triángulo $PQR$ y pensemos a sus vértices como vectores. Afirmamos que su gravicentro $X$ es el punto correspondiente a $\frac{P+Q+R}{3}$ Demostraremos esto.

El gravicentro está a un tercio del punto medio hacia el vértice correspondiente
Razón del gravicentro en la mediana

Primero haremos un argumento de geometría sintética. El gravicentro es por definición el punto de intersección de las medianas de un triángulo. Si $L$ es el punto medio de $QR$ y $M$ es el punto medio de $RP$, entonces $X$ es el punto de intersección de $PL$ y $QM$. Tenemos que $$\frac{RL}{LQ}=1=\frac{RM}{MP},$$ así que por el teorema de Tales se tiene que la recta por $L$ y $M$ es paralela al lado $PQ$, y $\frac{LM}{PQ}=\frac{1}{2}$. Esto muestra que los triángulos $XLM$ y $XPQ$ son semejantes en razón $1$ a $2$. Por lo tanto, $\frac{LX}{XP}=\frac{1}{2}$.

Ahora hagamos el argumento vectorial, pensando a los puntos como vectores. El punto $L$ está a la mitad de $QR$, así que por la proposición de la razón, $$L=\frac{Q+R}{2}.$$ El punto $X$ cumple $\frac{LX}{XP}=\frac{1}{2}$, así que de nuevo por la proposición de la razón.
\begin{align*}
X&=\frac{2L+P}{2+1}\\
&=\frac{Q+R+P}{3}\\
&=\frac{P+Q+R}{3}.
\end{align*}

Esto es el resultado auxiliar que queríamos mostrar. Regresemos al problema.

De acuerdo al resultado auxiliar, el gravicentro de $ABC$ es $$G:=\frac{A+B+C}{3}.$$ Usando una vez más la proposición de la razón, los puntos $D$, $E$ y $F$ los podemos calcular como sigue:
\begin{align*}
D&=\frac{4B+C}{4+1}=\frac{4B+C}{5}\\
E&=\frac{4C+A}{4+1}=\frac{4C+A}{5}\\
F&=\frac{4A+B}{4+1}=\frac{4A+B}{5}.
\end{align*}

De esta forma, el gravicentro $G’$ de $DEF$ lo podemos encontrar como sigue:
\begin{align*}
G’&=\frac{D+E+F}{3}\\
&=\frac{\frac{4B+C}{5}+\frac{4C+A}{5}+\frac{4A+B}{5}}{3}\\
&=\frac{A+B+C}{3}\\
&=G.
\end{align*}

Esto termina la solución del problema.

$\square$

Problema. En el paralelogramo $ABCD$ el punto $F$ es el punto medio de $CD$. Muestra que el segmento $AF$ corta a la diagonal $BD$ en un punto $E$ tal que $\frac{DE}{DB}=\frac{1}{3}$.

Sugerencia pre-solución. Hay varias formas de hacer las cuentas en este problema, pero el uso de una notación adecuada te hará simplificar muchas operaciones.

Solución. Pensemos a los puntos de la figura como vectores. Coloquemos al punto $A$ en el origen. El punto $C$ está dado por $B+D$, de modo que $$F:=\frac{C+D}{2}=\frac{B+2D}{2}.$$

Vectores en geometría: problema de paralelogramo
Figura auxiliar para problema de paralelogramo

Para encontrar al punto $E$, notemos que está en las rectas $AF$ y $BD$. De esta forma, deben existir reales $r$ y $s$ tales que $$E=rF$$ y $$E=sB+(1-s)D.$$ Expresando $F$ en términos de $B$ y $D$ en la primer ecuación, tenemos que $$E=\frac{rB+2rD}{2}=\frac{rB}{2}+rD.$$ De ambas expresiones para $E$, concluimos que
\begin{align*}
s=\frac{r}{2}\\
1-s=r.
\end{align*}

Este sistema de ecuaciones tiene solución $r=\frac{2}{3}$, $s=\frac{1}{3}$, y por lo tanto $E=\frac{B+2D}{3}$. De aquí se obtiene $\frac{DE}{EB}=\frac{1}{2}$, o bien $\frac{DE}{DB}=\frac{DE}{DE+EB}=\frac{1}{3}$, como queríamos mostrar.

$\square$

Producto punto, norma y ángulos

Para dos vectores $P=(x,y)$ y $Q=(w,z)$ definimos su producto punto como la cantidad $P\cdot Q = xw+yz$. El productos puntos es:

  • Conmutativo: $P\cdot Q = Q\cdot P$
  • Abre sumas: $P\cdot (Q+R)=P\cdot Q + P\cdot R$
  • Saca escalares: $(rP)\cdot Q = r(P\cdot Q)$.

La norma de $P$ se define como $\norm{P}=\sqrt{P\cdot P}$, y coincide con la distancia de $P$ al origen. La norma de $PQ$ es entonces $\norm{PQ}=\sqrt{(Q-P)\cdot (Q-P)}$ y coincide con la distancia de $P$ a $Q$.

El ángulo entre dos vectores $PQ$ y $RS$ se define como el ángulo cuyo coseno es $$\frac{PQ \cdot RS}{\norm{PQ}\norm{RS}},$$ y coincide precisamente con el ángulo (orientado) geométrico entre las rectas $PQ$ y $RS$. De esta forma, las rectas $PQ$ y $RS$ son perpendiculares si y sólo si el producto punto $PQ\cdot RS$ es cero.

Problema. Sea $ABC$ un triángulo con sus vértices pensados como vectores. Sean $H$ y $O$ su ortocentro y circuncentro respectivamente. Supongamos que el circuncentro $O$ está en el origen. Muestra que $H=A+B+C$.

Sugerencia pre-solución. Trabaja hacia atrás. Define al punto $A+B+C$ y ve que las rectas que unen a los vértices con este punto en efecto son alturas. Para calcular los ángulos, usa el producto punto y sus propiedades.

Solución. Como el circuncentro equidista de $A$. $B$ y $C$, tenemos que $$\norm{A}=\norm{B}=\norm{C}.$$ Tomemos el punto $H’=A+B+C$.

Vectores en geometría para encontrar el ortocentro
Ortocentro con vectores

Calculemos el ángulo entre las rectas $BC$ y $AH’$, haciendo su producto punto:
\begin{align*}
BC\cdot AH’ &= (C-B)\cdot (H’-A)\\
&=(C-B)\cdot(C+B)\\
&=C\cdot C + C\cdot B – B\cdot C – B\cdot B\\
&=\norm{C}^2 – \norm{B}^2\\
&=0.
\end{align*}

Observa que estamos usando la linealidad y conmutatividad del producto punto. Al final usamos que $A$ y $C$ tienen la misma norma.

Esto muestra que la recta $AH’$ es la altura al lado $BC$. De manera análoga, $BH’$ y $CH’$ son las alturas a los lados $CA$ y $AB$ respectivamente. Por lo tanto, $H’$ es el ortocentro, así que $H=A+B+C$.

$\square$

Cualquier triángulo $ABC$ en el plano se puede trasladar para que su circuncentro $O$ quede en el origen. El ortocentro estará en $H=A+B+C$ y el gravicentro, como vimos antes, en $G=\frac{A+B+C}{3}$, que es un múltiplo escalar de $H$. Por lo tanto, $O$, $H$ y $G$ están alineados. Acabamos de demostrar con vectores en geometría un clásico resultado euclideano.

Teorema (recta de Euler). En cualquier triángulo $ABC$, el circuncentro $O$, el gravicentro $G$ y el ortocentro $H$ están alineados. Además, $$\frac{OG}{GH}=\frac{1}{2}.$$

Teorema de la recta de Euler
Teorema de la recta de Euler

Si el circuncentro no está en el origen, ahora podemos usar el teorema de la recta de Euler y la proposición de la razón para concluir que $G=\frac{2O+H}{3}$. Usando que $G=\frac{A+B+C}{3}$, obtenemos el siguiente corolario

Corolario. Sea $ABC$ un triángulo en el plano, $H$ su ortocentro y $O$ su circuncentro. Entonces al pensar a los puntos como vectores tenemos que $$A+B+C=2O+H.$$

Más problemas

Puedes encontrar más problemas del uso de vectores en geometría en la sección 8.3 del libro Problem Solving through Problems de Loren Larson.

Álgebra Lineal I: Determinantes de vectores e independencia lineal

Por Leonardo Ignacio Martínez Sandoval

Introducción

En este cuarto y último bloque del curso comenzamos hablando de transformaciones multilineales y de permutaciones. Luego, nos enfocamos en las transformaciones multilineales antisimétricas y alternantes. Con la teoría que hemos desarrollado hasta ahora, estamos listos para definir determinantes de vectores, de transformaciones lineales y de matrices.

En esta entrada comenzaremos con la definición de determinantes de vectores. En la siguiente entrada hablaremos acerca de determinantes de matrices y de transformaciones lineales. Después de definir determinantes, probaremos varias de las propiedades que satisfacen. Posteriormente, hablaremos de varias técnicas que nos permitirán calcular una amplia variedad de determinantes para tipos especiales de matrices.

Determinantes de vectores

Para empezar, definiremos qué es el determinante de un conjunto de vectores en un espacio de dimensión finita con respecto a una base.

Definición. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ de dimensión finita $n$ y $x_1,\ldots,x_n$ vectores de $V$. Cada uno de los $x_i$ se puede escribir como $$x_i=\sum_{j=1}^n a_{ji}b_j.$$

El determinante de $x_1,\ldots,x_n$ con respecto a $(b_1,\ldots,b_n)$ es $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},$$ y lo denotamos por $\det_{(b_1,\ldots,b_n)} (x_1,\ldots,x_n)$.

Observa que estamos sumando tantos términos como elementos en $S_n$. Como existen $n!$ permutaciones de un conjunto de $n$ elementos, entonces la suma de la derecha tiene $n!$ sumandos.

Ejemplo. Consideremos la base $b_1=1$, $b_2=1+x$ y $b_3=1+x+x^2$ del espacio vectorial $\mathbb{R}_2[x]$ de polinomios con coeficientes reales y grado a lo más $2$. Tomemos los polinomios $v_1=1$, $v_2=2x$ y $v_3=3x^2$. Vamos a calcular el determinante de $v_1, v_2, v_3$ con respecto a la base $(b_1,b_2,b_3)$.

Para hacer eso, lo primero que tenemos que hacer es expresar a $v_1, v_2, v_3$ en términos de la base. Hacemos esto a continuación:
\begin{align*}
v_1&= 1\cdot b_1 + 0 \cdot b_2 + 0 \cdot b_3\\
v_2&= -2\cdot b_1 + 2 \cdot b_2 + 0 \cdot b_3\\
v_3&= 0 \cdot b_1 – 3 \cdot b_2 +3 b_3.
\end{align*}

De aquí, obtenemos
\begin{align*}
a_{11}&=1, a_{21}=0, a_{31}=0,\\
a_{12}&=-2, a_{22}=2, a_{32}=0,\\
a_{13}&=0, a_{23}=-3, a_{33}=3.
\end{align*}

Si queremos calcular el determinante, tenemos que considerar las $3!=3\cdot 2 \cdot 1 = 6$ permutaciones en $S_3$. Estas permutaciones son

\begin{align*}
\sigma_1 &= \begin{pmatrix}1 & 2 & 3 \\ 1 & 2 & 3\end{pmatrix}\\
\sigma_2 &= \begin{pmatrix}1 & 2 & 3 \\ 1 & 3 & 2\end{pmatrix}\\
\sigma_3 &= \begin{pmatrix}1 & 2 & 3 \\ 2 & 1 & 3\end{pmatrix}\\
\sigma_4 &= \begin{pmatrix}1 & 2 & 3 \\ 2 & 3 & 1\end{pmatrix}\\
\sigma_5 &= \begin{pmatrix}1 & 2 & 3 \\ 3 & 2 & 1\end{pmatrix}\\
\sigma_6 &= \begin{pmatrix}1 & 2 & 3 \\ 3 & 1 & 2\end{pmatrix}.
\end{align*}

Los signos de $\sigma_1,\ldots,\sigma_6$ son, como puedes verificar, $1$, $-1$, $-1$, $1$, $-1$ y $1$, respectivamente.

El sumando correspondiente a $\sigma_1$ es
\begin{align}
\text{sign}(\sigma_1) &a_{1\sigma_1(1)}a_{2\sigma_1(2)}a_{3\sigma_1(3)}\\
&= 1 \cdot a_{11}a_{22}a_{33}\\
&=1\cdot 1\cdot 2 \cdot 3 = 6.
\end{align}

El sumando correspondiente a $\sigma_2$ es
\begin{align}
\text{sign}(\sigma_2) &a_{1\sigma_2(1)}a_{2\sigma_2(2)}a_{3\sigma_2(3)}\\
&= (-1) \cdot a_{11}a_{23}a_{32}\\
&=(-1) \cdot 1\cdot (-3) \cdot 0 = 0.
\end{align}

Continuando de esta manera, se puede ver que los sumandos correspondientes a $\sigma_1,\ldots,\sigma_6$ son $$+6,-0,-0,+0,-0,+0,$$ respectivamente de modo que el determinante es $6$.

$\triangle$

La expresión de determinante puede parecer algo complicada, pero a través de ella podemos demostrar fácilmente algunos resultados. Consideremos como ejemplo el siguiente resultado.

Proposición. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ de dimensión finita $n$. El determinante de $B$ con respecto a sí mismo es $1$.

Demostración. Cuando escribimos a $b_i$ en términos de la base $b$, tenemos que $$b_i=\sum_{j=1}^n a_{ji} b_j.$$ Como la expresión en una base es única, debemos tener $a_{ii}=1$ y $a_{ji}=0$ si $j\neq i$. Ahora, veamos qué le sucede al determinante $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$

Si $\sigma$ es una permutación tal que $\sigma(i)\neq i$ para alguna $i$, entonces en el producto del sumando correspondiente a $\sigma$ aparece $a_{i\sigma(i)}=0$, de modo que ese sumando es cero. En otras palabras, el único sumando no cero es cuando $\sigma$ es la permutación identidad.

Como el signo de la identidad es $1$ y cada $a_{ii}$ es $1$, tenemos que el determinante es
\begin{align*}
\sum_{\sigma \in S_n} \text{sign}&(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)} \\
&=a_{11}\cdot\ldots\cdot a_{nn}\\
&= 1\cdot\ldots\cdot 1 \\
& = 1.
\end{align*}

$\square$

El determinante es una forma $n$-lineal alternante

La razón por la cual hablamos de transformaciones $n$-lineales antisimétricas y alternantes antes de hablar de determinantes es que, en cierto sentido, los determinantes de vectores son las únicas transformaciones de este tipo. Los siguientes resultados formalizan esta intuición.

Teorema. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ sobre $F$. Entonces la transformación $\det_{(b_1,\ldots,b_n)}:V^n \to F$ es una forma $n$-lineal y alternante.

Demostración. La observación clave para demostrar este resultado es que $\det_{(b_1,\ldots,b_n)}$ se puede reescribir en términos de la base dual $b_1^\ast, \ldots, b_n^\ast$. En efecto, recuerda que $b_i^\ast$ es la forma lineal que «lee» la coordenada de un vector $v$ escrito en la base $B$. De esta forma,

\begin{align*}
\det_{(b_1,\ldots,b_n)}&(v_1,\ldots,v_n)\\
&=\sum_{\sigma\in S_n}\left(\text{sign}(\sigma) \prod_{j=1}^n b_j^\ast(v_{\sigma(j)})\right)\\
\end{align*}

Para cada permutación $\sigma$, el sumando correspondiente es una forma $n$-lineal, pues es producto de $n$ formas lineales evaluadas en los distintos vectores. Así que $\det_{(b_1,\ldots,b_n)}$ es suma de formas $n$-lineales y por lo tanto es forma $n$-lineal.

Para mostrar que el determinante es alternante, tenemos que mostrar que es igual a $0$ cuando algún par de sus entradas son iguales. Supongamos que $i\neq j$ y que $v_i=v_j$. Tomemos $\tau$ a la transposición que intercambia a $i$ y a $j$. Cuando se compone una permutación con una transposición, su signo cambia. Así, para cualquier permutación $\sigma$, tenemos que $\sigma\tau$ tiene signo diferente.

Además, para cualquier $\sigma$ tenemos que $$a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}$$ y $$a_{1\sigma\tau(1)}\cdot\ldots\cdot a_{n\sigma\tau(n)}$$ son iguales, pues $v_i=v_j$. Combinando ambas ideas, podemos emparejar a cada sumando del determinante con otro con el cual sume cero. Esto muestra que el determinante es $0$.

$\square$

Usando la teoría que desarrollamos en la entrada anterior, tenemos el siguiente corolario.

Corolario. La forma $n$-lineal $\det_{(b_1,\ldots,b_n)}$ es antisimétrica.

Los determinantes de vectores son las «únicas» formas $n$-lineales alternantes

Ya vimos que el determinante es una forma $n$-lineal alternante. Veamos ahora por qué decimos que es «la única». El siguiente resultado dice que cualquier otra forma $n$-lineal alternante varía de $\det_{(b_1,\ldots,b_n)}$ únicamente por un factor multiplicativo.

Teorema. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$. Si $f:V^n \to F$ es cualquier forma $n$-lineal y alternante, entonces $$f=f(b_1,\ldots,b_n)\det_{(b_1,\ldots,b_n)}.$$

Demostración. Para mostrar la igualdad del teorema, que es una igualdad de transformaciones, tenemos que ver que es cierta al evaluar en cualesquiera vectores $x_1,\ldots,x_n$. Escribamos a cada $x_i$ en términos de la base $B$: $$x_i=\sum_{j=1}^n a_{ij}b_j.$$

Usando la $n$-linealidad de $f$ en cada una de las entradas, tenemos que
\begin{align*}
f(x_1,\ldots,x_n)&=\sum_{i=1}^n a_{1i} f(b_i,x_2,\ldots,x_n)\\
&=\sum_{i,j=1}^n a_{1i}a_{2i} f(b_i,b_j,x_3,\ldots,x_n)\\
&=\ldots\\
&=\sum_{i_1,\ldots,i_n = 1}^n a_{1i_1}\ldots a_{ni_n} f(b_{i_1},\ldots,b_{i_n}).
\end{align*}

Aquí hay muchos términos, pero la mayoría de ellos son $0$. En efecto, si $b_{i_k}=b_{i_l}$, como $f$ es alternante tendríamos que ese sumando es $0$. Así, los únicos sumandos que pueden ser no cero son cuando la elección de subíndices es una permutación, es decir cuando existe $\sigma$ en $S_n$ tal que para $i_k=\sigma(k)$.

Por lo tanto, podemos simplificar la expresión anterior a
$$f(x_1,\ldots,x_n)=\sum_{\sigma \in S_n}a_{1 \sigma(1)}\ldots a_{n\sigma(n)} f(b_{\sigma(1)},\ldots,b_{\sigma(n)}).$$

Como $f$ es alternante, entonces es antisimétrica. De este modo, podemos continuar la igualdad anterior como
\begin{align*}
&=\sum_{\sigma \in S_n} \text{sign}(\sigma) a_{1 \sigma(1)}\ldots a_{n\sigma(n)} f(b_1,\ldots,b_n)\\
&=f(b_1,\ldots,b_n) \det_{(b_1,\ldots,b_n)}(x_1,\ldots, x_n).
\end{align*}

Esto es justo lo que queríamos probar.

$\square$

Los determinantes de vectores caracterizan bases

Como consecuencia del último teorema de la sección anterior, los determinantes de vectores caracterizan totalmente a los conjuntos de vectores que son bases. A continuación enunciamos esto formalmente.

Corolario. En un espacio vectorial $V$ de dimensión $n$ son equivalentes las siguientes tres afirmaciones para vectores $x_1,\ldots,x_n$ de $V$:

  1. El determinante de $x_1,\ldots,x_n$ con respecto a toda base es distinto de $0$.
  2. El determinante de $x_1,\ldots,x_n$ con respecto a alguna base es distinto de $0$.
  3. $x_1,\ldots,x_n$ es una base de $V$.

Demostración. La afirmación (1) es más fuerte que la (2) y por lo tanto la implica.

Ahora, probemos que la afirmación (2) implica la afirmación (3). Como $x_1,\ldots,x_n$ son $n$ vectores y $n$ es la dimensión de $V$, para mostrar que forman una base basta mostrar que son linealmente independientes. Anteriormente, vimos que cualquier forma alternante manda vectores linealmente dependientes a $0$. Como la hipótesis de (2) es que existe alguna forma alternante que no se anula en $x_1,\ldots, x_n$, entonces deben ser linealmente independientes y por lo tanto formar una base.

Finalmente, probemos que (3) implica (1). Tomemos $B=(b_1,\ldots,b_n)$ otra base de $V$. Como $\det_{(x_1,\ldots,x_n)}$ es una forma $n$-lineal, podemos aplicar el teorema anterior y evaluar en $x_1,\ldots,x_n$ para concluir que
\begin{align*}
\det_{(x_1,\ldots,x_n)}&(x_1,\ldots,x_n)&\\
&=\det_{(x_1,\ldots,x_n)}(b_1,\ldots,b_n) \det_{(b_1,\ldots,b_n)}(x_1,\ldots,x_n).
\end{align*}

El término de la izquierda es igual a $1$, de modo que ambos factores a la derecha deben ser distintos de $0$.

$\square$

Ejemplo. En el ejemplo que dimos de polinomios vimos que el determinante de $1$, $2x$ y $3x^2$ con respecto a la base $1$, $1+x$ y $1+x+x^2$ es igual a $6$. De acuerdo al teorema anterior, esto implica que $1$, $2x$ y $3x^2$ es un conjunto linealmente independiente de polinomios, y de hecho una base.

Además, el teorema anterior también implica que sin importar que otra base $B$ de $\mathbb{R}_2[x]$ tomemos, el determinante de $1$, $2x$ y $3x^2$ con respecto a $B$ también será distinto de $0$.

$\triangle$

Más adelante…

A lo largo de esta entrada estudiamos la definición de determinantes para un conjunto de vectores y enunciamos sus principales propiedades. En las siguientes entradas vamos a hablar cómo se define el determinante para matrices y para transformaciones lineales. Después de las definiciones, pasaremos a estudiar cómo se calculan los determinantes y veremos cómo se aplican a diferentes problemas de álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • ¿Cuántos sumandos tendrá el determinante de $5$ vectores en un espacio vectorial de dimensión $5$ con respecto a cualquier base? Da el número de manera explícita.
  • Verifica que en el primer ejemplo de determinantes de esta entrada, en efecto los sumandos correspondientes a $\sigma_1,\ldots,\sigma_6$ son los que se enuncian.
  • Encuentra el determinante de los vectores $(3,1)$ y $(2,4)$ con respecto a la base $((5,1), (2,3))$ de $\mathbb{R}^2$.
  • Muestra que los vectores $(1,4,5,2)$, $(0,3,2,1)$, $(0,0,-1,4)$ y $(0,0,0,1)$ son linealmente independientes calculando por definición su determinante con respecto a la base canónica de $\mathbb{R}^4$.
  • Usa un argumento de determinantes para mostrar que los vectores $(1,4,3)$, $(2,-2,9)$, $(7,8,27)$ de $\mathbb{R}^3$ no son linealmente independientes. Sugerencia. Calcula su determinante con respecto a la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Transformaciones multilineales antisimétricas y alternantes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior hablamos de la importancia que tiene poder diagonalizar una matriz: nos ayuda a elevarla a potencias y a encontrar varias de sus propiedades fácilmente. En esa entrada discutimos a grandes rasgos el caso de matrices en $M_2(\mathbb{R})$. Dijimos que para dimensiones más altas, lo primero que tenemos que hacer es generalizar la noción de determinante de una manera que nos permita probar varias de sus propiedades fácilmente. Es por eso que introdujimos a las funciones multilineales y dimos una introducción a permutaciones. Tras definir las clases de transformaciones multilineales alternantes y antisimétricas, podremos finalmente hablar de determinantes.

Antes de entrar con el tema, haremos un pequeño recordatorio. Para $d$ un entero positivo y $V$, $W$ espacios vectoriales sobre un mismo campo, una transformación $d$-lineal es una transformación multilineal de $V^d$ a $W$, es decir, una tal que al fijar cualesquiera $d-1$ coordenadas, la función que queda en la entrada restante es lineal.

Con $[n]$ nos referimos al conjunto $\{1,2,\ldots,n\}$. Una permutación en $S_n$ es una función biyectiva $\sigma:[n]\to [n]$. Una permutación invierte a la pareja $i<j$ si $\sigma(i)>\sigma(j)$. Si una permutación $\sigma$ invierte una cantidad impar de parejas, decimos que es impar y que tiene signo $\text{sign}(\sigma)=-1$. Si invierte a una cantidad par de parejas (tal vez cero), entonces es par y tiene signo $\text{sign}(\sigma)=1$.

Transformaciones $n$-lineales antisimétricas y alternantes

Tomemos $d$ un entero positivo, $V$, $W$ espacios vectoriales sobre el mismo campo y $\sigma$ una permutación en $S_d$. Si $T:V^d\to W$ es una transformación $d$-lineal, entonces la función $(\sigma T):V^d\to W$ dada por $$(\sigma T)(v_1,\ldots,v_d)=T(v_{\sigma(1)},v_{\sigma(2)},\ldots,v_{\sigma(d)})$$ también lo es. Esto es ya que sólo se cambia el lugar al que se lleva cada vector. Como $T$ es lineal en cualquier entrada (al fijar las demás), entonces $\sigma T$ también.

Definición. Decimos que $T$ es antisimétrica si $\sigma T = \text{sign}(\sigma) T$ para cualquier permutación $\sigma$ en $S_d$. En otras palabras, $T$ es antisimétrica si $\sigma T=T$ para las permutaciones pares y $\sigma T = -T$ para las permutaciones impares.

Definición. Decimos que $T$ es alternante si $T(v_1,\ldots,v_d)=0$ cuando hay dos $v_i$ que sean iguales.

Ejemplo. Consideremos la función $T:(\mathbb{R}^2)^2\to\mathbb{R}$ dada por $$T((a,b),(c,d))=ad-bc.$$ Afirmamos que ésta es una transformación $2$-lineal alternante y antisimétrica. La parte de mostrar que es $2$-lineal es sencilla y se queda como tarea moral.

Veamos primero que es una función alternante. Tenemos que mostrar que si $(a,b)=(c,d)$, entonces $T((a,b),(c,d))=0$. Para ello, basta usar la definición: $$T((a,b),(a,b))=ab-ab=0.$$

Ahora veamos que es una función antisimétrica. Afortunadamente, sólo hay dos permutaciones en $S_2$, la identidad $\text{id}$ y la permutación $\sigma$ que intercambia a $1$ y $2$. La primera tiene signo $1$ y la segunda signo $-1$.

Para la identidad, tenemos $(\text{id}T)((a,b),(c,d))=\sigma((a,b),(c,d))$, así que $(\text{id}T)=T=\text{sign}(\text{id})T$, como queremos.

Para $\sigma$, tenemos que $\sigma T$ es aplicar $T$ pero «con las entradas intercambiadas». De este modo:
\begin{align*}
(\sigma T)((a,b),(c,d))&=T((c,d),(a,b))\\
&=cb-da\\
&=-(ad-bc)\\
&=-T((a,b),(c,d)).
\end{align*}

Esto muestra que $(\sigma T) = -T = \text{sign}(\sigma)T$.

$\square$

Equivalencia entre alternancia y antisimetría

Resulta que ambas definiciones son prácticamente la misma. Las transformaciones alternantes siempre son antisimétricas. Lo único que necesitamos para que las transformaciones antisimétricas sean alternantes es que en el campo $F$ en el que estamos trabajando la ecuación $2x=0$ sólo tenga la solución $x=0$. Esto no pasa, por ejemplo, en $\mathbb{Z}_2$. Pero sí pasa en $\mathbb{Q}$, $\mathbb{R}$ y $\mathbb{C}$.

Proposición. Sean $V$ y $W$ espacios vectoriales sobre un campo donde $2x=0$ sólo tiene la solución $x=0$. Sea $d$ un entero positivo. Una transformación $d$-lineal $T:V^d\to W$ es antisimétrica si y sólo si es alternante.

Demostración. Supongamos primero que $T$ es antisimétrica. Mostremos que es alternante. Para ello, supongamos que para $i\neq j$ tenemos que $x_i=x_j$.

Tomemos la permutación $\sigma:[d]\to [d]$ tal que $\sigma(i)=j$, $\sigma(j)=i$ y $\sigma(k)=k$ para todo $k$ distinto de $i$ y $j$. A esta permutación se le llama la transposición $(i,j)$. Es fácil mostrar (y queda como tarea moral), que cualquier transposición tiene signo $-1$.

Usando la hipótesis de que $T$ es antisimétrica con la transposición $(i,j)$, tenemos que
\begin{align*}
T(x_1,&\ldots, x_i,\ldots,x_j,\ldots,x_n)\\
&=-T(x_1,\ldots, x_j,\ldots,x_i,\ldots,x_n)\\
&=-T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n),
\end{align*}

en donde en la segunda igualdad estamos usando que $x_i=x_j$. De este modo, $$2T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n)=0,$$ y por la hipótesis sobre el campo, tenemos que $$T(x_1,\ldots, x_i,\ldots,x_j,\ldots,x_n)=0.$$ Así, cuando dos entradas son iguales, la imagen es $0$, de modo que la transformación es alternante.

Hagamos el otro lado de la demostración. Observa que este otro lado no usará la hipótesis del campo. Supongamos que $T$ es alternante.

Como toda permutación es producto de transposiciones y el signo de un producto de permutaciones es el producto de los signos de los factores, basta con mostrar la afirmación para transposiciones. Tomemos entonces $\sigma$ la transposición $(i,j)$. Tenemos que mostrar que $\sigma T = \text{sign}(\sigma) T = -T$.

Usemos que $T$ es alternante. Pondremos en las entradas $i$ y $j$ a la suma de vectores $x_i+x_j$, de modo que $$T(x_1,\ldots,x_i+x_j,\ldots,x_i+x_j,\ldots,x_n)=0.$$ Usando la $n$-linealidad de $T$ en las entradas $i$ y $j$ para abrir el término a la izquierda, tenemos que
\begin{align*}
0=T(x_1&,\ldots,x_i,\ldots,x_i,\ldots,x_n) + \\
&T(x_1,\ldots,x_i,\ldots,x_j,\ldots,x_n)+\\
&T(x_1,\ldots,x_j,\ldots,x_i,\ldots,x_n)+\\
&T(x_1,\ldots,x_j,\ldots,x_j,\ldots,x_n).
\end{align*}

Usando de nuevo que $T$ es alternante, el primero y último sumando son cero. Así, \begin{align*}
T(x_1&,\ldots, x_i,\ldots,x_j,\ldots,x_n)\\
&=-T(x_1,\ldots, x_j,\ldots,x_i,\ldots,x_n).
\end{align*}

En otras palabras, al intercambiar las entradas $i$ y $j$ se cambia el signo de $T$, que precisamente quiere decir que $(\sigma T) = \text{sign}(\sigma)T$.

$\square$

Las transformaciones alternantes se anulan en linealmente dependientes

Una propiedad bastante importante de las transformaciones alternantes es que ayudan a detectar a conjuntos de vectores linealmente dependientes.

Teorema. Sea $T:V^d\to W$ una transformación $d$-lineal y alternante. Supongamos que $v_1,\ldots,v_d$ son linealmente dependientes. Entonces $$T(v_1,v_2,\ldots,v_d)=0.$$

Demostración. Como los vectores son linealmente dependientes, hay uno que está generado por los demás. Sin perder generalidad, podemos suponer que es $v_d$ y que tenemos $$v_d=\alpha_1v_1+\ldots+\alpha_{d-1}v_{d-1}$$ para ciertos escalares $\alpha_1,\ldots, \alpha_{d-1}$.

Usando la $d$-linealidad de $T$, tenemos que
\begin{align*}
T\left(v_1,v_2,\ldots,v_{d-1},v_d\right)&=T\left(v_1,\ldots,v_{d-1},\sum_{i=1}^{d-1} \alpha_i v_i\right)\\
&=\sum_{i=1}^{d-1} \alpha_i T(v_1,\ldots,v_{d-1}, v_i).
\end{align*}

Usando que $T$ es alternante, cada uno de los sumandos del lado derecho es $0$, pues en el $i$-ésimo sumando tenemos que aparece dos veces el vector $v_i$ entre las entradas de $T$. Esto muestra que $$T(v_1,\ldots,v_d)=0,$$ como queríamos mostrar.

$\square$

Introducción a definiciones de determinantes

En la siguiente entrada daremos tres definiciones de determinante. Una es para un conjunto de vectores. Otra es para transformaciones lineales. La última es para matrices. Todas ellas se motivan entre sí, y las propiedades de una nos ayudan a probar propiedades de otras. En esa entrada daremos las definiciones formales. Por ahora sólo hablaremos de ellas de manera intuitiva.

Para definir el determinante para un conjunto de vectores, empezamos con un espacio vectorial $V$ de dimensión $n$ y tomamos una base $B=(b_1,\ldots,b_n)$. Definiremos el determinante con respecto a $B$ de un conjunto de vectores $(v_1,v_2,\ldots,v_n)$ , al cual denotaremos por $\det_{(b_1,\ldots,b_n)}(v_1,\ldots,v_n)$de $V$ de la manera siguiente.

A cada vector $v_i$ lo ponemos como combinación lineal de elementos de la base: $$v_i=\sum_{j=1}^n a_{ji}b_j.$$ El determinante $$\det_{(b_1,\ldots,b_n)}(v_1,\ldots,v_n)$$ es $$\sum_{\sigma \in S(n)} \text{sign}(\sigma) a_{1\sigma(1)} \cdot a_{2\sigma(1)}\cdot \ldots\cdot a_{n\sigma(n)}.$$

Observa que esta suma tiene tantos sumandos como elementos en $S_n$, es decir, como permutaciones de $[n]$. Hay $n!$ permutaciones, así que esta suma tiene muchos términos incluso si $n$ no es tan grande.

Veremos que para cualquier base $B$, el determinante con respecto a $B$ es una forma $d$-lineal alternante, y que de hecho las únicas formas $d$-lineales alternantes en $V$ «son determinantes», salvo una constante multiplicativa.

Luego, para una transformación $T:V\to V$ definiremos al determinante de $T$ como el determinante $$\det_{(b_1,\ldots,b_n)}(T(b_1),\ldots,T(b_n)),$$ y veremos que esta definición no depende de la elección de base.

Finalmente, para una matriz $A$ en $M_n(F)$, definiremos su determinante como el determinante de la transformación $T_A:F^n\to F^n$ tal que $T_A(X)=AX$. Veremos que se recupera una fórmula parecida a la de determinante para un conjunto de vectores.

Los teoremas que veremos en la siguiente entrada nos ayudarán a mostrar más adelante de manera muy sencilla que el determinante para funciones o para matrices es multiplicativo, es decir, que para $T:V\to V$, $S:V\to V$ y para matrices $A,B$ en $M_n(F)$ se tiene que

\begin{align*}
\det(T\circ S)&=\det(T)\cdot \det(S)\\
\det(AB)&=\det(A)\cdot \det(B).
\end{align*}

También mostraremos que los determinantes nos ayudan a caracterizar conjuntos linealmente independientes, matrices invertibles y transformaciones biyectivas.

Más Adelante…

En esta entrada hemos definido las clases de transformaciones lineales alternantes y antisimétricas; esto con la finalidad de introducir el concepto de determinantes. Además hemos dado una definición intuitiva del concepto de determinante.

En las siguientes entrada estudiaremos diferentes definiciones de determinante: para un conjunto de vectores, para una transformación lineal y finalmente para una matriz. Veremos cómo el uso de determinantes nos ayuda a determinar si un conjunto es linealmente independiente, si una matriz es invertible o si una transformación es biyectiva; además de otras aplicaciones.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Prueba que la función $T:(\mathbb{R}^2)^2\to\mathbb{R}$ dada por $$T((a,b),(c,d))=ad-bc$$ es $2$-lineal. Para esto, tienes que fijar $(a,b)$ y ver que es lineal en la segunda entrada, y luego fijar $(c,d)$ y ver que es lineal en la primera.
  • Muestra que las transposiciones tienen signo $-1$. Ojo: sólo se intercambia el par $(i,j)$, pero puede ser que eso haga que otros pares se inviertan.
  • Muestra que cualquier permutación se puede expresar como producto de transposiciones.
  • Muestra que la suma de dos transformaciones $n$-lineales es una transformación $n$-lineal. Muestra que al multiplicar por un escalar una transformación $n$-lineal, también se obtiene una transformación $n$-lineal.
  • ¿Es cierto que la suma de transformaciones $n$-lineales alternantes es alternante?

Al final del libro Essential Linear Algebra with Applications de Titu Andreescu hay un apéndice en el que se habla de permutaciones. Ahí puedes aprender o repasar este tema.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de desigualdades vectoriales

Por Ayax Calderón

Introducción

En esta entrada practicaremos las dos desigualdades vectoriales que hemos visto anteriormente: la desigualdad de Cauchy – Schwarz y con la desigualdad de Minkowski. Veremos que de ellas se obtiene información valiosa sobre los espacios con producto interior.

Como ya se menciono en otras entradas del blog, estos espacios son muy importantes más allá del álgebra lineal, pues también aparecen en otros áreas como el análisis matemático, variable compleja, probabilidad, etc. Así mismo, los espacios vectoriales con producto interior tienen muchas aplicaciones en el mundo real. Por esta razón es muy importante aprender a detectar cuándo podemos usar desigualdades vectoriales.

Problemas resueltos

Comencemos con algunos problemas de desigualdades vectoriales que usan la desigualdad de Cauchy-Schwarz.

Problema 1. Demuestra que si $f:[a,b]\longrightarrow \mathbb{R}$ es una función continua, entonces

$$\left(\int_a ^b f(t)dt\right)^2 \leq (b-a)\int_a ^b f(t)^2 dt.$$

Demostración. Sea $V=\mathcal{C}([a,b],\mathbb{R})$ el espacio de las funciones continuas de $[a,b]$ en los reales.

Veamos que $\langle \cdot , \cdot \rangle: V\times V \longrightarrow \mathbb{R}$ definido por $$\langle f,g \rangle = \int_a^b f(t)g(t) \, dt$$ es una forma bilineal simétrica.

Sea $f\in V$ fija. Veamos que $g\mapsto \langle f,g \rangle$ es lineal.

Sean $g,h \in V$ y $k\in F$, entonces

\begin{align*}
\langle f,g+hk \rangle &= \int_a ^b f(t)(g(t)+kh(t))dt\\
&=\int_a ^b (f(t)g(t)+kf(t)h(t)) dt\\
&=\int_a ^b f(t)g(t)dt +k \int_a ^b f(t)h(t)dt\\
&=\langle f,g \rangle + k \langle f,h \rangle .
\end{align*}

Análogamente se ve que si $g\in V$ fija, entonces $f\mapsto \langle f,g \rangle$ es lineal.

Luego,
\begin{align*}
\langle f,g \rangle &= \int_a ^b f(t)g(t)\, dt\\
&= \int_a ^b g(t)f(t)\, dt\\
&= \langle g,f \rangle.
\end{align*}
Por lo tanto $\langle \cdot, \cdot \rangle$ es una forma bilineal simétrica.

Ahora observemos que $\langle \cdot ,\cdot \rangle$ es positiva.
$$\langle f,f \rangle = \int_a ^b f(t)^2 dt \geq 0$$ pues $f^2 (t)\geq 0$. Aunque no lo necesitaremos, mostremos además que que $\langle \cdot, \cdot \rangle$ es positiva definida. Si $f$ tiene algún valor $c$ en el interior de $[a,b]$ en la que $f(c)\neq 0$, como es continua, hay un $\epsilon>0$ tal que en todo el intervalo $(c-\epsilon,c+\epsilon)$ se cumple que $|f|$ es mayor que $|f(c)|/2$, de modo que
\begin{align*}
\langle f, f \rangle &= \int_a^b f^2(t)\, dt\\
&\geq \int_{c-\epsilon}^{c+\epsilon} f^2(t)\, dt\\
&\geq \int_{c-\epsilon}^{c+\epsilon}\frac{f(c)^2}{4} \, dt\\
&=\frac{\epsilon f(c)^2}{2}>0.
\end{align*}

Así, para que $\langle f, f \rangle$ sea $0$, es necesario que $f$ sea $0$ en todo el intervalo $(a,b)$ y por continuidad, que sea cero en todo $[a,b]$.

Sea $q$ la forma cuadrática asociada a $\langle \cdot, \cdot \rangle$.
En vista de todo lo anterior, podemos aplicar la desigualdad de Cauchy -Schwarz tomando $g$ la función constante $1$, es decir, tal que $g(x)=1$ para todo $x$ en $[a,b]$, la cual claramente es continua.

Entonces, $$\langle f,g \rangle &\leq q(f)q(g),$$ que substituyendo las definiciones es
\begin{align*}
\left( \int_a ^b f(t)\, dt\right)^2 &\leq \left(\int_a ^b f(t)^2 \, dt\right)\left(\int_a ^b 1^2\, dt\right)\\
&= (b-a)\int_a ^b f(t)^2 \, dt
\end{align*}

$\square$

Problema 2. a) Sean $x_1, \dots, x_n \in \mathbb{R}$. Demuestra que
$$ (x_1^2+\dots +x_n^2)\left(\frac{1}{x_1^2} + \dots + \frac{1}{x_n^2}\right) \geq n^2.$$
b) Demuestra que si $f:[a,b]\longrightarrow (0,\infty)$ es una función continua, entonces $$\left ( \int_a^b f(t)dt \right) \left (\int_a^b \frac{1}{f(t)}dt \right) \geq (b-a)^2$$

Demostración. a) Considera $\mathbb{R}^n$ con el producto interior usual. Sean $a,b\in\mathbb{R}^n$ dados por
\begin{align*}
a&=(x_1,\dots,x_n)\\
b&=\left( \frac{1}{x_1},\dots, \frac{1}{x_n}\right ).
\end{align*}

La desigualdad de Cauchy-Schwarz afirma que $\lvert \langle a,b \rangle \rvert \leq \norm{a} \norm{b}$. Se tiene que

\begin{align*}
\langle a,b \rangle &= (x_1,\ldots,x_n)\cdot \left(\frac{1}{x_1},\ldots,\frac{1}{x_n}\right)\\
&=1+1+\ldots+1\\
&=n,
\end{align*}

de modo que
\begin{align*}
|n|&\leq \norm{a} \norm{b}\\
&=\sqrt{(x_1^2+\dots +x_n^2)}\sqrt{\left(\frac{1}{x_1^2}+\dots + \frac{1}{x_n^2}\right )}.
\end{align*}

Si elevamos al cuadrado ambos extremos de esta igualdad, obtenemos la desigualdad deseada.

$\square$

b) En el problema 1 de esta entrada vimos que $$\langle f,g \rangle = \int_a^b f(t)g(t) dt$$ es un producto interior para el espacio de funciones continuas en $[a,b]$, y el espacio de este problema es un subespacio del de funciones continuas, así que también define un producto interior aquí.

Para la función $f$ dada, definamos $\phi (t)=\sqrt{f(t)}$ y $\psi (t)=\frac{1}{\sqrt{f(t)}}$.
Notemos que $\phi$ y $\psi$ son continuas, y además como $\forall t\in [a,b]$ se tiene $f(t)\in(0,\infty)$, también tenemos que $\psi (t), \phi (t)\in (0,\infty)$.

Aplicando la desigualdad de Cauchy-Schwarz $$\langle \phi, \psi \rangle^2 \leq \langle \phi , \phi \rangle \langle \psi , \psi \rangle.$$

Entonces
$$ \left(\int_a^b \phi (t) \psi (t) dt\right)^2 \leq \left(\int_a^b \phi(t)^2 dt \right)\left( \int_a^b\psi (t)^2 dt \right).$$

Luego, substituyendo los valores de $\phi$ y $\psi$:
$$ \left( \int_a^b \sqrt{f(t)}\cdot \frac{1}{\sqrt{f(t)}}dt\right )^2 \leq \left(\int_a^b f(t) dt \right)\left ( \int_a^b\frac{1}{f(t)}dt \right).$$

Finalmente, haciendo la integral a la izquierda:
$$(b-a)^2\leq \left(\int_a^b f(t) dt \right)\left (\int_a^b \frac{1}{f(t)}dt \right).$$

$\square$

Hay algunos problemas de desigualdades en los reales que necesitan que usemos herramientas de desigualdades vectoriales.

Problema 3. Sean $x,y,z$ números mayores que 1, tales que $\frac{1}{x} + \frac{1}{y} + \frac{1}{z}=2$. Muestre que
$$\sqrt{x+y+x} \geq \sqrt{x-1} + \sqrt{y-1} + \sqrt{z-1}.$$


Demostración. Considera $\mathbb{R}^3$ con el producto interior usual y $u,v\in \mathbb{R}^3$ con
\begin{align*}
u&=\left(\sqrt{\frac{x-1}{x}}, \sqrt{\frac{y-1}{y}},\sqrt{\frac{z-1}{z}}\right),\\
v&=(\sqrt{x},\sqrt{y},\sqrt{z}).
\end{align*}

Aplicamos la desigualdad de Cauchy-Schwarz a $u$ y $v$:

\begin{align*}
\sqrt{x-1} +& \sqrt{y-1} + \sqrt{z-1}\\
&\leq \sqrt{\frac{x-1}{x}+\frac{y-1}{y}+\frac{z-1}{z}}\sqrt{x+y+z}\\
&=\sqrt{(1+1+1)-\left(\frac{1}{x}+\frac{1}{y}+\frac{1}{z}\right)}\sqrt{x+y+z}\\
&=\sqrt{3-2} \cdot \sqrt{x+y+z}\\
&=\sqrt{x+y+z}.
\end{align*}

Por lo tanto, $$\sqrt{x+y+x} \geq \sqrt{x-1} + \sqrt{y-1} + \sqrt{z-1}.$$

$\square$

Problema 4. Sea $f:[a,b]\longrightarrow (0,\infty)$ una función continua.
Demuestre que $$\int_a^b f(t)dt \leq \left ( (b-a)\int_a^b f(t)^2dt\right)^\frac{1}{2}.$$

Demostración. Ya vimos que $$\langle f,g \rangle = \int_a^b f(t)g(t)dt$$ es un producto interior para el espacio de funciones continuas.
Considera $g$ la función constante $1$.

Aplicando la desigualdad de Minkowski se tiene que
$$\sqrt{\langle f+g,f+g \rangle}\leq \sqrt{\langle f,f \rangle} + \sqrt{\langle g,g \rangle}$$

Tenemos entonces que:

$$\left ( \int_a^b (f(t)+1)^2 dt \right)^\frac{1}{2} \leq \left( \int_a^b f(t)^2 dt \right)^\frac{1}{2} + \left ( \int_a^b dt\right )^\frac{1}{2}.$$

Desarrollando el cuadrado en el lado izquierdo,
$$\left (\int_a^b f(t)^2 dt +2\int_a^b f(t)dt +(b-a) \right )^\frac{1}{2} \leq \left(\int_a^bf(t)^2dt \right)^\frac{1}{2} + (b-a)^\frac{1}{2}$$

Luego, elevando ambos lados de la ecuación al cuadrado
$$\int_a^b f(t)^2 dt + 2\int_a^b f(t) dt +(b-a)$$
$$\leq \int_a^b f(t)^2 dt +2\sqrt{b-a}\left( \int_a^b f(t)^2 dt\right)^\frac{1}{2} +(b-a)$$

Finalmente, cancelando términos igual en ambos lados, obtenemos la desigualdad deseada

$$\int_a^b f(t) dt \leq \left((b-a) \int_a^b f(t)^2 dt\right)^\frac{1}{2}.$$

$\square$

Tarea Moral

  • Resuelve el problema 2.b usando la desigualdad de Minkowski.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Transformaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas pasadas ya platicamos de espacios vectoriales y de subespacios. También desarrollamos teoría de dimensión para espacios vectoriales de dimensión finita. Para ello, hablamos de conjuntos generadores, de independientes y de bases. Esto nos ayuda a entender a los espacios vectoriales «uno por uno». Lo que queremos entender ahora es cómo interactúan los espacios vectoriales entre sí. Para ello, hablaremos de transformaciones lineales entre espacios vectoriales.

Ya platicamos un poco de transformaciones lineales cuando estudiamos $F^n$ a detalle. En esa parte del curso, vimos cómo cualquier matriz en $M_{m,n}(F)$ se podía ver como una transformación lineal de $F^n$ a $F^m$ y viceversa. Retomaremos varias de estas ideas, pues son fundamentales para esta unidad y las siguientes.

La idea de esta entrada es:

  • Dar la intuición y definición de transformaciones lineales en general.
  • Probar propiedades básicas de las transformaciones lineales.
  • Dar varios ejemplos de transformaciones lineales.
  • Dar las definiciones de kernel (o núcleo) y de imagen para una transformación lineal.
  • Ver un ejemplo que abarque ambas definiciones.
  • Finalmente, probar que el kernel y la imagen son subespacios vectoriales.

A grandes rasgos, las transformaciones lineales se pueden pensar como «funciones bonitas» entre espacios vectoriales que «preservan las operaciones de suma y multiplicación por escalar».

Definición de transformaciones lineales

Definición. Para $V$ y $W$ espacios vectoriales sobre un campo $F$, una transformación lineal entre $V$ y $W$ es una función $T:V\to W$ tal que:

  • Para todo $v_1$ y $v_2$ en $V$ se tiene que $T(v_1+v_2)=T(v_1)+T(v_2)$. Esto informalmente se le conoce como que «$T$ abre sumas».
  • Para todo $v$ en $V$ y $c$ en el campo $F$ se tiene que $T(cv)=cT(v)$. A esto se le conoce como que «$T$ saca escalares».

En la primer condición la suma de la izquierda (dentro del paréntesis) es «la suma de $V$» y la suma de la derecha es «la suma de $W$». De manera similar, en la segunda condición el producto por escalar de la izquierda (dentro del paréntesis) es el de $V$ y el de la derecha es el de $W$.

En lo que resta de esta entrada, supondremos que los espacios vectoriales son sobre un mismo campo $F$.

Ejemplos de tranformaciones lineales

Ejemplo 1. La función $T:\mathbb{R}^2 \to \mathbb{R}$ dada por $T(x,y)=x+y+1$ no es una transformación lineal. De hecho falla en ambas condiciones. Falla en abrir sumas pues, por ejemplo, $T(1,1)=3$, $T(2,2)=5$, pero $(1,1)+(2,2)=(3,3)$ y $$T(3,3)=7\neq 5 = T(1,1)+T(2,2.)$$ También falla en sacar escalares pues, por ejemplo $$T(4,2)=7\neq 8 = 2T(2,1).$$

$\triangle$

Ejemplo 2. La función $T:\mathbb{R}^3 \to \mathbb{R}^3$ dada por $T(x,y,z)=(2x,2y,2z)$ es una transformación lineal.

Para convencernos de que esto es cierto, notemos que si $v=(x,y,z)$ entonces la transformación está dada por $T(v)=2v$. Ahora, tomemos dos vectores $v_1$ y $v_2$ en $V$, y un real $c$. Tenemos por la asociatividad y conmutatividad de multiplicar por escalares en $\mathbb{R}^3$ que: \begin{align*}T(v_1+v_2)&=2(v_1+v_2)\\&=2v_1+2v_2\\&=T(v_1)+T(v_2),\end{align*} y que $$T(cv_1)=2(cv_1)=c(2v_1)=cT(v_1).$$ Esto muestra que $T$ es transformación lineal.

$\triangle$

Ejemplo 3. De hecho, para cualquier espacio vectorial $V$ sobre el campo $F$ y $c$ un escalar de $F$, la función $T:V\to V$ dada por $T(v)=cv$ es una transformación lineal. El argumento es similar.

$\triangle$

Recuerda que $F_n[x]$ es el espacio vectorial de polinomios con coeficientes en $F$ y grado a lo más $n$. Recuerda también que hemos visto muchos tipos de espacios vectoriales, los $F^n$, los de polinomios, los de matrices, etc. Entre cualesquiera de ellos se pueden tener transformaciones lineales. La única condición es que sean espacios vectoriales sobre el mismo campo $F$.

Ejemplo 4. La función $T:\mathbb{R}^2\to \mathbb{R}_2[x]$ que manda al vector $(a,b)$ al polinomio $x^2+(a-b)x+ab$ no es una transformación lineal. Esto lo podemos verificar viendo que falla la parte de sacar escalares. Por un lado $$2(T(1,1))=2(x^2+1)=2x^2+2,$$ mientras que por otro lado $$T(2,2)=x^2+4,$$ así que $2(T(1,1))\neq T(2,2)$, de modo que $T$ no saca escalares.

$\triangle$

En cambio, si tomamos la función que manda al vector $(a,b)$ al polinomio $ax^2+(a-b)x+a+b$, puedes verificar por tu cuenta que sí es una transformación lineal.

Ejemplo 5. La función $T:M_{2,3}(\mathbb{R})\to \mathbb{R}^3$ que manda a la matriz $$M=\begin{pmatrix}
a & b & c\\
d & e & f
\end{pmatrix}$$ al vector $$T(M):= (a-d, b-e, c-f)$$ es una transfomación lineal.

Veamos que $T$ abre sumas. Tomemos dos matrices $M_1=\begin{pmatrix}
a_1 & b_1 & c_1\\
d_1 & e_1 & f_1
\end{pmatrix}$ y $M_2=\begin{pmatrix}
a_2 & b_2 & c_2\\
d_2 & e_2 & f_2
\end{pmatrix}.$ Por un lado \begin{align*}T(M_1)&=(a_1-d_1,b_1-e_1,c_1-f_1)\\T(M_2)&=(a_2-d_2,b_2-e_2,c_2-f_2),\end{align*} de modo que sumando los vectores y reacomodando tenemos que $$T(M_1)+T(M_2)=((a_1+a_2)-(d_1+d_2),(b_1+b_2)-(e_1+e_2),(c_1+c_2)-(f_1+f_2)).$$

Por otro lado, si primero sumamos las matrices, obtenemos la matriz $$M_1+M_2=\begin{pmatrix}
a_1+a_2 & b_1+b_2 & c_1+c_2\\
d_1+d_2 & e_1+e_2 & f_1+f_2
\end{pmatrix}.$$

Así, $$T(M_1+M_2)=((a_1+a_2)-(d_1+d_2),(b_1+b_2)-(e_1+e_2),(c_1+c_2)-(f_1+f_2)).$$ Esto muestra que $T(M_1+M_2)=T(M_1)+T(M_2)$, es decir, que $T$ abre sumas. Con un argumento parecido se puede mostrar que saca escalares.

$\triangle$

Ejemplo 6. La función $T:\mathbb{R}^2\to \mathbb{R}_2[x]$ que manda al vector $(a,b)$ al polinomio $T(a,b)=(a+b)x^2+(a-b)x+b$ es una transformación lineal.

$\triangle$

Recuerda que $C[0,1]$ es el espacio vectorial de funciones $f:[0,1]\to \mathbb{R}$ continuas.

Ejemplo 7. La función $T:C[0,1]\to \mathbb{R}$ que manda a la función $f$ al real $$T(f):=\int_0^1 f(x)\, dx$$ es una transformación lineal. En efecto, para dos funciones $f$ y $g$ continuas en el $[0,1]$ y un real $c$ se tiene por definición de suma de funciones, de multiplicación por escalar y de propiedades de la integral que \begin{align*}\int_0^1 (f+g)(x)\, dx&=\int_0^1 f(x)+g(x)\, dx\\&=\int_0^1 f(x) \, dx+\int_0^1 g(x)\, dx\end{align*} y que \begin{align*}\int_0^1 (cf)(x)\, dx &= \int_0^1 cf(x)\, dx \\&=c \int_0^1 f(x)\, dx.\end{align*}

En otras palabras, $T(f+g)=T(f)+T(g)$ y $T(cf)=cT(f)$.

$\triangle$

Propiedades básicas de transformaciones lineales

La definición de «transformación lineal» pide dos cosas por separado: abrir sumar y sacar escalares. Es bueno tenerlas por separado para referirnos a ellas individualmente. Sin embargo, la siguiente proposición nos ayuda a probar de manera más práctica que $T$ es una transformación lineal.

Proposición (verificación abreviada). Sean $V$ y $W$ espacios vectoriales sobre un mismo campo $F$. $T:V\to W$ es una transformación lineal si y sólo si para todo $v_1,v_2$ en $V$ y $c$ en $F$ se tiene que $$T(cv_1+v_2)=cT(v_1)+T(v_2).$$

Demostración. En efecto, si $T$ es transformación lineal, entonces $T(cv_1)=cT(v_1)$ porque $T$ saca escalares y así \begin{align*}T(cv_1+v_2)&=T(cv_1)+T(v_2)\\&=cT(v_1)+T(v_2).\end{align*} Por otro lado, si se cumple $T(cv_1+v_2)=cT(v_1)+T(v_2)$ para todos $v_1$ y $v_2$ vectores en $V$ y $c$ escalar en $F$, entonces con $v_2=0$ recuperamos que $T$ saca escalares y con $c=1$ recuperamos que $T$ abre sumas.

$\square$

Las transformaciones lineales mandan al cero de un espacio vectorial al cero del otro.

Proposición (cero va a cero). Sean $V$ y $W$ espacios vectoriales sobre un mismo campo. Si $T:V\to W$ es una transformación lineal, entonces $T(0)=0$.

Demostración. El truco es encontrar $T(0+0)$ de dos formas distintas. Por un lado, como $0+0=0$, tenemos que $T(0+0)=T(0)$. Por otro lado, como $T$ abre sumas, tenemos que $T(0+0)=T(0)+T(0)$. Así, tenemos que $$T(0)+T(0)=T(0).$$ Restando $T(0)$ de ambos lados obtenemos $T(0)=0$.

$\square$

De hecho, hay otra forma de probar la proposición anterior usando que $T$ saca escalares: $T(0)=T(0\cdot 0)=0T(0)=0$. Piensa en por qué cada una de estas igualdades se vale y por qué adentro del paréntesis que hay dos ceros, uno de ellos es vector y el otro escalar.

Las transformaciones lineales también «respetan» inversos aditivos.

Proposición (inversos aditivos van a inversos aditivos). Sean $V$ y $W$ espacios vectoriales sobre un mismo campo. Si $T:V\to W$ es una transformación lineal, entonces $T(-v)=-T(v)$.

La demostración es sencilla y la puedes pensar por tu cuenta.

El haber enunciado estas proposiciones nos puede ayudar para decir, de golpe, que algunas funciones no son transformaciones lineales: si una función falla en tener alguna de las propiedades anteriores, entonces no es transformación lineal.

Ejemplo 1. Sea $V$ el espacio vectorial $\mathbb{R}^2$ y $W$ el espacio vectorial de matrices de $2\times 2$ con entradas complejas, pero visto como espacio vectorial sobre $\mathbb{R}$ (sólo se permite usar reales para la multiplicación escalar).

La transformación $T:V\to W$ que manda al vector real $(a,b)$ a la matriz de entradas complejas $T(a,b)=\begin{pmatrix}
a+ib & a-ib \\
a-ib & 1+abi\end{pmatrix}$ no es una transformación lineal pues manda al $(0,0)$ a la matriz $\begin{pmatrix}
0 & 0 \\
0 & 1\end{pmatrix},$ la cual no es la matriz $0$.

$\triangle$

Sin embargo, una pequeña advertencia. Es posible que $T$ sí mande el $0$ al $0$, pero que de cualquier forma no sea una transformación lineal, debido a que falle por otras razones.

Ejemplo 2. La transformación $T:\mathbb{R}^3 \to \mathbb{R}^3$ dada por $$T(x,y,z)=(x+y+z,xy+yz+zx,xyz)$$ cumple que $T(0,0,0)=(0,0,0)$, pero no es una transformación lineal pues no saca escalares. Por ejemplo, $$T(3,3,3)=(9,27,27)\neq 3(3,3,1)= 3T(1,1,1).$$

$\triangle$

Kernel e imagen de una transformación lineal

Tomemos $T:V\to W$ una transformación lineal. Hay dos conjuntos muy importantes relacionados con $T$.

El kernel (o núcleo) de $T$ es el conjunto de vectores en $V$ que se van al vector $0$ de $W$ cuando les aplicamos $T$. En símbolos, $$\ker(T)=\{v\in V: T(v)=0\}.$$

La imagen de $T$ son los vectores en $W$ que se pueden escribir de la forma $T(v)$ para algún $v$ en $V$, es decir, es la imagen en el sentido clásico de teoría de conjuntos o de cálculo. En símbolos, $$\Ima(T)=\{T(v): v\in V\}.$$

Haciendo énfasis de nuevo: $\ker(T)$ es un subconjunto de vectores de $V$ e $\Ima(T)$ es un subconjunto de vectores de $W$. Veamos un ejemplo que nos ayudará a repasar varios de los conceptos clave de esta entrada.

Problema. Consideremos la transformación $T:M_2(\mathbb{R})\to M_{2,3}(\mathbb{R})$ dada por $$T\begin{pmatrix}a & b \\ c & d\end{pmatrix}=\begin{pmatrix}a & b \\ c & d \end{pmatrix} \begin{pmatrix}
1 & 1 & 1\\
1 & 1 & 1\end{pmatrix}.$$

Muestra que $T$ es una transformación lineal y determina $\ker(T)$ e $\Ima(T)$.

Intenta resolver este problema por tu cuenta antes de seguir.

Solución. Sean $A$ y $B$ matrices de $2\times 2$ con entradas reales y $r$ un real. Nombremos $C=\begin{pmatrix}
1 & 1 & 1\\
1 & 1 & 1\end{pmatrix}$. Por propiedades de producto de matrices, tenemos que \begin{align*}T(rA+B)&=(rA+B)C \\ &=r(AC)+BC\\ &=rT(A)+T(B),\end{align*} así que por la proposición de verificación abreviada, tenemos que $T$ es una transformación lineal.

Ahora, tomemos una matriz $A=\begin{pmatrix}
a & b \\
c & d \end{pmatrix}$ y notemos al hacer la multiplicación de manera explícita, obtenemos que $T(A)$ es la matriz $$\begin{pmatrix}
a+b & a+b & a+b\\
c+d & c+d & c+d \end{pmatrix}.$$

Determinemos quién es $\Ima(T)$. Para que una matriz $M:=\begin{pmatrix}
e & f & g\\
h & i & j \end{pmatrix}$ esté en la imagen de $T$, se tiene que cumplir que $e=f=g$ y que $h=i=j$.

Y viceversa, si $e=f=g$ y $h=i=j$, entonces $M$ está en la imagen de $T$ pues, por ejemplo $$T\begin{pmatrix}
e & 0\\
h & 0 \end{pmatrix}=\begin{pmatrix}
e & e & e\\
h & h & h\end{pmatrix}=M.$$

Esto muestra que $$\Ima (T) = \left\{\begin{pmatrix}
e & e & e\\
h & h & h \end{pmatrix}: e,h \in \mathbb{R}\right\}.$$

Ahora determinemos quién es $\ker(T)$. Para que $A$ esté en el kernel de $T$, necesitamos que todas las entradas de $T(A)$ sean $0$. Para esto es suficiente y necesario que $a+b=0$ y que $c+d=0$, o dicho de otra forma, que $A$ sea de la forma $A=\begin{pmatrix}
a & -a \\
c & -c \end{pmatrix}$. Así, concluimos que $$\ker(T)=\left\{\begin{pmatrix}
a & -a \\
c & -c \end{pmatrix}: a,c \in \mathbb{R}\right\}.$$

$\square$

Con esto ya terminamos lo que pide el problema. Sin embargo, hagamos una observación clave. En el problema anterior, $\ker(T)$ e $\Ima(T)$ no solamente son subconjuntos de $M_2(\mathbb{R})$ y de $M_{2,3}(\mathbb{R})$ respectivamente, sino que además son subespacios. Esto no es casualidad.

Los kernels e imágenes de transformaciones lineales son subespacios

Teorema. Sean $V$ y $W$ espacios vectoriales sobre un mismo campo. Si $T:V\to W$ es una transformación lineal, entonces $\ker(T)$ es un subespacio de $V$ e $\Ima(T)$ es un subespacio de $W$.

Demostración. Demostraremos primero que $\ker(T)$ es un subespacio de $V$. Para ello basta con tomar $v_1,v_2$ en $\ker(T)$ y $c$ en el campo $F$ y mostrar que $cv_1+v_2$ también está en $\ker(T)$, es decir, que también sucede que $T(cv_1+v_2)=0$. Esto se debe a la siguiente cadena de igualdades, que justificamos abajo \begin{align*}
T(cv_1+v_2)&=T(cv_1)+T(v_2)\\
&=cT(v_1)+T(v_2)\\
&=c\cdot 0 + 0 \\
&= 0.
\end{align*}

La primera igualdad se debe a que $T$ abre sumas. La segunda a que $T$ saca escalares. La tercera a que $v_1$ y $v_2$ están en el kernel de $T$ y por lo tanto sabemos que $T(v_1)=T(v_2)=0$. La última es simplemente hacer la operación. Con esto mostramos que $\ker(T)$ es un subespacio de $V$.

Ahora, veremos que $\Ima(T)$ es un subespacio de $W$. Tomemos $w_1$ y $w_2$ en $\Ima(T)$, y un escalar $c$ en el campo $F$. De nuevo, basta mostrar que $cw_1+w_2$ está en $\Ima(T)$. Como $w_1$ y $w_2$ están en la imagen de $T$, esto quiere decir que existen vectores $v_1$ y $v_2$ en $V$ tales que $T(v_1)=w_1$ y $T(v_2)=w_2$. Notemos que entonces:
\begin{align*}
cw_1+w_2&=cT(v_1)+T(v_2)\\
&=T(cv_1)+T(v_2)\\
&=T(cv_1+v_2).
\end{align*}

La segunda y tercera igualdad vienen de que $T$ saca escalares y abre sumas respectivamente. Esta cadena de igualdades muestra que podemos poner a $cw_1+w_2$ como imagen de alguien en $V$ bajo $T$, es decir, que $cw_1+w_2$ pertenece a $\Ima(T)$. Esto es lo que queríamos mostrar.

$\square$

Más adelante…

En esta entrada definimos los conceptos de transformación lineal, de imagen y de kernel. También vimos que la imagen y kernel de transformaciones lineales son subespacios. Más adelante veremos que $\ker(T)$ e $\Ima(T)$ están de hecho relacionados más profundamente.

Por ahora, nota que en el ejemplo antes del teorema tenemos que $\begin{pmatrix}
1 & 1 & 1\\
0 & 0 & 0 \end{pmatrix}$ y $\begin{pmatrix}
0 & 0 & 0\\
1 & 1 & 1 \end{pmatrix}$ forman una base de $\Ima(T)$ pues son linealmente independientes y todo elemento en la imagen es combinación lineal de estas matrices. Además, nota que de manera similar $\begin{pmatrix}
1 & -1 \\
0 & 0 \end{pmatrix}$ y $\begin{pmatrix}
0 & 0 \\
1 & -1 \end{pmatrix}$ forman una base de $\ker(T)$.

Esto nos dice que $\dim(\Ima(T))=2$ y que $\dim(\ker(T))=2$. Si sumamos ambos, nos da la dimensión de $M_2(\mathbb{R})$. ¿Será casualidad?

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que las transformaciones lineales que se pusieron como ejemplo en efecto abren sumas y sacan escalares.
  • Asegúrate de entender los detalles de la prueba de la proposición de la verificación abreviada. Úsala para mostrar que la función que manda al vector $(a,b,c)$ a la matriz $$\begin{pmatrix} a & b & c \\ c & a & b \\ b & c & a \end{pmatrix}$$ es una transformación lineal de $\mathbb{R}^3$ a $M_3(\mathbb{R})$.
  • Muestra la proposición de que inversos aditivos van a inversos aditivos.
  • Determina el kernel y la imagen de las transformaciones lineales $T:V\to W$ que se dieron como ejemplo.
  • Para cada kernel e imagen que encuentres, convéncete de que son subespacios. Determina si tienen dimensión finita y, en ese caso, determina la dimensión. Para estos casos, ¿cómo están relacionados $\dim(\Ima(T)),\dim(\ker(T)),\dim(V)$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»