Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Álgebra Lineal I: Transformaciones lineales en bases, conjuntos independientes y generadores

Por Leonardo Ignacio Martínez Sandoval

Introducción

El objetivo de esta entrada es entender qué efecto tienen las transformaciones lineales en bases, en conjuntos linealmente independientes y en conjuntos generadores. En la siguiente lista recordamos brevemente estas nociones:

  • Una transformación lineal $T:V\to W$ entre espacios vectoriales $V$ y $W$ es una función que «abre sumas» (es decir $T(x+y)=T(x)+T(y)$) y «saca escalares» (es decir $T(cx)=cT(x)$). Recuerda que es necesario que $V$ y $W$ estén sobre el mismo campo, cosa que asumiremos cuando hablemos de transformaciones lineales.
  • Un conjunto de vectores $\{v_1,\ldots, v_n\}$ en $V$ es linealmente independiente si la única combinación lineal de ellos que da $0$ es la trivial, osea en la que todos los coeficientes son $0$.
  • Si cualquier vector de un espacio vectorial $V$ puede escribirse como combinación lineal de un conjunto de vectores $S=\{v_1,\ldots,v_n\}$, entonces decimos que $S$ genera a $V$.
  • Un conjunto de vectores en $V$ es base si es linealmente independiente y genera a $V$.

La idea de esta entrada es entender lo siguiente:

  • ¿Cuándo las imágenes de linealmente independientes/generadores/bases son linealmente independientes/generadores/bases tras aplicar una transformación lineal?
  • ¿Cómo saber si una transformación lineal es inyectiva?
  • ¿Cómo el efecto de transformaciones lineales en bases nos permite determinar exactamente qué le hacen al resto de los vectores?

Exploración

Tomemos espacios vectoriales $V$, $W$ y una transformación lineal $T:V\to W$. Si comenzamos con un conjunto $S=\{v_1,\ldots,v_n\}$ de vectores en $V$ que es linealmente independiente (o generador, o base) en $V$, ¿cuándo sucede que $T(S)=\{T(v_1),\ldots,T(v_n)\}$ es linealmente independiente (o generador, o base, respectivamente) en $W$?

Esto definitivamente no sucede siempre. La tranformación $Z:\mathbb{R}^3\to \mathbb{R}[x]$ que manda a todo vector $(x,y,z)$ al polinomio $0$ es una transformación lineal. Sin embargo, a la base canónica $\{e_1,e_2,e_3\}$ la manda al conjunto $\{0,0,0\}=\{0\}$, que no es un conjunto ni linealmente independiente, ni generador de los polinomios con coeficientes reales.

De esta forma, tenemos que pedirle más a la transformación $T$ para que preserve las propiedades mencionadas.

Intuitivamente, si la imagen de $T$ no cubre a todo $W$, entonces los vectores de la forma $T(v)$ con $v$ en $V$ no deberían de poder generar a $W$. Así, para que $T$ mande generadores a generadores, tiene que pasar que «$T$ pase por todo $W$». Esta noción queda capturada formalmente al pedir que $T$ sea suprayectiva.

Del mismo modo, también intuitivamente si «$T$ manda elementos distintos al mismo elemento», entonces perderemos familias linealmente independientes al aplicarla. Así, para preservar conjuntos linealmente independientes, necesitamos que vectores distintos vayan a valores distintos. En términos formales, necesitamos que $T$ sea inyectiva.

Resultados principales de transformaciones lineales en bases, generadores y linealmente independientes

El primer resultado es que los requisitos que descubrimos intuitivamente en la sección pasada son suficientes.

Teorema. Sea $T:V\to W$ una transformación lineal y $S=\{v_1,\ldots,v_n\}$ un conjunto de vectores de $V$. Entonces:

  • Si $T$ es inyectiva y $S$ es linealmente independiente, entonces $T(S)$ es linealmente independiente.
  • Cuando $T$ es suprayectiva y $S$ es generador, entonces $T(S)$ es generador.
  • Si $T$ es biyectiva y $S$ es base, entonces $T(S)$ es base.

Demostración. Comencemos suponiendo que $T$ es inyectiva y $S$ es linealmente independiente. Entonces $T(v_1),\ldots,T(v_n)$ son todos distintos. Tomemos una combinación lineal de elementos de $T(S)$ igual a cero, es decir, $$a_1T(v_1)+a_2T(v_2)+\ldots+a_nT(v_n)=0.$$ Debemos mostrar que todos los coeficientes son iguales a cero. Como $T$ es transformación lineal, podemos juntar las sumas y productos escalares como sigue: $$T(a_1v_1+a_2v_2+\ldots+a_nv_n)=0=T(0).$$

Como $T$ es inyectiva, esto implica que $$a_1v_1+a_2v_2+\ldots+a_nv_n=0,$$ pero como $S$ es linealmente independiente, concluimos que $$a_1=\ldots=a_n=0.$$ Así, $T(S)$ es linealmente independiente.

Supongamos ahora que $T$ es suprayectiva y $S$ es generador. Tomemos un $w\in W$. Como $T$ es suprayectiva, existe $v\in V$ tal que $T(v)=w$ y como $S$ es generador, existen $a_1,\ldots,a_n$ tales que $$a_1v_1+\ldots+a_nv_n=v.$$ Aplicando $T$ en ambos lados, abriendo las sumas y sacando escalares obtenemos que $$a_1T(v_1)+\ldots+a_nT(v_n)=T(v)=w.$$ Así, todo elemento de $W$ se puede escribir como combinación lineal de elementos de $T(S)$, como queríamos.

Finalmente, supongamos que $T$ es biyectiva y $S$ es base. Como $T$ es inyectiva y $S$ linealmente independiente, entonces $T(S)$ es linealmente independiente. Como $T$ es suprayectiva y $S$ generador, entonces $T(S)$ es generador. Así, $T(S)$ es base.

$\square$

Una consecuencia fudamental del resultado anterior es que si $V$ y $W$ son espacios de dimensión finita y existe una transformación lineal inyectiva $T:V\to W$, entonces $\dim(V)\leq \dim(W)$. En efecto, si $B$ es base de $V$ y $T$ es inyectiva, entonces $T(B)$ es linealmente independiente en $W$ y sabemos que $W$ tiene a lo más $\dim(W)$ vectores linealmente independientes, así que $\dim(V)=|B|=|T(B)|\leq \dim(W)$. De manera similar, si existe una transformación lineal $T:V\to W$ suprayectiva, entonces $\dim(V)\geq \dim(W)$. Demuestra esto. ¿Qué pasa con las dimensiones si existe una transformación lineal biyectiva entre $V$ y $W$?

¿Cuándo una transformación lineal es inyectiva?

El teorema anterior también sugiere que es importante saber cuándo una transformación lineal es inyectiva, suprayectiva o ambas. Resulta que en el caso de la inyectividad hay un criterio que nos ayuda.

Proposición. Sean $V$ y $W$ espacios vectoriales. Una transformación lineal $T:V\to W$ es inyectiva y si sólo si el único vector $v$ de $V$ tal que $T(v)=0$ es el vector $v=0$. En otras palabras $T$ es inyectiva si y sólo si $\ker(T)=\{0\}$.

Demostración. Sean $V$ y $W$ espacios vectoriales y $T:V\to W$ una transformación lineal. Recordemos que sabemos que $T(0)=0$.

Si $T$ es inyectiva y $T(x)=0$, entonces $T(x)=T(0)$ y por inyectividad $x=0$, de modo que $x$ es el único vector que va a $0$ bajo $T$.

Si el único vector que bajo $T$ va a $0$ es el $0$ y tenemos que $T(x)=T(y)$, entonces usando que $T$ es lineal tenemos que $0=T(y)-T(x)=T(y-x)$. Así, por hipótesis $y-x=0$, es decir, $x=y$. Con esto queda mostrado que $T$ es inyectiva.

$\square$

Transformaciones lineales en bases dan toda la información

Conociendo los valores de una transformación lineal en algunos vectores, es posible determinar el valor de la transformación en otros vectores que son combinación lineal de los primeros. Considera el siguiente ejemplo.

Problema. La transformación lineal $T:M_2(\mathbb{R})\to\mathbb{R}^2$ cumple que $T\begin{pmatrix}
1 & 1\\
0 & 0
\end{pmatrix}=(1,0)$, $T\begin{pmatrix}
0 & 1 \\
0 & 1
\end{pmatrix}=(0,-1)$, $T\begin{pmatrix}
0 & 0\\
1 & 1
\end{pmatrix}=(-1,0)$ y $T\begin{pmatrix}
1 & 0\\
1 & 0
\end{pmatrix}=(0,1)$. Determina el valor de $T\begin{pmatrix} 3 & 3\\ 3 & 3\end{pmatrix}$.

Intenta resolver el problema por tu cuenta antes de ver la solución. Para ello, intenta poner a la matriz $\begin{pmatrix} 3 & 3\\ 3 & 3\end{pmatrix}$ como combinación lineal de las otras matrices y usar que $T$ es lineal.

Solución. Sean $A$, $B$, $C$ y $D$ las matrices de las cuales conocemos cuánto vale $T$ en ellas y $E$ la matriz con puros $3$’s. Queremos determinar el valor de $T(E)$. Notemos que $E=\frac{3}{2}(A+B+C+D)$. Como $T$ es transformación lineal, tenemos que

\begin{align*}
T(E)&=\frac{3}{2}(T(A)+T(B)+T(C)+T(D))\\
&=\frac{3}{2}((1,0)+(0,-1)+(-1,0)+(0,1))\\
&=(0,0).
\end{align*}

$\square$

En este problema lo que sirvió para encontrar el valor de $T(E)$ fue poner a la matriz $E$ como combinación lineal de las matrices $A,B,C,D$. De hecho, para cualquier matriz que sea combinación lineal de las matrices $A,B,C,D$, pudiéramos haber hecho lo mismo.

A partir de esta observación, podemos intuir que al conocer el efecto de transformaciones lineales en bases, podemos saber qué le hacen a cada elemento del espacio vectorial. El siguiente teorema enuncia esto de manera formal y dice un poco más.

Teorema. Sean $V$, $W$ espacios vectoriales, $B=\{v_1,v_2,\ldots,v_n\}$ una base de $V$ y $w_1,w_2,\ldots, w_n$ vectores cualesquiera de $W$. Entonces, existe una y sólo una transformación lineal $T:V\to W$ tal que $$T(v_1)=w_1,\quad T(v_2)=w_2, \quad \ldots, \quad T(v_n)=w_n.$$

Demostración. Probemos primero la parte de existencia. Como $B$ es base, cualquier vector $v$ de $V$ se puede escribir como $$a_1v_1+a_2v_2+\ldots+a_nv_n.$$ Construyamos la función $T:V\to W$ tal que $$T(v)=a_1w_1+a_2w_2+\ldots+a_nw_n.$$

Como para cada $i=1,\ldots,n$ tenemos que la combinación lineal de $v_i$ en términos de $B$ es $v_i=1\cdot v_i$, tenemos que $T(v_i)=1\cdot w_i=w_i$, que es una de las cosas que queremos. La otra que queremos es que $T$ sea lineal. Mostremos esto. Si $$v=a_1v_1+a_2v_2+\ldots+a_nv_n$$ y $$w=b_1v_1+b_2v_2+\ldots+b_nv_n,$$ entonces $$v+w=(a_1+b_1)v_1+
(a_2+b_2)v_2+\ldots+ (a_n+b_n)v_n,$$ y por definición $$T(v+w)=(a_1+b_1)w_1+ (a_2+b_2)w_2+\ldots+ (a_n+b_n)w_n.$$ Notemos que el lado derecho es igual a $T(v)+T(w)$, de modo que $T$ abre sumas. De manera similar se puede mostrar que $T$ saca escalares.

Esbocemos ahora la demostración de la unicidad. Supongamos que $T$ y $T’$ son transformaciones lineales de $V$ a $W$ tales que $T(v_i)=T'(v_i)=w_i$ para toda $i=1,\ldots,n$. Tenemos que mostrar que $T(v)=T'(v)$ para toda $v$. Para ello procedemos como en el problema antes de este teorema: escribimos a $v$ como combinación lineal de elementos de $B$. Esto se puede hacer de una única forma. El valor de $T(v)$ a su vez depende únicamente de $w_1,\ldots,w_n$ y de la los coeficientes en combinación lineal. El de $T'(v)$ también. Por lo tanto son iguales.

$\square$

Una consecuencia del teorema anterior, en la que no es necesario enunciar a las imágenes de la base, es la siguiente.

Corolario. Sean $V$ y $W$ espacios vectoriales, $B$ una base de $V$, y $T$ y $T’$ transformaciones lineales de $V$ a $W$. Si $T(v)=T'(v)$ para toda $v\in B$, entonces $T(v)=T'(v)$ para toda $v\in V$.

Más adelante…

Las propiedades que demostramos en esta entrada se usan con tanta frecuencia que muchas veces se aplican sin siquiera detenerse a argumentar por qué son válidas. Por esta razón, es importante que te familiarices con ellas. Otra ventaja de conocerlas a profundidad es que muchas veces ayudan a dar demostraciones sencillas o elegantes para algunos problemas. Finalmente, los hechos que aquí mostramos los usaremos prácticamente sin demostración en las siguientes entradas, en donde desarrollaremos la teoría de la forma matricial de transformaciones lineales.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra qué le hace al vector $(7,3)$ una transformación lineal $T:\mathbb{R}^2\to \mathbb{R}$ tal que $T(2,1)=20$ y $T(7,2)=5$.
  • Determina si las matrices $A,B,C,D$ del problema de la entrada son una base para $M_2(\mathbb{R})$. Si no son una base, ¿cuál es la dimensión del subespacio que generan?
  • En el último teorema se afirma que la función que construimos saca escalares. Muestra esto.
  • De ese mismo teorema, escribe los detalles de que dicha función es única.
  • Demuestra el corolario enunciado en la entrada.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Proyecciones, simetrías y subespacios estables

Por Blanca Radillo

Introducción

Anteriormente introdujimos el concepto de transformaciones lineales entre dos espacios vectoriales. Vimos diversas propiedades que toda transformación lineal debe satisfacer. Finalmente, se presentaron las definiciones de kernel e imagen. Lo que haremos ahora es hablar de algunos tipos especiales de transformaciones lineales: las proyecciones y las simetrías. Para ello, aprovecharemos lo que ya estudiamos de suma y suma directas de subespacios.

Además, hablaremos del concepto de subespacios estables. Intuitivamente, un subespacio es estable para una transformación lineal si al aplicarla en elementos del subespacio, «no nos salimos del subespacio».

Proyecciones

Hablemos de una clase fundamental de transformaciones lineales: las proyecciones sobre subespacios. Para ellas, se comienza expresando a un espacio vectorial como una suma directa $V=W_1\oplus W_2$. Recuerda que, a grandes rasgos, esto quiere decir que cada vector $v$ de $V$ se puede expresar de manera única como $v=w_1+w_2$, donde $w_1$ está en $W_1$ y $w_2$ está en $W_2$.

Definición. Sea $V$ un espacio vectorial y sean $W_1$ y $W_2$ dos subespacios de $V$ tales que $V=W_1\oplus W_2$. La proyección sobre $W_1$ es la función $\pi_1:V\rightarrow W_1$ definido como: para cada $v\in V$, se tiene que $\pi_1(v)$ es el único vector en $W_1$ tal que $v-\pi_1(v)$ está en $W_2$.

De manera similar podemos definir la proyección sobre $W_2$, llamada $\pi_2:V\rightarrow W_2$.

Hay otra forma de decir esto. Dado que $V=W_1\oplus W_2$, para todo $v\in V$ existen únicos vectores $v_1\in W_1$ y $v_2\in W_2$ tales que $v=v_1+v_2$. Entonces $\pi_1(v)=v_1$ y $\pi_2(v)=v_2$.

Ejemplo. Sea $V=\mathbb{R}^2$, y sean $W_1=\{(a,0): a\in\mathbb{R}\}$ y $W_2=\{(0,b):b\in\mathbb{R}\}$. Sabemos que $W_1$ y $W_2$ son subespacios y que $V=W_1\oplus W_2$. Entonces, si $(a,b)\in V$, se tiene que $\pi_1((a,b))=(a,0)$ y $\pi_2((a,b))=(0,b)$.

$\triangle$

Cuando hablamos de una proyección $\pi$ de un espacio vectorial $V$, sin indicar el subespacio, de manera implícita nos referimos a una función para la cual existe una descomposición $V=W_1\oplus W_2$ tal que $\pi$ es la proyección sobre $W_1$.

Problema. Muestra que la transformación lineal $\pi:M_2(\mathbb{R})\to M_2(\mathbb{R})$ tal que $$\pi\begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} a + b & 0 \\ c & 0 \end{pmatrix}$$ es una proyección.

Solución. Para resolver el problema, tenemos que mostrar que se puede escribir $M_2(\mathbb{R})=W_1\oplus W_2$, de modo que $\pi$ sea una proyección sobre $W_1$.

Proponemos $$W_1=\left\{\begin{pmatrix} r & 0 \\ s & 0\end{pmatrix}: r,s, \in \mathbb{R}\right\}$$ y $W_2$ como $$W_2=\left\{\begin{pmatrix} -r & r \\ 0 & s\end{pmatrix}: r,s, \in \mathbb{R}\right\}.$$

Si una matriz está simultánteamente en $W_1$ y $W_2$, es sencillo mostrar que únicamente puede ser la matriz cero, es decir $O_2$. Esto lo puedes verificar por tu cuenta. Además, cualquier matriz en $M_2(\mathbb{R})$ se puede escribir como suma de elementos en $W_1$ y $W_2$ como sigue: $$\begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} a +b & 0 \\ c & 0 \end{pmatrix} + \begin{pmatrix} -b & b \\ 0 & d \end{pmatrix}.$$

Justo $\pi$ es la primer matriz. Esto muestra que $\pi$ es una proyección, pues es la proyección sobre $W_1$ en la descomposición $V=W_1\oplus W_2$.

$\square$

Aún no hemos mostrado que las proyecciones son transformaciones lineales. Hacemos esto a continuación.

Proposición. Sean $V$ un espacio vectorial, $W_1$ un subespacio vectorial de $V$ y $\pi:V\to W_1$ una proyección de $V$ sobre $W_1$. Entonces $\pi$ es una transformación lineal.

Demostración. Si $v,v’ \in V$ entonces $v+v’\in V$ y por definición de proyección tenemos que $\pi(v+v’)$ es el único vector en $W_{1}$ tal que:

$$(v+v’)-\pi(v+v’)\in W_{2},$$ por otra parte como $\pi(v)$ es el únco vector en $W_{1}$ tal que $v-\pi(v)\in W_{2}$ y $\pi(v’)$ es el único vector en $W_{1}$ tal que $v’-\pi(v’)\in W_{2}$ entonces $v-\pi(v)+v’-\pi(v’)\in W_{2}$ ya que $W_{2}$ es subespacio de $V$, es decir que $$(v+v’)-(\pi(v)+\pi(v’))\in W_{2}$$ y debido a que $\pi(v)+\pi(v’)\in W_{1}$, entonces tenemos la situación en la que existe un vector $\pi(v)+\pi(v’)\in W_{1}$ tal que $$(v+v’)-(\pi(v)+\pi(v’))\in W_{2},$$ pero $\pi(v+v’)$ es el único vector en $W_{1}$ tal que $(v+v’)-\pi(v+v’)\in W_{2}$, esto implica que $$\pi(v+v’)=\pi(v)+\pi(v’).$$ Así concluimos que $\pi$ abre sumas.

Para comprobar que $\pi$ saca escalares consideremos cualquier $v\in V$ y cualquier $c\in F$, tenemos que $cv\in V$ (pues $V$ es espacio vectorial), por definición de proyección tenemos que $\pi(cv)$ es el único vector en $W_{1}$ tal que $$cv-\pi(cv)\in W_{2},$$ por otra parte $\pi(v)$ es el único vector de $W_{1}$ tal que $v-\pi(v)\in W_{2}$ entonces $c(v-\pi(v))=cv-c\pi(v)\in W_{2}$. Como $c\pi(v)\in W_{1}$ tal que $cv-c\pi(v)\in W_{2}$ entonces $$\pi(cv)=c\pi(v)$$ debido a la unicidad de $\pi(cv)$, por lo que $\pi$ saca escalares. Como $\pi$ abre sumas y saca escalares concluimos que $\pi$ es una transformación lineal.

$\square$

Finalmente, notemos que $\pi(v)=v$ para todo $v\in W_1$ pero $\pi(v)=0$ si $v\in W_2$.

Simetrías

Una segunda clase importante de trasnformaciones lineales son las simetrías.

Definición. Sea una descomposición $V=W_1\oplus W_2$, con $W_1, W_2$ dos subespacios de $V$. Decimos que $s:V\rightarrow V$ es una simetría con respecto a $W_1$ a lo largo de $W_2$ si para todo $v\in V$, escrito como $v=v_1+v_2$ con $v_1\in W_1$ y $v_2 \in W_2$, tenemos que $$s(v)=v_1-v_2.$$

Al igual que con las proyecciones, no es dificil ver que las simetrías son transformaciones lineales.

Proposición. Sea $s:V\rightarrow V$ una simetría con respecto a $W_1$ a lo largo de $W_2$. Entonces, $s$ es una transformación lineal.

Demostración. Sean $v,v’ \in V$. Sean $v_1,v’_1\in W_1$ y $v_2,v’_2 \in W_2$ tales que $v=v_1+v_2$ y $v’=v’_1+v’_2$. Eso implica que $v+v’=(v_1+v’_1)+(v_2+v’_2)$ con $v_1+v’_1 \in W_1$ y $v_2+v’_2 \in W_2$. Entonces
$$s(v)+s(v’)=(v_1-v_2)+(v’_1-v’_2) =(v_1+v’_1)-(v_2+v’_2)= s(v+v’).$$
Ahora sea $a\in F$, entonces $as(v)=a(v_1-v_2)=av_1-av_2=s(av_1+av_2)=s(av)$. Por lo tanto, $s$ es una transformación lineal.

$\square$

Notemos que si $v\in W_1$, entonces $s(v)=v-0=v$, y si $v\in W_2$, entonces $s(v)=0-v=-v$.

Subespacios estables

Observemos que las proyecciones y las simetrías satisfacen que $\pi(W_1)=W_1$ y $s(W_1)=W_1$. Esta es una propiedad muy linda, pero en general, si $T:V\rightarrow V$ es una transformación lineal cualquiera y $W$ un subespacio de $V$, no siempre tenemos que $T(W)=W$, o ni siquiera que $T(W)\subset W$. Es decir, aunque tomemos un vector $w$ en $W$, puede pasar que $T(w)$ ya «esté fuera» de $W$.

Los subespacios $W$ que sí satisfacen esta última propiedad son cruciales en el estudio de este curso, y por ello, merecen un nombre especial.

Definición. Sea $V$ un espacio vectorial y $T:V\rightarrow V$ una transformación lineal. Si $W$ es un subespacio de $V$ tal que $T(W)\subset W$, decimos que $W$ es un subespacio estable bajo $T$.

En otras palabras, $W$ es estable bajo $T$ si para todo $v$ en $W$ se tiene que $T(v)$ también está en $W$. Un ejemplo trivial es la transformación identidad con cualquier subespacio $W$. Otro ejemplo trivial es que $V$ y $\{0\}$ son dos subespacios estables bajo cualquier transformación lineal $T:V\rightarrow V$. Otros ejemplos son los ya mencionados: las proyecciones y las simetrías.

En el siguiente ejemplo encontraremos todos los subespacios estables para una cierta transformación.

Ejemplo. Consideremos el mapeo $T:\mathbb{R}^2\rightarrow \mathbb{R}^2$ con $T(x,y)=(y,-x)$. Claramente $T$ es lineal. Sea $W$ un subespacio estable de $\mathbb{R}^2$ bajo $T$. Supongamos que $W$ no es ni $\mathbb{R}^2$, ni el subespacio trivial $\{ (0,0) \}$.

Veremos que no hay ningún otro subespacio estable. Procedamos por contradicción. Suponiendo que hay otro subespacio estable $W$, su dimensión tendría que ser exactamente $1$. Eso implica que $W$ está generado por un vector no cero, digamos $v=(x,y)$. Es decir, cada $w\in W$ lo podemos escribir como $w=av$ donde $a$ es un escalar. En particular $v\in W$.

Como $W$ es estable bajo $T$, entonces $T(v)\in W$, esto es $T(v)=cv$ para algún $c$. Así,
\begin{align*}
(y,-x)&=T((x,y))\\&=T(v)\\&=cv\\&=c(x,y)\\&=(cx,cy).
\end{align*} Igualando ambos extremos, obtenemos que$y=cx$ y $-x=cy$, lo cual implica que $(c^2+1)x=0$. Como $c$ es real, esto implica $x=0$ y por lo tanto $y=0$. Concluimos que $v=(0,0)$, lo cual es una contradicción.

Esto demuestra que los únicos subespacios estables bajo $T$ son $\mathbb{R}^2$ y $\{(0,0)\}$.

$\square$

El siguiente problema estudia un problema inverso. En ella se encuentran todas las transformaciones lineales que dejan fijas «todas las rectas por el vector $0$».

Problema. Sea $V$ un espacio vectorial y $T:V\rightarrow V$ una transformación lineal tal que, para todo $v\in V$, se tiene que $\text{span}(v)$ es un subespacio estable bajo $T$. Entonces existe un escalar $c\in F$ tal que $T(x)=cx$ para todo $x\in V$.

Demostración. Sea $x\in V$ un vector distinto de $0$. Si $L=\text{span}(x)$, tenemos que $T(L)\subset L$ por hipótesis. En particular $T(x)\in L$ y por lo tanto existe $c_x$ tal que $T(x)=c_x x$. Queremos probar que esa constante realmente no depende de $x$.

Sea $y\in V$. Hay dos opciones: $x,y$ son linealmente independientes o no. Supongamos primero que $x,y$ son linealmente independientes. Entonces $x+y \neq 0$ y la igualdad $T(x+y)=T(x)+T(y)$ puede ser escrita como $c_{x+y} (x+y)=c_x x+c_y y$, esto es equivalente a $(c_{x+y}-c_x)x+(c_{x+y}-c_y) y=0.$ Por independencia lineal, $c_{x+y}-c_x=c_{x+y}-c_y=0$ y por lo tanto. $c_x=c_{x+y}=c_y$.

Ahora si $x,y$ no son linealmente independientes, es porque $y=0$ (en cuyo caso cualquier $c_y$ funciona, en particular $c_x$) o bien porque $y=ax$ para algún escalar $a$ no cero. Entonces la igualdad $T(y)=T(ax)=aT(x)$ puede ser escrita como $c_y y=ac_x x=c_x y$, y esto implica que $c_y=c_x$.

En cualquier caso, hemos mostrado que para todo $y\in V$, se tiene que $c_x=c_y$. Definiendo $c=c_x$, se satisface la afirmación de la proposición.

$\square$

Las imágenes y kernels son estables

Otros ejemplos importantes de subespacios estables son las imágenes y los kernels. Esto únicamente funciona para cuando tenemos una transformación lineal de un espacio vectorial a sí mismo.

Proposición. Sea $T:V\to V$ una transformación lineal. Entonces $\ker(T)$ e $\Ima(T)$ son subespacios estables bajo $T$.

Demostración. En la entrada anterior ya vimos que $\ker(T)$ e $\Ima(T)$ son subespacios de $V$. Veamos que son estables bajo $T$.

Tomemos $v\in \ker(T)$. Tenemos que mostrar que $T(v)\in \ker(T)$. Pero esto es cierto pues $$T(T(v))=T(0)=0.$$ Así $T(\ker(T))\subset \ker(T)$ y por lo tanto $\ker(T)$ es estable bajo $T$.

Ahora tomemos $v\in \Ima(T)$. De manera inmediata, $T(v)\in \Ima(T)$. Así, $\Ima(T)$ es estable bajo $T$.

$\square$

Más adelante…

Las proyecciones y simetrías son dos ejemplos de transformaciones lineales que tienen propiedades específicas. Más adelante, cuando hablemos de geometría de espacios vectoriales y del proceso de Gram-Schmidt, veremos que las proyecciones satisfacen propiedades interesantes en términos de ciertas distancias.

La teoría de subespacios estables es muy útil a la hora de construir bases de subespacios vectoriales de manera inductiva. De hecho, los resultados en esta dirección son uno de los ingredientes que usaremos en la demostración del teorema estelar del curso: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $Y$ es el subespacio $Y=\{(0,r,0): r\in \mathbb{R}\}$ de $\mathbb{R}^3$. Argumenta por qué la transformación $\pi:\mathbb{R}^3\to Y$ dada por $\pi(x,y,z)=(0,y,0)$ es una proyección sobre $Y$. Para ello tendrás que encontrar un subespacio $W$ de $\mathbb{R}^3$ tal que $\mathbb{R}^3=Y\oplus W$ y con el cual $\pi(x,y,z)$ satisface la definición.
  • Sea $X$ el subespacio $X=\{(r,0,0): r\in \mathbb{R} \}$. ¿Es posible ver a la transformación $T:\mathbb{R}^3 \to X$ dada por $T(x,y,z)=(x+y+z,0,0)$ como una proyección sobre $X$? Si tu respuesta es sí, tendrás que dar un espacio $W$ bajo el cual se satisfaga la definición. Si tu respuesta es no, tendrás que mostrar que ningún subespacio $W$ funciona.
  • En el ejemplo de la sección de subespacios estables, ¿qué sucede si trabajamos en $\mathbb{C}^2$ en vez de en $\mathbb{R}^2$? ¿Quienes serían todos los subespacios estables?
  • Sea $B=\{v_1,v_2,\ldots,v_n\}$ una base para un espacio vectorial $V$ sobre un campo $F$. Sea $V_i$ el espacio vectorial generado por $v_i$, es decir, el conjunto de vectores de la forma $cv_i$ con $c\in F$. Como $B$ es base, cada vector $v\in V$ puede escribirse de la forma $$a_1v_1+a_2v_2+\ldots+a_nv_n$$ de manera única. Muestra que para toda $i\in\{1,2,\ldots,n\}$ la función $\pi_i(v)=a_iv_i$ es una proyección sobre $V_i$.
  • Para cada entero $n$, muestra que $\mathbb{R}_n[x]$ es un subespacio de $\mathbb{R}[x]$ que es estable bajo la transformación lineal $T$ que manda a cada polinomio $p(x)$ a su derivada $T(p(x))=p'(x)$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Superior II: Problemas de divisibilidad y algoritmo de Euclides

Por Claudia Silva

Introducción

A continuación les dejo los links que les preparé para hoy. Se ven en el orden que están. Si tienen dudas, pueden ponerlas en la sección de comentarios de aquí del blog.

Ejemplo de algoritmo de la división de Euclides
Condición necesaria para que $2^n+1$ sea primo
$a-b$ divide a $a^n-b^n$

Más adelante…

Tarea moral

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Seminario de Resolución de Problemas: Introducción a principio de inducción

Por Leonardo Ignacio Martínez Sandoval

Introducción

El principio de inducción es una de las piedras angulares de las matemáticas y de la resolución de problemas. Es altamente probable que ya lo hayas utilizado previamente, en cursos como Álgebra Superior I y II, en Álgebra Lineal, en Cálculo y varios otros.

En esta entrada y las siguientes repasaremos la idea general del principio de inducción, pero además veremos lo flexible que puede ser en la resolución de problemas.

La idea general que debes tener cuando hagas inducción es pensar en Tlaloc (dios de la lluvia). Imagina que Tlaloc decide que llueva hoy, y además decide que si llueve un día, entonces lloverá también al día siguiente. Como llueve hoy, entonces lloverá mañana, pero como llueve mañana entonces lloverá pasado mañana. De hecho, ¡va a llover todos los días a partir de hoy!

De manera general, el principio de inducción sirve para cuando se quieren probar afirmaciones «para todo número natural $n$» y en donde para probar la afirmación para un valor $n$ es útil tener la validez de la afirmación para los valores anteriores. Sin embargo, se puede también utilizar para probar afirmaciones «a partir de cierto natural». Enunciamos esta versión a continuación.

Principio de inducción. Sea $P(n)$ una afirmación (o proposición o propiedad) que depende del número natural $n$. Si

  • la afirmación $P(a)$ es cierta y
  • la veracidad de la afirmación $P(n)$ implica la veracidad de la afirmación $P(n+1)$,

entonces la afirmación $P(n)$ es cierta para toda $n \geq a$.

En estos términos, a probar la afirmación para $a$ se le conoce como probar la base de inducción. Suponer la veracidad de $P(n)$ para una $n$ se conoce como suponer la hipótesis inductiva, y a probar la veracidad de $P(n+1)$ se le conoce como hacer el paso inductivo. Así, para hacer una prueba por inducción se tienen que hacer los siguientes pasos:

  • Probar la base de inducción, osea, mostrar que $P(a)$ es válido.
  • Suponer, libremente, la hipótesis inductiva, es decir, suponer que $P(n)$ cierto.
  • A partir de la hipótesis inductiva, y el resto de las hipótesis del problema, hacer el paso inductivo, es decir, demostrar $P(n+1)$.

Es muy importante hacer estos tres pasos. Si no se prueba la base de inducción, es como si Tlaloc no decidiera que lloviera hoy: no hay forma de saber qué pasara. Si no se hace el paso inductivo, es como si Tlaloc no dijera nada de la lluvia de un día a partir del anterior.

La creatividad en el uso de la inducción en la resolución de problemas reside en varios aspectos. A veces:

  • Se requiere ingenio para probar el caso base.
  • Se requiere ingenio para saber exactamente cómo usar la hipótesis inductiva para hacer el paso inductivo.
  • Se requiere crear una afirmación auxiliar $Q(n)$ más fuerte que implique a $P(n)$, tal qué $Q(n)$ sí se pueda probar por inducción, pero $P(n)$ no, de lo cual veremos ejemplos en siguientes entradas.

Problemas con solución

Veamos algunos ejemplos de problemas que se pueden resolver utilizando induccicón. En el primer problema vamos a ser muy explícitos en cómo estamos ejecutando la inducción. Esto te puede ayudar cuando estas haciendo tus primeras pruebas de inducción: te ayudará a ser explícito en demostrar la base, en suponer la hipótesis inductiva y en hacer el paso inductivo.

En algunas otras de las demostraciones, vamos a ser un poco más flexibles con cómo se escribe la demostración. No hay que ser totalmente explícitos en qué parte de demostración por inducción se está haciendo. Esto te puede ayudar para cuando ya estas escribiendo una prueba más larga y la parte inductiva sólo es un pequeño fragmento del argumento.

Problema. Sea $n\geq 1$ un número entero y $a_n>a_{n-1}>\ldots>a_1>0$ números reales. Considera todas las expresiones que puedes hacer de la forma $$e_1a_1+e_2a_2+\ldots+e_na_n$$ donde cada $e_i$ es $1$ o $0$. Demuestra que al pasar por todas las $2^n$ posibilidades para las $e_i$ se forman por lo menos $\binom{n+1}{2}$ números diferentes.

Solución. Vamos a proceder por inducción sobre $n$. Hagamos primero la base de inducción. Como queremos demostrar la afirmación para toda $n\geq 1$, el caso base es $n=1$. Cuando $n=1$, tenemos un sólo número real $a_1>0$ y lo que tenemos que demostrar es que hay al menos $\binom{2}{2}=1$ valor en las expresiones que se pueden formar. Si $e_1=0$ o $1$, obtenemos las expresiones $0$ y $a_1$ respectivamente, que son al menos dos. Esto prueba el caso base.

Ahora supongamos la hipótesis inductiva. Es decir, suponemos libremente que para cierta $n$, cada que tomamos $n$ números reales se cumple la afirmación del problema, es decir, que al pasar por las $2^n$ posibilidades de $e_i$, se obtienen al menos $\binom{n+1}{2}$ expresiones diferentes.

La parte final es hacer el paso inductivo. Es decir, a partir de todas las hipótesis del problema, de la hipótesis inductiva, y de otras ideas, tenemos que probar la afirmación para $n+1$. Así, tomemos $n+1$ números reales $$a_{n+1}>a_n>\ldots>a_1>0.$$ Tenemos que mostrar que usando coeficientes $0$ y $1$ podemos formar al menos $\binom{n+2}{2}$ números distintos.

Una buena idea es aprovechar que ya sabemos que los números
$$a_n>\ldots>a_1>0$$ ya hacen varias expresiones. Podemos aplicar la hipótesis inductiva a estos números, y con ello logramos conseguir al menos $\binom{n+1}{2}$ expresiones diferentes. Notemos que estas expresiones también sirven para cuando tenemos a $a_{n+1}$ y le ponemos coeficiente $e_{n+1}=0$. Lo que tenemos que hacer ahora es conseguir $\binom{n+2}{2}-\binom{n+1}{2}=n+1$ expresiones nuevas.

Consideremos la expresión $S=a_1+a_2+\ldots+a_n$ en la que todos los coeficientes son $1$. Esta es claramente mayor que cualquiera de las otras que ya tenemos. Además, todas las expresiones $S+a_{n+1}$, $S+a_{n+1}-a_1$, $S+a_{n+1}-a_2$, $\ldots$, $S+a_{n+1}-a_n$ son mayores que $S$ (pues $a_{n+1}$ es el más grande de los $a_i$’s), son todas diferentes, y son de la forma deseada (pues cada $a_i$ con $1\leq i \leq n$ está en $S$).

De esta forma, conseguimos $n+1$ expresiones distintas y todas ellas mayores que $S$, así que distintas de todas las dadas por la hipótesis inductiva. Con esto completamos la demostración.

$\square$

La inducción sirve para probar afirmaciones que dependen de un número natural. Sin embargo, no siempre es inmediato de dónde sale este natural. A veces ese natural aparece simplemente como el tamaño de algún conjunto involucrado. A veces hay que hacer una demostración para «todos los polinomios» y entonces podríamos intentar hacer inducción sobre el grado del polinomio. En otro problema puede que se tenga que mostrar algo «para todas las matrices» y entonces tal vez tengamos que demostrarlo por inducción sobre las dimensiones de la matriz.

Problema. Se dibuja una cantidad finita de lineas en el espacio de modo que no haya tres de ellas que pasan por un mismo punto. Estas líneas definen regiones en el plano. Muestra que se pueden colorear estas regiones de blanco o negro de modo que no haya dos regiones del mismo color que tengan un lado en común.

El problema no tiene ningún número natural explícitamente en el enunciado. Sin embargo, se pide demostrar algo para una cantidad finita de cosas, así que basta probar la afirmación para $n$ cosas, para todo entero $n\geq 0$. De esta forma, la variable «cantidad de líneas que tenemos» ya es una variable sobre la cual podemos hacer inducción. Hagamos la demostración así.

Solución. Procedamos por inducción sobre el número de líneas. Si tenemos $0$ líneas, sólo hay una región en el plano. La pintamos de blanco.

Ahora, supongamos que cada que tenemos $n$ líneas, no tres de ellas por un punto, podemos hacer una coloración de su conjunto de regiones $R$ de modo que no haya dos adyacentes del mismo color.

Tomemos cualquier conjunto de $n+1$ líneas. Tomemos una de ellas $L$ e ignorémosla por el momento. Por hipótesis inductiva, podemos hacer una coloración para las $n$ líneas que quedan. Al regresar $L$ se hacen nuevas regiones. A las regiones que quedan de un lado de $L$, las dejamos del color que ya tenían. A las que están del otro lado de $L$, les intercambiamos el color (blanco a negro y viceversa).

El nuevo acomodo funciona pues todas las regiones de $R$ totalmente contenidas en alguno de los lados de $L$ siguen sin problemas. Y aquellas regiones de $R$ cortadas por $L$ sólo pueden tener problemas con un lado que caiga sobre $L$. Pero de estos problemas tampoco hay pues de un lado quedaron de un color, y del otro del otro.

$\square$

Observa que en el problema anterior ya no estamos haciendo los pasos de la inducción tan «explícitos».

A veces hay problemas en los que hay una variable entera, pero no necesariamente hay que aplicar inducción para esa variable, sino para otro parámetro que introduzcamos.

Problema. Dado un entero positivo $n$ y un real $x\geq 0$, muestra que $$\floor{x}+\floor{x+\frac{1}{n}}+\floor{x+\frac{2}{n}}+\cdots+\floor{x+\frac{n-1}{n}}=\floor{nx}.$$

Recuerda que $\floor{y}$ es el mayor entero que sea menor o igual a $y$.

Solución. El problema con hacer inducción en $n$ es que no hay una forma sencilla de relacionar el resultado para $n$ y el resultado para $n+1$. Tampoco podemos hacer «inducción sobre $x$» porque $x$ es un número real.

El truco para el problema es probar el resultado para todas las $x$ en el intervalo $[\frac{k}{n},\frac{k+1}{n})$ para todo entero $k\geq 0$. Con esos intervalos cubrimos a todos los reales positivos, y por lo tanto cubrimos todas las posibilidades para $x$. Para probar que se vale en esos intervalos, vamos a proceder por inducción sobre $k$.

Si $k=0$, entonces queremos mostrar el resultado para el intervalo $[0,\frac{1}{n})$. Para las $x$ en este intervalo, cada uno de los términos $x+\frac{i}{n}$ (para $i-0,1,\ldots,n-1$) es menor que $1$ y por lo tanto el lado izquierdo de la igualdad que queremos mostrar tiene puros sumandos $0$ y entonces es igual a $0$. También para las $x$ en este intervalo tenemos $nx<1$, y así el lado derecho también es $0$. Esto prueba la base inductiva.

Supongamos ahora que el resultado es cierto para $x$ en el intervalo $[\frac{k-1}{n},\frac{k}{n})$ para cierto entero $k$. Esto quiere decir que

$$\floor{x}+\floor{x+\frac{1}{n}}+\floor{x+\frac{2}{n}}+\cdots+\floor{x+\frac{n-1}{n}}=\floor{nx}.$$

Tomemos ahora un entero $y$ en el intervalo $[\frac{k}{n},\frac{k+1}{n})$. Notemos que $x=y-\frac{1}{n}$ está en el intervalo anterior, de modo que cumple la igualdad de la hipótesis inductiva. Notemos además que si en

$$\floor{y}+\floor{y+\frac{1}{n}}+\floor{y+\frac{2}{n}}+\cdots+\floor{y+\frac{n-1}{n}}$$

substituimos $y=x+\frac{1}{n}$, obtenemos

$$\floor{x+\frac{1}{n}}+\floor{x+\frac{2}{n}}+\floor{x+\frac{3}{n}}+\cdots+\floor{x+\frac{n}{n}}.$$

El último sumando es $\floor{x+1}=\floor{x}+1$, de modo que en el lado izquierdo tenemos todos los sumandos del lado izquierdo de la hipótesis inductiva y un $1$. Así, el lado izquierdo es igual a $$\floor{nx}+1=\floor{nx+1}=\floor{ny},$$ como queríamos mostrar.

$\square$

Más ejemplos

Puedes encontrar más ejemplos en la Sección 2.1 del Problem Solving through Problems de Loren Larson. Otro libro con muchos ejemplos interesantes es el Putnam and Beyond, de Gelca y Andreescu. Así mismo, aquí en el blog hay otras entradas en las que se hacen pruebas por inducción.

Seminario de Resolución de Problemas: Principio de las Casillas

Por Fabian Ferrari

Introducción

Imaginemos que tenemos un botiquín con $9$ espacios para acomodar medicamentos. Si contamos con un total de $10$ medicamentos para acomodar en los $9$ espacios, es claro pensar que al menos uno de los $9$ espacios tendrá al menos $2$ medicamentos. Eso lo podemos deducir a partir de que no hay posibilidad de repartir los $10$ medicamentos de manera equitativa en los $9$ espacios, ya que tenemos más objetos que acomodar que lugares en donde distribuir.

Siguiendo el ejemplo anterior, podemos generalizar un poco. Si tuviésemos $n$ lugares en el botiquín y $n+1$ medicamentos, podemos concluir lo mismo: al menos en una casilla habría más de un medicamento.

El esquema propuesto anteriormente es un versión básica del principio de casillas. Si volvemos a nuestro problema inicial, con el botiquín con $9$ lugares disponibles, pero ahora tenemos un total de $19$ medicamentos, de igual manera, no podemos distribuir los medicamentos de manera equitativa en los nueve lugares, y ahora si lo pensamos con un poco más de detalle, podemos concluir que en alguna de las $9$ casillas deberían de haber al menos $3$ medicamentos. Esto surge en consecuencia de pensar que podemos distribuir de manera equitativa los $19$ medicamentos en los $9$ lugares, sin embargo si colocamos en cada lugar un total de $2$ medicamentos, tendríamos que hemos acomodado un total de $18$ ($9\times 2$) medicamentos, quedándonos $1$ medicamento por acomodar, el cual debería de ir en alguno de los lugares con $2$ medicamentos cada uno. Con esto concluimos que en alguno de los lugares del botiquín debe de haber al menos $3$ medicamentos.

Con lo anterior, enunciaremos el principio de casillas.

Principio de Casillas: Si se distribuyen al menos $nk+1$ elementos en $n$ lugares, se tiene que uno de esos lugares tiene al menos $k+1$ elementos.

Este principio puede ser de gran utilidad para la resolución de problemas en los cuales hay que exhibir la existencia de elementos que cumplen cierta propiedad.

Problemas

A continuación veremos ciertos problemas en los que se muestra que el principio de las casillas es una herramienta poderosa para su resolución.

Problema. Demuestre que si hay $n$ personas en una fiesta, entonces dos de ellos conocen la misma cantidad de personas (entre los presentes).

Solución. Supongamos que hay una persona $P$ que no conoce a ninguna de las $n-1$ personas restantes. Cada una de las personas en la fiesta conoce a un número de personas entre un rango de $0$ a $n-2$ (nadie puede conocer a los $n-1$ restantes pues nadie puede conocer a $P$)Ahora, aplicando el principio de casillas, relacionando a cada persona su número de conocidos, el cual varía de $0$ a $n-2$, tenemos que al menos dos personas deben de conocer el mismo número de personas.

De igual manera, si suponemos que toda persona conoce a alguien, tenemos que el número de conocidos de cada persona varía de $1$ a $n-1$. Aplicando de nueva cuenta el principio de casillas, al asociar a cada persona su número de conocidos, tenemos que al menos dos se repiten.

$\square$

Problema 2. Dado un conjunto de $n+1$ enteros positivos, todos ellos menores o iguales a $2n$, muestra que al menos un miembro del conjunto debe dividir a otro miembro del conjunto.

Solución. Sean $a_1, a_2, …, a_{n+1}$ dichos enteros positivos. Al factorizar la máxima potencia de dos que divide a cada uno de ellos, podemos escribir a cada número de la forma $a_i=2^{m_i}·b_i$ de tal forma que $b_i$ es un número impar mayor o igual que uno y $m_i$ es un entero no negativo. Consideramos a $B$ como el conjunto de todos los $b_i$´s $$B=\lbrace b_1, b_2, …, b_{n+1}\rbrace.$$

Tenemos que entre $1$ y $2n$ hay un total de $n$ números impares, así que en el conjunto $B$ debe de haber dos elementos que sean iguales entre sí. Supongamos que $b_i$ y $b_j$ son dichos elementos. Con ello, si $m_i\leq m_j$ entonces $a_i$ divide a $a_j$. Y si $m_i>m_j$ entonces $a_j$ divide a $a_i$.

$\square$

Problema 3. Dados los puntos A, B, C, D, E al interior de un cuadrado unitario, demuestra que al menos hay dos puntos cuya distancia es menor a $\frac{\sqrt{2}}{2}$.

Solución. Si dividimos el cuadrado en $4$ cuadrados iguales, tenemos que por el principio de casillas en al menos uno de los cuadrados debe de haber $2$ puntos. Sin perdida de generalidad, supongamos que  A y B son dichos puntos que quedan la interior de uno de estos cuadrados pequeños. Tenemos que le diagonal del cuadrado pequeño es $\frac{\sqrt{2}}{2}$, es por ello que cualesquiera dos puntos al interior del cuadrado pequeño estarán distanciados menos que $\frac{\sqrt{2}}{2}$.

$\square$

Problema 4. Prueba que una línea recta que no pasa por uno de los vértices de un triángulo, no puede cortar los tres lados del triángulo.

Solución. Tenemos que una recta divide al plano en dos regiones. Si tomamos estas regiones como «casillas» tenemos que en una de nuestras casillas hay al menos dos puntos del triángulo los cuales forman un segmento de recta que es uno de los lados del triángulo. Con esto tenemos que la recta no corta ese lado del triángulo.

$\square$

Puedes dejar dudas de la entrada o soluciones alternativas a algunos de estos problemas aquí abajo en los comentarios.

Más ejemplos

Puedes encontrar más ejemplos en la Sección 2.6 del Larson, o en la siguiente entrada que escribiremos al respecto.