Archivo de la etiqueta: geometría

Seminario de Resolución de Problemas: Identidades algebraicas y binomio de Newton

Por Leonardo Ignacio Martínez Sandoval

Introducción a entradas de álgebra

Cuando en matemáticas hablamos de álgebra, se abarca una gran cantidad de ideas, que van desde el álgebra de secundaria, en la cual factorizamos, despejamos y usamos identidades algebraicas, hasta el álgebra abstracta, que estudia estructuras algebraicas más generales como grupos, anillos y campos. Todas estas ideas tienen amplias aplicaciones en la resolución de problemas. En esta entrada, y las que vendrán a continuación, veremos numerosos ejemplos de esto

Para empezar, hablaremos de álgebra en el sentido de secundaria y preparatoria. Veremos que estas ideas, aunque sencillas, son muy versátiles. Después hablaremos de polinomios y de dos resultados fundamentales en su teoría: el teorema de factorización única y el teorema de la identidad. Los polinomios abundan en las matemáticas, y un correcto entendimiento de ellos abre muchas puertas en la resolución de problemas. En una entrada final daremos algunas ideas de otras estructuras algebraicas como grupos, anillos y campos.

Más adelante en el curso hablaremos con detalle de otros dos temas relacionados con álgebra: desigualdades y álgebra lineal.

Como lo hemos hecho hasta ahora, la idea no es profundizar demasiado en el desarrollo de la teoría algebraica. Para eso, es más recomendable llevar buenos cursos de distintos tipos de álgebra a nivel superior. Aquí en el blog hay material de los cursos Álgebra Superior II y Álgebra Lineal I que imparto en la Facultad de Ciencias de la UNAM.

Identidades algebraicas

Comenzaremos hablando de identidades algebraicas. Una identidad algebraica es una igualdad que se satisface para ciertas variables, independientemente del valor que tomen. Algunos ejemplos son las igualdades que se aprenden a nivel secundaria y bachillerato:

\begin{gather*}
a^2-b^2=(a-b)(a+b),\\
a^2+2ab+b^2=(a+b)^2,\\
a^2+b^2+c^2+2ab+2bc+2ca=(a+b+c)^2,\\
a^n-b^n = (a-b)(a^{n-1}+a^{n-2}b+\ldots+ab^{n-2}+b^{n-1}).
\end{gather*}

Varias de las identidades algebraicas nos permiten desarrollar o factorizar una expresión. Factorizarla es bastante útil en problemas de teoría de números, en donde es importante conocer qué números dividen a la expresión. Desarrollarla a veces nos permite trabajar con una suma de términos simétricos, que podemos estudiar con técnicas de polinomios o con desigualdades.

Veamos algunos ejemplos.

Problema. Muestra que si $n$ es un entero, entonces $n^4-20n^2+4$ no es un número primo.

Sugerencia pre-solución. Intenta formular un problema equivalente al factorizar la expresión. Hay más de un camino por el que puedes proceder para factorizar, pero no todos te llevan a una solución. Intenta completar cuadrados de distintas formas y ve si encuentras un patrón.

Solución. Reescribimos la expresión como sigue:
\begin{align*}
n^4-20n^2+4&=n^4-4n^2+4-16n^2\\
&=(n^2-2)^2-(4n)^2\\
&=(n^2-4n-2)(n^2+4n-2).
\end{align*}

Para ver que la expresión no es un primo, basta con ver que ninguno de estos factores puede ser igual a $1$ o $-1$. Si $n^2-4n-2=1$ o $n^2+4n-2=1$, entonces $n^2=\pm 4n+3$. Trabajando módulo $4$, tendríamos $n^2\equiv 3 \pmod{4}$, lo cual es imposible.

Si $n^2-4n-2=-1$ o $n^2+4n-2=-1$, entonces sumando $6$ de ambos lados tenemos $$(n\pm 2)^2=n^2\pm 4n+4=5.$$ Esto es imposible pues $5$ no es el cuadrado de un entero. Así, $n^4-20n^2+4$ se puede factorizar en factores distintos de $1$ y $-1$ y por lo tanto no es primo.

$\square$

El siguiente problema fue parte de la 1a Olimpiada Mexicana de Teoría de Números. Veremos dos soluciones. Ambas usan ideas algebraicas, pero son distintas entre sí.

Problema. Sean $a,b,c,d$ enteros tales que

\begin{align*}
ab + bc + ca &= 1\\
ad + dc + ca &= 1\\
ab + bd + da &= 1.
\end{align*}

Determina todos los valores posibles que puede tomar $bc+cd+db$.

Sugerencia pre-solución 1. Hay varias formas de aprovechar la simetría del problema. Intenta manipular las ecuaciones para obtener información y recuerda que es importante usar que $a$, $b$, $c$ son enteros.

Solución 1. A partir de la primera y segunda ecuación, tenemos que $$ab+bc+ca=ad+dc+ca,$$

de donde $0=ad+dc-ab-bc=(a+c)(d-b)$. De aquí tenemos dos opciones: $a=-c$ o $b=d$. Si $a=-c$, de la segunda ecuación obtenemos $$1=ad+dc+ca=-c^2,$$ lo cual es imposible. Así, concluimos que $b=d$.

Por simetría, concluimos que $c=b$, así que $b=c=d$. Tras esto, las tres ecuaciones se reducen a una sola $$1=2ab+b^2=b(2a+b).$$ Las únicas factorizaciones de $1$ en enteros son $1=1\cdot 1$ o $1=(-1)(-1)$, de modo que $b=2a+b$, de donde $a=0$ y $b=\pm 1$. De cualquier forma, la expresión que buscamos es $bc+cd+db=3b^2=3$.

$\square$

Sugerencia pre-solución 2. Formula un problema equivalente sumando $a^2$ en ambos lados en cada una de las ecuaciones.

Solución 2. Sumando $a^2$ en ambos lados de la primer ecuación obtenemos $$a^2+1=a^2+ab+bc+ca=(a+b)(a+c).$$ Las otras dos ecuaciones dan expresiones simétricas. Multiplicando las tres, tenemos $$(a^2+1)(a^2+1)^2=(a+b)^2(b+c)^2(c+a)^2.$$

El lado derecho es el cuadrado de un entero, así que el izquierdo también debe serlo, de modo que $a^2+1$ debe ser el cuadrado de un entero. Pero los únicos cuadrados a distancia $1$ son $0$ y $1$, de donde $a^2+1=1$, y así $a=0$. Las ecuaciones se convierten entonces en $bc=dc=bd=1$, de donde la suma de las tres es $3$.

$\square$

Demostraciones del binomio de Newton

La siguiente es una de las identidades algebraicas más importantes.

Teorema (binomio de Newton). Para $a$ y $b$ números reales y $n$ un entero no negativo, se tiene que
\begin{align*}
(a+b)^n=\sum_{j=0}^n \binom{n}{j}a^{n-j}b^j
\end{align*}

El término de la derecha es $$a^n+\binom{n}{1}a^{n-1}b+\ldots+\binom{n}{n-1}ab^{n-1} + b^n.$$

Veamos algunas demostraciones del teorema de binomio de Newton, que usan ideas un poco distintas. La primera usa ideas combinatorias. La segunda, ideas más algebraicas. La tercera es menos general, pero usa ideas geométricas.

Demostración combinatoria

Demostración 1. Pensemos al lado izquierdo como el producto $$(a+b)(a+b)\ldots(a+b)(a+b).$$ ¿Cómo se obtienen factores al desarrollar esta expresión? En cada uno de los $n$ paréntesis hay que elegir o un $a$, o un $b$. Así, cada sumando es producto de $n$ letras.

Si elegimos $j$ veces $b$, entonces elegimos $n-j$ veces $a$. ¿De cuántas formas podemos elegir $j$ veces $b$? Tantas como subconjuntos de tamaño $j$ de un conjunto de $n$ elementos, es decir, $\binom{n}{j}$.Así, el término $a^{n-j}b^j$ aparece $\binom{n}{j}$ veces.

Para terminar, notemos que $j$ puede ir desde $0$ (no elegir ningún $b$), hasta $n$ (no elegir ningún $a$).

$\square$

La demostración anterior es combinatoria, pues está usando argumentos de conteo. Está contando de dos formas distintas los términos que aparecen en el producto desarrollado. Además, está usando la interpretación combinatoria de los coeficientes binomiales.

Demostración algebraica

Demostración 2. Si $b=0$, entonces en ambos lados tenemos $a^n$, ya que el único sumando en el que no aparece $b$ es el primero. Tenemos algo análogo si $a=0$. De otra forma, podemos asumir que $a$ y $b$ no son cero y dividir ambos lados de la igualdad que queremos entre $b^n$. Definiendo $x=a/b$, tenemos que mostrar que:

$$(x+1)^n= \sum_{j=0}^n \binom{n}{j}x^{n-j}.$$

Esta igualdad es claramente cierta para $n=0$, pues en ambos lados obtenemos $1$, y para $n=1$, pues en ambos lados obtenemos $x+1$. Procediendo por inducción (explicamos cada paso con un poco de detalles más abajo):

\begin{align*}
(x+1)^{n+1}&=(x+1)(x+1)^n\\
& = (x+1)\sum_{j=0}^n \binom{n}{j} x^{n-j}\\
&=\sum_{j=0}^n \binom{n}{j} x^{n-j+1}+\sum_{j=0}^n \binom{n}{j}x^{n-j}\\
& = \sum_{j=0}^{n+1} \binom{n}{j-1} x^{n-j}+\sum_{j=0}^{n+1} \binom{n}{j}x^{n-j}\\
&=\sum_{j=0}^{n+1}\left(\binom{n}{j-1}+\binom{n}{j}\right) x^{n-j}\\
&=\sum_{j=0}^{n+1}\binom{n+1}{j} x^{n-j}.
\end{align*}

El primer paso es claro. En el segundo usamos hipótesis inductiva. Luego, hacemos la multiplicación por $x+1$. El siguiente paso puede ser un poco confuso, pues parece que «agregamos términos», pero en la segunda suma sólo agregamos $\binom{n}{n+1}x^{-1}=0$. En la primer suma hicimos un shift o desfase: los términos que estaban antes para $j$ de $0$ a $n$, ahora están para $j$ de $1$ a $n+1$. Además, agregamos el término $\binom{n}{-1}x^{n}=0$. En el siguiente paso usamos la identidad de Pascal: $$\binom{n}{j-1}+\binom{n}{j}=\binom{n+1}{j},$$ que se puede demostrar combinatoriamente, o directamente de manera algebraica a partir de la fórmula para coeficientes binomiales.

Con esto termina la demostración por inducción.

$\square$

Esta segunda demostración es mucho más algebraica, es decir, usa ideas de cómo se manipulan las expresiones con variables. El primer paso, en el que reducimos el problema a cuando un término es $1$, se llama homogenización. En realidad no era estrictamente necesario hacerlo, pero simplifica la notación. En las sumas hicimos un shift, que es otra técnica que se usa al estudiar sumas y series.

Demostración geométrica

Daremos una última demostración del teorema del binomio de Newton, pero sólo para el caso $n=2$. Lo que tenemos que demostrar es simplemente la identidad $$(a+b)^2=a^2+2ab+b^2.$$ Para este caso, hay una bonita «demostración sin palabras»:

Binomio al cuadrado mostrado geométricamente
Demostración visual del binomio al cuadrado

Esta demostración es geométrica, pues estamos interpretando a la igualdad como una igualdad de áreas. Estamos usando una fórmula de área para cuadrados y rectángulos. Además, estamos usando que el área de una figura es aditiva, es decir, que es igual a la suma de áreas de figuras en las que queda subdividida.

Puedes elegir tu demostración favorita del binomio de Newton. Sin embargo, en resolución de problemas es importante saber proceder con varios acercamientos. Hay problemas en los que el acercamiento combinatorio, el algebraico o el geométrico es ventajoso, y por ello es mejor tener buena práctica en todos ellos.

Una aplicación del binomio de Newton en teoría de números

En entradas anteriores ya hemos usado el teorema del binomio de Newton en repetidas ocasiones, por ejemplo, en la entrada de aritmética de números complejos. Veamos un ejemplo más.

Problema. Sean $a$ y $b$ enteros primos relativos. Muestra que para todo entero positivo $n$, se tiene que $a^n$ y $b^n$ son primos relativos.

Sugerencia pre-problema. Hay varias formas de dar una solución de esto. Una es analizando a los enteros primo por primo. Sin embargo, existe una solución usando binomio de Newton y la caracterización en términos de combinaciones lineales enteras para primos relativos.

Solución. Como $a$ y $b$ son primos relativos, existe una combinación lineal entera de ellos que da $1$, digamos $$ax+by=1.$$ Elevando esta igualdad a la $2n-1$ tenemos $$1=1^{2n-1}=(ax+by)^{2n-1}.$$ Abriendo el último término con binomio de Newton queda
$$\sum_{j=0}^{n-1} \binom{2n-1}{j} a^{2n-1-j}b^j + \sum_{j=n}^{2n-1} \binom{2n-1}{j} a^{2n-1-j}b^j,$$ y factorizando $a^n$ del primer sumando y $b^n$ del segundo,
$$a^n \sum_{j=0}^{n-1} \binom{2n-1}{j} a^{n-1-j}b^j + b^n \sum_{j=n}^{2n-1} \binom{2n-1}{j} a^{2n-1-j}b^{j-n}.$$

Lo que queda a la derecha es una combinación lineal entera de $a^n$ y $b^n$ igual a $1$, y por lo tanto son primos relativos.

$\square$

Más problemas

En la siguiente entrada hablaremos de la identidad de Gauss para suma de cuadrados y de la identidad para $x^3+y^3+z^3-3xyz$, las cuales se usan frecuentemente en resolución de problemas. Además, puedes encontrar más problemas de identidades algebraicas en la Sección 4.1 del libro Problem Solving through Problems de Loren Larson.

Álgebra Lineal I: Ortogonalidad, hiperplanos y ecuaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de formas lineales, del espacio dual y de ortogonalidad. Con la teoría que hemos desarrollado en esas entradas, podemos cosechar uno de los hechos más importantes para espacios vectoriales de dimensión finita $n$: todos los subespacios se pueden obtener a partir de intersectar hiperplanos, es decir, subespacios de dimensión $n-1$. El objetivo de esta entrada es dar las definiciones necesarias para enunciar y demostrar este resultado formalmente.

Hiperplanos

Antes de demostrar el resultado mencionado en la introducción, tomaremos un poco de intuición geométrica de $\mathbb{R}^3$.

En $\mathbb{R}^3$ tenemos sólo un subespacio de dimensión $0$, que es $\{(0,0,0)\}$, un punto. Para obtener un subespacio de dimensión $1$, tenemos que tomar un vector $v\neq 0$ y considerar todos los vectores $rv$ con $r$ en $\mathbb{R}$. Esto corresponde geométricamente a una línea por el origen, con la misma dirección que $v$. En otras palabras, los subespacios de dimensión $1$ son líneas por el origen.

¿Quiénes son los subespacios de dimensión $2$? Debemos tomar dos vectores linealmente independientes $u$ y $v$ y considerar todas las combinaciones lineales $au+bv$ de ellos. Es más o menos fácil convencerse de que obtendremos al plano que pasa por $u$, $v$ y el $(0,0,0)$. Es decir, los subespacios de dimensión $2$ de $\mathbb{R}^3$ son planos por el origen.

Esto motiva la siguiente definición.

Definición 1. Sea $V$ un espacio vectorial de dimensión finita $n$. Un hiperplano de $V$ es un subespacio de dimensión $n-1$.

Ejemplo. El subespacio $U=\mathbb{R}_5[x]$ de $V=\mathbb{R}_6[x]$ es un hiperplano. Esto es ya que $U$ es de dimesión $6$ y $V$ es de dimensión $7$. Sin embargo, aunque $U$ también es un subespacio de $W=\mathbb{R}_7[x]$, no se cumple que $U$ sea hiperplano de $W$ pues $W$ es de dimensión $8$ y $6\neq 8-1$.

Las matrices simétricas de $M_2(\mathbb{R})$ forman un subespacio $S$ de dimensión $3$ de $M_2(\mathbb{R})$, pues son de la forma $\begin{pmatrix} a & b \\ b & c \end{pmatrix}$. De esta forma, $S$ es un hiperplano de $M_2(\mathbb{R})$. Sin embargo, el conjunto de matrices simétricas de $M_n(\mathbb{R})$ no es un hiperplano ni para $n=1$, ni para $n\geq 3$.

$\triangle$

Los hiperplanos nos pueden ayudar a obtener subespacios. De hecho, veremos que en el caso de dimensión finita nos ayudan a obtener a todos los subespacios. Para continuar construyendo la intuición, notemos que en $\mathbb{R}^3$ los hiperplanos son simplemente los planos por el origen y que:

  • Podemos obtener a cualquier plano por el origen como intersección de planos por el origen: simplemente lo tomamos a él mismo.
  • Podemos obtener a cualquier línea por el origen como la intersección de dos planos distintos por el origen que la contengan. Por ejemplo, el eje $z$ es la intersección de los planos $xz$ y $yz$. En otras palabras: todo subespacio de dimensión $1$ de $\mathbb{R}^3$ se puede obtener como la intersección de dos hiperplanos de $\mathbb{R}^3$.
  • A $\{0\}$ lo podemos expresar como la intersección de los planos $xy$, $yz$ y $xz$, osea, al único espacio de dimensión cero lo podemos expresar como intersección de $3$ hiperplanos.

Ya obtenida la intuición, lo que veremos a continuación es que el resultado anterior en realidad es un fenómeno que sucede en cualquier espacio vectorial de dimensión finita. Así, nos enfocaremos en entender las definiciones del siguiente teorema, y demostrarlo.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$.

  • Todo subespacio $W$ de $V$ de dimensión $m$ es la intersección de $n-m$ hiperplanos de $V$ linealmente independientes.
  • Toda intersección de $n-m$ hiperplanos de $V$ linealmente independientes es un subespacio vectorial de dimensión $m$.

Los hiperplanos son subespacio y la definición de independencia lineal que tenemos es para vectores. Pero el teorema anterior habla de «hiperplanos linealmente independientes». ¿A qué se refiere esto? Como veremos más adelante, a cada hiperplano se le puede asignar de manera natural un elemento del espacio dual de $V$.

Recordatorio de espacio ortogonal

En la entrada anterior mostramos el siguiente resultado:

Teorema (teorema de dualidad). Sea $V$ un espacio vectorial de dimensión finita sobre $F$ y $W$ un subespacio de $V$ (o de $V^\ast)$. Entonces $$\dim W + \dim W^\bot = \dim V.$$

Además, obtuvimos como corolario lo siguiente:

Corolario. Si $V$ es un espacio vectorial de dimensión finita sobre un campo $F$ y $W$ un subespacio de $V$ (o de $V^\ast$), entonces $(W^\bot)^\bot=W$.

Usaremos estos resultados para dar una definición alternativa de hiperplanos, para entender a los subespacios de dimensión $n-1$ y para mostrar el teorema principal de esta entrada.

Subespacios de dimensión $n-1$ y definición alternativa de hiperplanos

Tomemos un espacio vectorial $V$ de dimensión finita $n$. Un caso especial, pero muy importante, del teorema de dualidad es cuando $W$ es un subespacio de $V^\ast$ de dimensión $1$, es decir, cuando $W$ está generado por una forma lineal $l\neq 0$. En este caso, $W^\bot$ es un subespacio de $V$ y por el teorema de dualidad, es de dimensión $n-1$.

De manera inversa, si $W$ es un subespacio de $V$ de dimensión $n-1$, por el teorema de dualidad tenemos que $W^\bot$ es de dimensión $1$, así que hay una forma lineal $l\neq 0$ que lo genera. Por el corolario, $W=(W^\bot)^\bot$, que en otras palabras quiere decir que $W=\{v\in V: l(v)=0\}.$ En resumen:

Proposición. Un subespacio $W$ de un espacio de dimensión finita $d$ tiene dimensión $d-1$ si y sólo si es el kernel de una forma lineal $l\neq 0$ de $V$.

Ejemplo 1. Considera la forma lineal $\text{ev}_0$ en el espacio vectorial $V=\mathbb{C}_n[x]$ de polinomios con coeficientes complejos y grado a lo más $n$. Los polinomios $p$ tales que $\text{ev}_0(p)=0$ son exactamente aquellos cuyo término libre es $0$. Este es un subespacio vectorial de $V$ de dimensión $n=\dim V – 1$, pues una base para él son los polinomios $x, x^2, \ldots, x^n$.

$\triangle$

Problema. Considera el espacio vectorial $V=M_{2,3}(\mathbb{R})$. Considera $W$ el subconjunto de matrices cuya suma de entradas en la primer columna es igual a la suma de entradas de la segunda columna. Muestra que $W$ es un subespacio de dimensión $5$ y escríbelo como el kernel de una forma lineal.

Solución. Mostrar que $W$ es un subespacio de $V$ es sencillo y se queda como tarea moral. Se tiene que $W$ no puede ser igual a todo $V$ pues, por ejemplo, la matriz $\begin{pmatrix} 1 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix}$ no está en $W$, así que $\dim W\leq 5$.

Las matrices $\begin{pmatrix} 1 & 1 & 0\\ 0 & 0 & 0 \end{pmatrix}$, $\begin{pmatrix} 1 & 1 & 1\\ 0 & 0 & 0 \end{pmatrix}$, $\begin{pmatrix} 1 & 1 & 0\\ 0 & 0 & 1 \end{pmatrix}$, $\begin{pmatrix} 1 & 0 & 0\\ 0 & 1 & 0 \end{pmatrix}$, $\begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 0 \end{pmatrix}$ son linealmente independientes y están en $W$, así que $\dim W\geq 5$, y junto con el párrafo anterior concluimos que $\dim W = 5$.

Finalmente, tomemos la forma lineal $$l\begin{pmatrix} a & b & c\\ d& e& f\end{pmatrix}=a+d-b-e.$$ Tenemos que una matriz está en el kernel de $l$ si y sólo si $a+d-b-e=0$, si y sólo si $a+d=b+e$, es decir, si y sólo si las entradas de la primer columna tienen la misma suma que las de la segunda. Así, $W=\ker l$.

$\square$

La proposición anterior nos permite dar una definición alternativa de hiperplano y hablar de hiperplanos linealmente independientes.

Definición 2. Sea $V$ un espacio vectorial. Un hiperplano es el kernel de una forma lineal $l\neq 0$ en $V^\ast$. Una familia de hiperplanos es linealmente independiente si sus formas lineales correspondientes son linealmente independientes en $V^\ast$.

Observa además que la definición anterior también sirve para espacios vectoriales de dimensión infinita, pues nunca hace referencia a la dimensión que debe tener un hiperplano.

Ejemplo 2. El conjunto de funciones continuas $f$ en el intervalo $[0,1]$ tales que $$\int_0^1 f(x) \, dx = 0$$ son un subespacio $W$ de $\mathcal{C}[0,1]$. Este subespacio es un hiperplano pues es el kernel de la forma lineal $I$ tal que $$I(f)=\int_0^1 f(x)\, dx.$$

$\square$

No mencionaremos más de espacios de dimensión infinita en esta entrada.

Escribiendo subespacios como intersección de hiperplanos

Ya podemos entender el teorema principal de esta entrada y demostrarlo. Lo enunciamos nuevamente por conveniencia.

Teorema 2. Sea $V$ un espacio vectorial de dimensión finita $n$.

  • Todo subespacio $W$ de $V$ de dimensión $m$ es la intersección de $n-m$ hiperplanos de $V$ linealmente independientes.
  • Toda intersección de $n-m$ hiperplanos de $V$ linealmente independientes es un subespacio vectorial de dimensión $m$.

Demostración. Tomemos un espacio vectorial $V$ de dimensión finita $n$ y un subespacio $W$ de dimensión $m$. Por el teorema de dualidad, la dimensión de $\dim W^\bot$ es $n-m$. Tomemos una base $B=\{l_1,l_2,\ldots,l_{n-m}\}$ de $W^\bot$. Por el corolario al teorema de dualidad, podemos expresar a $W$ como $$W=(W^\bot)^\bot=\{v\in V: l_1(v)=\ldots=l_{n-m}(v)=0\}.$$

Si definimos $L_i=\{v\in V: l_i(v)=0\}$, por la proposición de la sección anterior tenemos que cada $L_i$ es un hiperplano de $V$. Además, $$W=L_1\cap \ldots\cap L_{n-m}.$$ Como los $l_i$ son linealmente independientes, con esto logramos expresar a $W$ como intersección de $n-m$ hiperplanos linealmente independientes.

Probemos ahora la segunda parte de la proposición. Tomemos el conjunto $S=\{l_1,\ldots,l_{n-m}\}$ de formas linealmente independientes que definen a los hiperplanos. Un vector $v$ está en la intersección de todos estos hiperplanos si y sólo si $l_1(v)=\ldots=l_{n-m}(v)=0$, si y sólo si está en $S^\bot=\text{span}(S)^\bot$. Es decir, la intersección de los hiperplanos es precisamente el subespacio $\text{span}(S)^\bot$. Como $S$ es linealmente independiente, tenemos que $ \text{span}(S)$ es de dimensión $n-m$, de modo que por el teorema de dualidad, $\dim \text{span}(S)^\bot = n-(n-m)=m$. Esto muestra lo que queremos.

$\square$

Algunos problemas prácticos

Si tenemos un espacio $V$ de dimensión finita $n$, un subespacio $W$ de dimensión finita $m$ y queremos encontrar de manera práctica la expresión de $W$ como intersección de hiperplanos de $V$, podemos hacer el siguiente procedimiento:

  • Determinamos una base $l_1,\ldots,l_{n-m}$ para $W^\bot$ (la cual consiste de formas lineales de $V^\ast$). Esto lo podemos hacer con los pasos que mencionamos en la entrada anterior.
  • Definimos $L_i=\{v\in V: l_i(v)=0\}$.
  • Tendremos que $W$ es la intersección de los $L_i$.

Una última observación es que cada $L_i$ está definido por una ecuación lineal. Esto nos permite poner a cualquier subespacio como el conjunto solución a un sistema lineal. Esto lo cual podemos ver de forma práctica de la siguiente manera:

  • Tomamos una base $e_1,\ldots,e_n$ de $V$.
  • Tomemos un vector $v=a_1e_1+\ldots+a_ne_n$ que queremos determinar si está en $W$. Para ello, debe estar en cada $L_i$.
  • Cada $L_i$ está definido mediante la ecuación $l_i(v)=0$ de modo que si $v$ está en $L_i$ sus coordenadas $a_1,\ldots,a_n$ en la base $e_1,\ldots,e_n$ deben satisfacer la ecuación lineal $$l_i(e_1)a_1+\ldots+l_i(e_n)a_n=0.$$
  • De esta forma, los vectores $v$ en $W$ son aquellos cuyas coordenadas en la base $e_1,\ldots, e_n$ satisfacen el sistema de ecuaciones obtenido de las ecuaciones lineales para cada $i$ del punto anterior.

Veremos algunos ejemplos de estos procedimientos en la siguiente entrada.

La receta anterior nos permite concluir la siguiente variante del teorema de esta entrada, escrito en términos de ecuaciones lineales.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ y $B$ una base de $V$.

  • Un subespacio $W$ de dimensión $m$ se puede definir mediante un sistema de ecuaciones lineales independientes que deben satisfacer las coordenadas de los vectores de $W$ escritos en la base $B$.
  • Aquellos vectores cuyas coordenadas en la base $B$ satisfacen un sistema de ecuaciones lineales independientes homogéneo, forman un subespacio de $V$ de dimensión $n-m$.

La moraleja de esta entrada es que podemos pensar que los sistemas de ecuaciones, las intersecciones de hiperplanos y los subespacios de un espacio vectorial de dimensión finita son «prácticamente lo mismo».

Más adelante…

A lo largo de esta entrada enunciamos las definiciones necesarias para llegar al teorema que mencionamos al inicio: para un espacio vectorial de dimension finita $n$, todos los subespacios se pueden obtener a partir de intersectar hiperplanos, es decir, subespacios de dimensión $n-1$.

En la siguiente entrada utilizaremos este resultado para resolver algunos ejercicios y veremos en acción este importante teorema.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Considera el plano $P$ en $\mathbb{R}^3$ que pasa por el origen y por los vectores $(1,1,1)$, $(0,2,0)$. Encuentra reales $a,b,c$ tales que $$P=\{(x,y,z): ax+by+cz = 0 \}.$$
  • En todos los ejemplos en los que se menciona que algo es subespacio, verifica que en efecto lo sea. En los que se menciona que un conjunto es base, también verifica esto.
  • Encuentra una base para el espacio de polinomios $p$ en $M_n(\mathbb{C})$ tales que $\text{ev}(1)(p)=0$.
  • Sea $W$ el subconjunto de matrices de $V:=M_n(\mathbb{R})$ tal que la sumas de las entradas de todas las filas son iguales. Muestra que $W$ es un subespacio de $V$. Determina la dimensión de $W$ y exprésalo como intersección de hiperplanos linealmente independientes.
  • ¿Qué sucede cuando intersectas hiperplanos que no corresponden a formas linealmente independientes? Más concretamente, supongamos que tienes formas lineales $l_1,\ldots,l_m$ de $F^n$. Toma $B=\{e_1,\ldots,e_n\}$ la base canónica de $F^n$. Considera la matriz $A=[l_i(e_j)]$. ¿Qué puedes decir de la dimensión de la intersección de los hiperplanos correspondientes a los $l_i$ en términos del rango de la matriz $A$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Seminario de Resolución de Problemas: El teorema del valor extremo

Por Fabian Ferrari

Introducción

En una entrada anterior, acerca de funciones continuas, mencionamos dos teoremas fundamentales que estas funciones satisfacen: el teorema del valor intermedio y el teorema del valor extremo. Ya hablamos acerca del teorema del valor intermedio en una entrada anterior. El objetivo de esta entrada es mencionar aplicaciones del teorema del valor extremo.

Como recordatorio, el teorema del valor extremo o teorema de los valores extremos nos dice que si una función $f(x)$ es continua en un intervalo cerrado $[a, b]$, entonces existen valores $c$ y $d$ en $[a, b]$ tales que $f(c) \leq f(x) \leq f(d)$ para toda $x$ en el intervalo $[a, b]$.

En otras palabras, lo que nos dice el teorema es que si una función es continua en un intervalo cerrado, tenemos que la función debe alcanzar un valor máximo y un valor mínimo dentro del intervalo.

Dos teoremas para funciones derivables

Aprovecharemos para mencionar dos teoremas importantes que se ocuparán más adelante. Las demostraciones de dichos teoremas tienen que ver con la aplicación del teorema del valor extremo, estos teoremas son el teorema de Rolle y el teorema del valor medio (no confundir con el teorema del valor intermedio).

Teorema de Rolle. Sean $a<b$ reales y $f:[a,b]\to\mathbb{R}$ una función continua en el intervalo $[a, b]$ y derivable en $(a, b)$. Se tiene que si $f(a)=f(b)$, entonces existe $c$ en $(a, b)$ tal que $f^\prime(c)=0$.

Sugerencia pre-demostración. Por el teorema del valor extremo, la función debe alcanzar un máximo y un mínimo en el intervalo. Divide en casos de acuerdo a dónde están estos valores, si en los extremos o no.

Demostración: Como $f(x)$ es una función continua en $[a, b]$, por el teorema del valor extremo tenemos que $f(x)$ alcanza un valor máximo y un valor mínimo en el intervalo $[a, b]$. Tenemos entonces los siguientes casos.

  • Caso i: Si el valor máximo y mínimo se encuentran en los extremos del intervalo, tenemos que la función $f(x)$ tiene que ser constante dado que $f(a)=f(b)$. y se tiene que $f^\prime(c)=0$ para todo $c$ en $[a, b]$.
  • Caso ii: Si el valor mínimo o máximo no están en los extremos. Sean $c_1$ y $c_2$ en $(a, b)$, los valores en los que la función alcanza su mínimo y máximo respectivamente. Alguno de estos no está en los extremos. Como $f(x)$ es derivable en $(a, b)$, tenemos que también va a ser derivable en alguno de los puntos $c_1$ y $c_2$, teniendo que $f^\prime(c_1)=0$ o $f^\prime(c_2)=0$, así que basta con tomar $c=c_1$ o $c=c_2$.

$\square$

Teorema del valor medio. Sean $a<b$ reales y $f:[a,b]\to\mathbb{R}$ una función continua en $[a, b]$ y diferenciable en $(a, b)$. Entonces existe un número $c$ en $(a, b)$ tal que

$\frac{f(b)-f(a)}{b-a}=f^\prime(c)$.

Demostración: Consideremos la siguiente función auxiliar:

$g(x)=(f(b)-f(a))x-(b-a)f(x)$

Tenemos que $g(x)$ es continua en $[a, b]$ y además es derivable en $(a,b)$. La derivada de $g(x)$ está dada por

$g^\prime(x)=f(b)-f(a)-(b-a)f^\prime(x)$

Como $g(x)$ es continua en $[a, b]$, tenemos que por el teorema del valor extremo, la función alcanza un máximo y un mínimo en el intervalo $[a, b]$. Haciendo las cuentas, $g(a)=g(b)$, de modo que si el máximo y mínimo ocurren en los extremos, entonces $g$ es constante y toda $c\in (a,b)$ satisface $g'(c)=0$

En otro caso, sea $c\in(a, b)$ el valor en donde $g(x)$ alcanza su mínimo o su máximo. Tenemos que $g^\prime(c)=0$.

Así, como $g^\prime(c)=f(b)-f(a)-(b-a)f^\prime(c)$, tenemos que:

$0=f(b)-f(a)-(b-a)f^\prime(c)$

$(b-a)f^\prime(c)=f(b)-f(a)$

$f^\prime(c)=\frac{f(b)-f(a)}{b-a}$

$\square$

Alternativamente, en la función anterior pudimos haber aplicado el teorema de Rolle directamente a la función $g$. En las siguientes entradas veremos aplicaciones de estos resultados a problemas concretos.

Aplicación del teorema del valor extremo a un problema

Problema. Se tiene un circulo de radio $r$, y una tangente $L$ que pasa por un punto $P$ de la circunferencia. De un punto cualquiera $R$ en la circunferencia se traza una paralela a $L$ que corta a la circunferencia en $Q$. Determina el área máxima que puede tener el triángulo $PQR$.

Sugerencia pre-solución. Antes que nada, haz una figura. Usa el teorema del valor extremo para asegurar la existencia del valor máximo. Para ello, necesitarás construir una función continua cuyo valor sea el área buscada. Puedes usar argumentos de simetría para conjeturar cuándo se alcanza el valor máximo.

Solución. Hacemos el siguiente diagrama para entender mejor el problema.

Diagrama del enunciado del problema

Fijémonos que las condiciones de la altura y la base del triángulo $PQR$ se pueden describir mediante la siguiente figura:

Condiciones para la altura y base del triángulo

Notemos que la altura del triángulo está dada por $r+h$, donde $h$ puede variar entre $-r$ y $r$. Este dibujo también nos es de ayuda para determinar el valor de la base. Por el teorema de Pitágoras y sabiendo que la distancia del centro $C$ a los puntos $R$ y $Q$ es igual a $r$, tenemos que la base del triángulo es igual a $2\sqrt{r^2-h^2}$.

Así, el área del triángulo está dada por $(\sqrt{r^2-h^2})(r+h)$, pero como $h$ varía, nos conviene ver el área en función de $h$.

$A(h)=\sqrt{r^2-h^2}(r+h),$

La función $A(h)$ es una función continua en el intervalo $[-r, r]$.

Notemos que cuando $h$ toma los valores de $-r$ y $r$, el valor del área es nulo, es decir que en estos valores alcanza el mínimo, lo cual quiere decir que por el teorema del valor extremo, el valor máximo lo alcanza en algún valor en $(-r, r)$.

Si derivamos la función $A(h)$, tenemos

$A^\prime(h)=\frac{r^2-rh-2h^2}{\sqrt{r^2-h^2}}.$

Como sabemos que hay un máximo en el intervalo $(-r, r)$ y la derivada en este punto máximo debe ser igual a cero, hacemos $A^\prime(h)=0$.

Así,

$\frac{r^2-rh-2h^2}{\sqrt{r^2-h^2}}=0.$

Resolviendo la ecuación tenemos que

$h=\frac{r}{2}.$

Así, el área máxima del triángulo $PQR$ es $$A=\sqrt{r^2-\left(\frac{r}{2}\right)^2}\left(r+\frac{r}{2}\right)=\frac{3\sqrt{3}r^2}{4}.$$

$\square$

Más ejemplos

Se pueden encontrar más problemas de aplicación del teorema del vaalor extremo en la Sección 6.4 del libro Problem Solving through Problems de Loren Larson.

Seminario de Resolución de Problemas: Principio de las Casillas

Por Fabian Ferrari

Introducción

Imaginemos que tenemos un botiquín con $9$ espacios para acomodar medicamentos. Si contamos con un total de $10$ medicamentos para acomodar en los $9$ espacios, es claro pensar que al menos uno de los $9$ espacios tendrá al menos $2$ medicamentos. Eso lo podemos deducir a partir de que no hay posibilidad de repartir los $10$ medicamentos de manera equitativa en los $9$ espacios, ya que tenemos más objetos que acomodar que lugares en donde distribuir.

Siguiendo el ejemplo anterior, podemos generalizar un poco. Si tuviésemos $n$ lugares en el botiquín y $n+1$ medicamentos, podemos concluir lo mismo: al menos en una casilla habría más de un medicamento.

El esquema propuesto anteriormente es un versión básica del principio de casillas. Si volvemos a nuestro problema inicial, con el botiquín con $9$ lugares disponibles, pero ahora tenemos un total de $19$ medicamentos, de igual manera, no podemos distribuir los medicamentos de manera equitativa en los nueve lugares, y ahora si lo pensamos con un poco más de detalle, podemos concluir que en alguna de las $9$ casillas deberían de haber al menos $3$ medicamentos. Esto surge en consecuencia de pensar que podemos distribuir de manera equitativa los $19$ medicamentos en los $9$ lugares, sin embargo si colocamos en cada lugar un total de $2$ medicamentos, tendríamos que hemos acomodado un total de $18$ ($9\times 2$) medicamentos, quedándonos $1$ medicamento por acomodar, el cual debería de ir en alguno de los lugares con $2$ medicamentos cada uno. Con esto concluimos que en alguno de los lugares del botiquín debe de haber al menos $3$ medicamentos.

Con lo anterior, enunciaremos el principio de casillas.

Principio de Casillas: Si se distribuyen al menos $nk+1$ elementos en $n$ lugares, se tiene que uno de esos lugares tiene al menos $k+1$ elementos.

Este principio puede ser de gran utilidad para la resolución de problemas en los cuales hay que exhibir la existencia de elementos que cumplen cierta propiedad.

Problemas

A continuación veremos ciertos problemas en los que se muestra que el principio de las casillas es una herramienta poderosa para su resolución.

Problema. Demuestre que si hay $n$ personas en una fiesta, entonces dos de ellos conocen la misma cantidad de personas (entre los presentes).

Solución. Supongamos que hay una persona $P$ que no conoce a ninguna de las $n-1$ personas restantes. Cada una de las personas en la fiesta conoce a un número de personas entre un rango de $0$ a $n-2$ (nadie puede conocer a los $n-1$ restantes pues nadie puede conocer a $P$)Ahora, aplicando el principio de casillas, relacionando a cada persona su número de conocidos, el cual varía de $0$ a $n-2$, tenemos que al menos dos personas deben de conocer el mismo número de personas.

De igual manera, si suponemos que toda persona conoce a alguien, tenemos que el número de conocidos de cada persona varía de $1$ a $n-1$. Aplicando de nueva cuenta el principio de casillas, al asociar a cada persona su número de conocidos, tenemos que al menos dos se repiten.

$\square$

Problema 2. Dado un conjunto de $n+1$ enteros positivos, todos ellos menores o iguales a $2n$, muestra que al menos un miembro del conjunto debe dividir a otro miembro del conjunto.

Solución. Sean $a_1, a_2, …, a_{n+1}$ dichos enteros positivos. Al factorizar la máxima potencia de dos que divide a cada uno de ellos, podemos escribir a cada número de la forma $a_i=2^{m_i}·b_i$ de tal forma que $b_i$ es un número impar mayor o igual que uno y $m_i$ es un entero no negativo. Consideramos a $B$ como el conjunto de todos los $b_i$´s $$B=\lbrace b_1, b_2, …, b_{n+1}\rbrace.$$

Tenemos que entre $1$ y $2n$ hay un total de $n$ números impares, así que en el conjunto $B$ debe de haber dos elementos que sean iguales entre sí. Supongamos que $b_i$ y $b_j$ son dichos elementos. Con ello, si $m_i\leq m_j$ entonces $a_i$ divide a $a_j$. Y si $m_i>m_j$ entonces $a_j$ divide a $a_i$.

$\square$

Problema 3. Dados los puntos A, B, C, D, E al interior de un cuadrado unitario, demuestra que al menos hay dos puntos cuya distancia es menor a $\frac{\sqrt{2}}{2}$.

Solución. Si dividimos el cuadrado en $4$ cuadrados iguales, tenemos que por el principio de casillas en al menos uno de los cuadrados debe de haber $2$ puntos. Sin perdida de generalidad, supongamos que  A y B son dichos puntos que quedan la interior de uno de estos cuadrados pequeños. Tenemos que le diagonal del cuadrado pequeño es $\frac{\sqrt{2}}{2}$, es por ello que cualesquiera dos puntos al interior del cuadrado pequeño estarán distanciados menos que $\frac{\sqrt{2}}{2}$.

$\square$

Problema 4. Prueba que una línea recta que no pasa por uno de los vértices de un triángulo, no puede cortar los tres lados del triángulo.

Solución. Tenemos que una recta divide al plano en dos regiones. Si tomamos estas regiones como «casillas» tenemos que en una de nuestras casillas hay al menos dos puntos del triángulo los cuales forman un segmento de recta que es uno de los lados del triángulo. Con esto tenemos que la recta no corta ese lado del triángulo.

$\square$

Puedes dejar dudas de la entrada o soluciones alternativas a algunos de estos problemas aquí abajo en los comentarios.

Más ejemplos

Puedes encontrar más ejemplos en la Sección 2.6 del Larson, o en la siguiente entrada que escribiremos al respecto.

Trabajar hacia atrás

Por Leonardo Ignacio Martínez Sandoval

HeuristicasHay algunos laberintos en los cuales es más fácil empezar por la salida que por la entrada. Como que empezar al final nos da más información. De modo similar, hay algunos problemas que nos dan más información si empezamos por las conclusiones que por las hipótesis.

Así mismo, en algunos problemas se tiene que seguir un cierto proceso y la pregunta es acerca de algunos estados alcanzables. En vez de empezar con un estado y ver a dónde llega, es mejor preguntarse cómo pudimos llegar al estado buscado.

Estas ideas también sirven para saber «en donde estás» mientras resuelves un problema: ¿Qué es lo que quieres y qué es lo que sabes?

Ir a los videos…