Archivo del Autor: Leonardo Ignacio Martínez Sandoval

Acerca de Leonardo Ignacio Martínez Sandoval

Hola. Soy Leonardo Martínez. Soy Profesor de Tiempo Completo en la Facultad de Ciencias de la UNAM. Hice un doctorado en Matemáticas en la UNAM, un postdoc en Israel y uno en Francia. Además, me gusta colaborar con proyectos de difusión de las matemáticas como la Olimpiada Mexicana de Matemáticas.

Seminario de Resolución de Problemas: Desigualdades básicas

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas correspondientes a esta parte del curso aprenderemos varias técnicas que nos permitirán resolver problemas que involucren desigualdades. El área es enorme y hay libros enteros dedicados a ello. Nosotros sólo veremos algunas técnicas. Comenzaremos con desigualdades básicas y nos enfocaremos en los siguientes temas:

  • Desigualdad $x^2\geq 0$ y desigualdad del triángulo
  • Desigualdades de medias
  • La desigualdad de Cauchy-Schwarz
  • Técnicas de cálculo en desigualdades

En esta entrada veremos el primer inciso, que consiste de dos ideas muy sencillas:

Desigualdad $x^2\geq 0$. El cuadrado de cualquier número real es mayor o igual a cero. Es cero si y sólo si el número es cero.

Desigualdad del triángulo. Si $V$ es un espacio vectorial con norma $\norm{\cdot}$, entonces para cualesquiera vectores $u$ y $v$ se tiene que $$\norm{u}+\norm{v}\geq \norm{u+v}.$$

La desigualdad $x^2\geq 0$ parece muy inocente. Sin embargo, es una herramienta muy versátil cuando se combina con manipulaciones algebraicas creativas. La desigualdad del triángulo la estamos enunciando para espacios vectoriales con norma en general. Dos casos particulares que a lo mejor te son más familiares son los siguientes:

Desigualdad del triángulo para $\mathbb{R}$. Si $a$ y $b$ son números reales, entonces $|a|+|b| \geq |a+b|$.

Desigualdad del triángulo en $\mathbb{R}^n$. Si $ABC$ es un triángulo en el plano (o dimensiones más altas) , de lados de longitudes $\overline{AB}=c$, $\overline{BC}=a$ y $\overline{CA}=b$, entonces
\begin{align*}
a+b&\geq c\\
b+c &\geq a\\
c+a &\geq b.
\end{align*}

Si una de las igualdades se da, $ABC$ es un triángulo degenerado, es decir, con sus tres vértices alineados. En otro caso, todas las desigualdades son estrictas.

Veamos aplicaciones de estas desigualdades básicas.

La desigualdad $\frac{a^2+b^2}{2}\geq \sqrt{ab}$

Comenzaremos probando de dos formas distintas una desigualdad que también resulta útil en otras ocasiones.

Problema. Sean $a$ y $b$ números reales mayores o iguales a cero. Muestra que $$\frac{a+b}{2}\geq \sqrt{ab},$$ y que la igualdad se da si y sólo si $a$ y $b$ son iguales.

A esta desigualdad se le conoce como la desigualdad MA-MG para dos números reales. También forma parte de las desigualdades básicas que te ayudará conocer. Se llama así pues en el lado izquierdo tenemos a la media aritmética de los números $a$ y $b$, y al lado derecho tenemos la media geométrica de los números $a$ y $b$. En realidad la desigualdad se vale para más reales no negativos, pero esto lo veremos en otra entrada.

Sugerencia pre-solución. El problema se puede resolver tanto de manera algebraica, (usando $x^2\geq 0$) como de manera geométrica (usando la desigualdad del triángulo).

Para resolverlo de la primera forma, trabaja hacia atrás. Haz manipulaciones algebraicas para formular problemas equivalentes hasta que llegues a una desigualdad obvia.

Para resolverlo de la segunda forma, haz una figura en la que puedas representar tanto a la media geométrica como a la aritmética. Una forma de hacerlo es comenzar con una semicircunferencia de diámetro $a+b$.

Para identificar el caso de igualdad, haz un análisis de casos.

Solución algebraica. Queremos mostrar que $$\frac{a+b}{2}\geq \sqrt{ab}.$$ Pasando el dos multiplicando, y luego $2\sqrt{ab}$ restando al lado izquierdo, esta desigualdad igualdad ocurre si y sólo si $$a+b-2\sqrt{ab}\geq 0.$$ En el lado izquierdo identificamos un binomio al cuadrado, que se puede factorizar para dar la desigualdad equivalente $$\left(\sqrt{a}-\sqrt{b}\right)^2\geq 0.$$

Esta desigualdad es de la forma $x^2\geq 0$, así que es claramente cierta. La igualdad ocurre si y sólo si $\sqrt{a}-\sqrt{b}=0$, lo cual sucede si y sólo si $a=b$. Todos los pasos que hicimos son reversibles. Esto termina la solución.

$\square$

Solución geométrica. Consideremos la siguiente figura, en donde tenemos una semicircunferencia de diámetro $\overline{AB}=a+b$ y centro $O$. Aquí $C$ es un punto en $AB$ tal que $\overline{AC}=a$ y entonces $\overline{CB}=b$. Además, $D$ es un punto sobre la circunferencia tal que $DC$ es perpendicular a $AB$. Llamemos $d=\overline{CD}$.

Prueba visual de la desigualdad entre la media aritmética y media geométrica usando desigualdades básicas
Prueba visual de MA-MG

Como $\triangle AOD$ y $\triangle BOD$ son isósceles por tener dos lados iguales al radio de la circunferencia, tenemos que $\angle ADO = \angle DAO$ y $\angle BDO = \angle DBO$. Usando estas igualdades y que la suma de los ángulos internos de $\triangle ABD$ es $180^\circ$, se puede mostrar que el ángulo $ADB$ es de $90^\circ$.

De este modo, $\triangle ACD$ y $\triangle DCB$ son semejantes (por ser ambos semejantes a $\triangle ABD$ por criterio AA). Por la semejanza, tenemos que $$\frac{a}{d}=\frac{d}{b},$$ de donde $d=\sqrt{ab}$.

Para terminar la demostración, tomamos un punto $E$ sobre $DO$ tal que $\angle EOC = \angle ECO$. Por la desigualdad del triángulo en $\triangle DEC$, tenemos que

\begin{align*}
\sqrt{ab}&=\overline{DC}\\
&\leq \overline{DE} + \overline{EC}\\
&= \overline{DE} + \overline {EO}\\
&= \overline{DO}\\
&=\frac{a+b}{2}.
\end{align*}

Con esto demostramos la desigualdad. Para terminar el problema, necesitamos ver cuándo se dan los casos de igualdad. Se tiene la igualdad si y sólo si $\triangle DEC$ es un triángulo degenerado, lo cual sucede si y sólo si $E$ está en el segmento $DC$. Esto sólo es posible cuando $DO$ es perpendicular a $AB$, lo cual sucede si y sólo si $C=O$, si y sólo si $AC=CB$, si y sólo si $a=b$.

$\square$

Desigualdades básicas aplicadas a un problema de la Olimpiada Mexicana de Matemáticas

El siguiente problema apareció como parte de los exámenes selectivos que el Comité Nacional de la Olimpiada Mexicana de Matemáticas envía a los estados para seleccionar a sus estudiantes en distintas etapas. Tiene muchas formas de resolverse, pero veamos cómo se puede resolver con desigualdades básicas.

Problema. Sean $a,b,c,d$ reales positivos con $a^2+b^2+c^2+d^2=4$. Muestra que $$a^5+b^5+c^5+d^5 \geq a+b+c+d$$

Sugerencia pre-solución. Modifica el problema a mostrar como desigualdad auxiliar que para un real no negativo $x$ se tiene que $$x^5-2x^2-x+2\geq 0.$$ Esta desigualdad se puede demostrar usando que los cuadrados son no negativos.

Solución. Vamos a probar primero la desigualdad $$x^5-2x^2-x+2\geq 0.$$ Para que sea un poco más fácil, factorizaremos la expresión del lado izquierdo.

Notemos que $1$ es una raíz de $x^5-2x^2-x+2$, de modo que por el teorema del factor podemos factorizar $x-1$ del polinomio. Obtenemos que $$x^5-2x^2-x+2=(x-1)(x^4+x^3+x^2-x-2).$$

Notemos que, nuevamente, $1$ es una raíz de $(x^4+x^3+x^2-x-2)$. Al factorizar $x-1$ de nuevo, obtenemos que $$x^5-2x^2-x+2=(x-1)^2(x^3+2x^2+3x+2).$$

Ya estamos listos para probar la desigualdad que queremos. Notemos que $(x-1)^2\geq 0$ y que $x^3+2x^2+3x+2$ es mayor o igual que cero para $x\geq 0$ pues es un polinomio con puros coeficientes positivos. Esto prueba la desigualdad auxiliar. Reescribiéndola, tenemos que $$x^5\geq 2x^2+x-2.$$ Aplicándola en esta forma a los cuatro reales positivos $a,b,c,d$ del problema, y usando que la suma de cuadardos es $4$, obtenemos que
\begin{align*}
a^5 & + b^5+c^5+d^5\\
&\geq 2(a^2+b^2+c^2+d^2)+a+b+c+d-8\\
&=2\cdot 4 + a+b+c+d-8\\
&=a+b+c+d.
\end{align*}

Esto termina el problema.

$\square$

El primer paso parece un poco artificial. ¿Por qué queremos probar esa desigualdad auxiliar? En otra entrada de blog escribí cómo se puede llegar a las ideas de esta solución.

Desigualdad del triángulo aplicada a la construcción de tetraedros

Si pegamos cuatro triángulos equiláteros en el espacio se hace un tetraedro regular. De manera similar, si pegamos cuatro triángulos como el siguiente, también se hace un tetraedro en el espacio:

Pegar cuatro triángulos congruentes para hacer un tetraedro

La intuición nos dice que debería poderse con cualquier triángulo. Pero esta intuición está mal.

Problema. Sea $ABC$ un triángulo con un ángulo mayor a $90^\circ$. Muestra que no existe ningún tetraedro en el espacio tal que sus cuatro caras sean congruentes a $ABC$.

Sugerencia pre-solución. Procede por contradicción. Por simetría, puedes asumir que el ángulo mayor a $90^\circ$ es el ángulo en $A$. Usa como punto auxiliar al punto medio de $BC$ y usa desigualdades.

Solución. Una observación inicial es que si $ABC$ es un triángulo, $M$ es el punto medio de $BC$ y su ángulo interno en $A$ es mayor a $90^\circ$, entonces $2\overline{AM}<\overline{BC}$. Esto se muestra trazando una circunferencia de diámetro $BC$.

Desigualdad para la mediana en términos del ángulo que hace.

De hecho,

  • Un punto $X$ está sobre la circunfencia si y sólo si $\angle BXC = 90 ^\circ$, si y sólo si $\overline{OX}=\overline{OA}$.
  • $X$ está dentro de la circunferencia si y sólo si $\angle BXC > 90^\circ$, si y sólo si $\overline{OX}<\overline{OA}$ y
  • $X$ está fuera de la circunferencia si y sólo si $\angle BXC < 90^\circ$, si y sólo si $\overline{OX}>\overline{OA}$.

Resolvamos el problema. Sin pérdida de generalidad, el ángulo en $A$ es mayor a $90^\circ$. Entonces $\overline{AM}<\frac{\overline{BC}}{2}$, de donde $2\overline{AM}<\overline{BC}$.

Supongamos que se pudiera hacer en el espacio un tetraedro $WXYZ$ tal que cada una de las caras es congruente al triángulo $ABC$. Sin pérdida de generalidad, tenemos que
\begin{align*}
\overline{WX}&=\overline{YZ}=\overline{AB}\\
\overline{XY}&=\overline{ZW}=\overline{BC}\\
\overline{WY}&=\overline{XZ}=\overline{CA}.
\end{align*}

Tomemos el punto medio $M$ de $XY$. En $\triangle ZMW$, tenemos que
\begin{align*}
\overline{ZM}&=\overline{AM}\\
\overline{WM}&=\overline{AM}.
\end{align*}

Así, usando la desigualdad del triángulo en $\triangle ZMW$ tenemos que \begin{align*}
2\overline{AM}&=\overline{ZM}+\overline{WM}\\
&\geq \overline{ZW}\\
&=\overline{BC}.
\end{align*}

Esto es una contradicción con la desigualdad $2\overline{AM}<\overline{BC}$ que ya habíamos mostrado.

$\square$

Más problemas

Puedes encontrar más problemas de desigualdades básicas en la sección 7.1 del libro Problem Solving through Problems de Loren Larson. También puedes consultar más técnicas y problemas en el libro Desigualdades de la Olimpiada Mexicana de Matemáticas.

Álgebra Superior II: Máximo común divisor de polinomios y algoritmo de Euclides

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada continuamos estudiando propiedades aritméticas del anillo de polinomios con coeficientes reales. En la entrada anterior introdujimos el algoritmo de la división, la noción de divisibilidad y los polinomios irreducibles. Además, mostramos el teorema del factor y el teorema del residuo. Lo que haremos ahora es hablar del máximo común divisor de polinomios.

Mucha de la teoría que desarrollamos en los enteros también se vale para $\mathbb{R}[x]$. Como en $\mathbb{Z}$, lo más conveniente para desarrollar esta teoría es comenzar hablando de ideales. Con estos buenos cimientos, veremos que el máximo común divisor de dos polinomios se puede escribir como «combinación lineal de ellos». Para encontrar la combinación lineal de manera práctica, usaremos de nuevo el algoritmo de Euclides.

Antes de comenzar, haremos una aclaración. Hasta ahora hemos usado la notación $f(x), g(x),h(x)$, etc. para referirnos a polinomios. En esta entrada frecuentemente usaremos nada más $f,g,h$, etc. Por un lado, esto simplificará los enunciados y demostraciones de algunos resultados. Por otro lado, no corremos el riesgo de confusión pues no evaluaremos a los polinomios en ningún real.

Ideales de $\mathbb{R}[x]$

Comenzamos con la siguiente definición clave, que nos ayuda a hacer las demostraciones de máximo común divisor de polinomios de manera más sencilla.

Definición. Un subconjunto $I$ de $\mathbb{R}[x]$ es un ideal si pasa lo siguiente:

  1. El polinomio cero de $\mathbb{R}[x]$ está en $I$.
  2. Si $f$ y $g$ son elementos de $\mathbb{R}[x]$ en $I$, entonces $f+g$ está en $I$.
  3. Si $f$ y $g$ son elementos de $\mathbb{R}[x]$, y $f$ está en $I$, entonces $fg$ está en $I$.

Ejemplo 1. El conjunto $I_0=\{f\in \mathbb{R}[x]\mid f(0)=0 \}$.

Evidentemente el polinomio constante $0$, está en $I_0$, ya que evaluado en cualquier número es cero (en particular al evaluarlo en 0).

Si $f,g\in I_0$, entonces $(f+g)(0)=f(0)+g(0)=0+0=0$, por lo que $f+g\in I_0$.

Finalmente, si $g\in I_0$ y $f$ es cualquier polinomio, tenemos que $(fg)(0)=f(0)g(0)=f(0)\cdot 0=0$, por lo que $fg\in I_0$. Con esto concluimos que $I_0$ es un ideal.

$\triangle$

Al igual que en los enteros, los únicos ideales consisten de múltiplos de algún polinomio. El siguiente resultado formaliza esto.

Teorema (caracterización de ideales en $\mathbb{R}[x]$). Un subconjunto $I$ es un ideal de $\mathbb{R}[x]$ si y sólo si existe un polinomio $f$ tal que $$I=f\mathbb{R}[x]:=\{fg: g \in \mathbb{R}[x]\}.$$

Demostración de «la ida». Primero mostraremos que cualquier conjunto de múltiplos de un polinomio dado $f$ es un ideal. Tomemos $f$ en $\mathbb{R}[x]$ y $$I=f\mathbb{R}[x]=\{fg: g \in \mathbb{R}[x]\}.$$

La propiedad (1) de la definición de ideal se cumple pues tomando $g=0$ tenemos que $f\cdot 0 = 0$ está en $I$.

Para la propiedad (2), tomamos $fg_1$ en $I$ y $fg_2$ en $I$, es decir, con $g_1$ y $g_2$ en $\mathbb{R}[x]$. Su suma es, por la ley de distribución, el polinomio $f\cdot (g_1+g_2)$, que claramente está en $I$ pues es un múltiplo de $f$.

Para la propiedad (3), tomamos $fg$ en $I$ y $h$ en $\mathbb{R}[x]$. El producto $(fg)\cdot h$ es, por asociatividad, igual al producto $f\cdot(gh)$, que claramente está en $I$. De esta forma, $I$ cumple (1), (2) y (3) y por lo tanto es un ideal.

$\square$

Demostración de «la vuelta». Mostraremos ahora que cualquier ideal $I$ es el conjunto de múltiplos de un polinomio. Si $I=\{0\}$, que sólo tiene al polinomio cero, entonces $I$ es el conjunto de múltiplos del polinomio $0$. Así, podemos suponer que $I$ tiene algún elemento que no sea el polinomio $0$.

Consideremos el conjunto $A$ de naturales que son grado de algún polinomio en $I$. Como $I$ tiene un elemento no cero, $A$ es no vacío. Por el principio del buen orden, $A$ tiene un mínimo, digamos $n$. Tomemos en $I$ un polinomio $f$ de grado $n$. Afirmamos que $I$ es el conjunto de múltiplos de $f$, es decir, $$I=f\mathbb{R}[x].$$

Por un lado, como $f$ está en $I$ e $I$ es un ideal, por la propiedad (3) de la definición de ideal se tiene que $fg$ está en $I$ para todo $g$ en $\mathbb{R}[x]$. Esto muestra la contención $f\mathbb{R}[x]\subseteq I$.

Por otro lado, supongamos que hay un elemento $h$ que está en $I$, pero no es múltiplo de $f$. Por el algoritmo de la división, podemos encontrar polinomios $q$ y $r$ tales que $h-qf=r$ y $r$ es el polinomio cero o de grado menor a $f$. No es posible que $r$ sea el polinomio cero pues dijimos que $h$ no es múltiplo de $f$. Así, $r$ no es el polinomio cero y su grado es menor al de $f$.

Notemos que $-qf$ está en $I$ por ser un múltiplo de $f$ y que $h$ está en $I$ por cómo lo elegimos. Por la propiedad (2) de la definición de ideal se tiene entonces que $r=h+(-qf)$ también está en $I$. Esto es una contradicción, pues habíamos dicho que $f$ era un polinomio de grado mínimo en $I$, pero ahora $r$ tiene grado menor y también está en $I$. Por lo tanto, es imposible que exista un $h$ en $I$ que no sea múltiplo de $f$. Esto muestra la contención $I\subseteq f\mathbb{R}[x]$.

$\square$

Ejemplo 2. En el ejemplo anterior, $I_0$ denotaba el conjunto de polinomios que se anulan en $0$, podemos demostrar que $I_0=x\mathbb{R}[x]$, ya que si $f\in I_0$, por el teorema del factor, el polinomio $x-0$ divide a $f$, es decir que $f(x)=xg(x)$ para alguan $g\in \mathbb{R}[x]$. Esto prueba que $I_0\subseteq x\mathbb{R}$, dejamos el resto de los detalles como un ejercicio moral.

$\triangle$

El teorema anterior nos dice que cualquier ideal se puede escribir como los múltiplos de un polinomio $f$. ¿Es cierto que este polinomio $f$ es único? Para responder esto, pensemos qué sucede si se tiene $$f\mathbb{R}[x]=g\mathbb{R}[x],$$ o, dicho de otra forma, pensemos qué sucede si $f$ divide a $g$ y $g$ divide a $f$.

Si alguno de $f$ ó $g$ es igual a $0$, entonces el otro también debe de serlo. Así, podemos suponer que ninguno de ellos es igual a $0$. Como $g$ divide a $f$, podemos escribir a $f$ como $hg$ para $h$ un polinomio no cero. De manera similar, podemos escribir a $g$ como un polinomio $kf$ para $k$ un polinomio no cero. Pero entonces $$f=hg=hkf.$$

El grado del lado izquierdo es $\deg(f)$ y el del derecho es $\deg(h)+\deg(k)+\deg(f)$, de donde obtenemos que $\deg(h)=\deg(k)=0$. En otras palabras, concluimos que $h$ y $k$ son polinomios constantes y distintos de cero. Resumimos esta discusión a continuación.

Proposición. Tomemos $f(x)$ y $g(x)$ polinomios en $\mathbb{R}[x]$ distintos del polinomio $0$. Si $f(x)$ divide a $g(x)$ y $g(x)$ divide a $f(x)$, entonces $f(x)=hg(x)$ para un real $h\neq 0$. Del mismo modo, si $f(x)=hg(x)$ con $h$ un real, entonces $f(x)$ divide a $g(x)$ y $g(x)$ divide a $f(x)$.

Cuando sucede cualquiera de las cosas de la proposición anterior, decimos que $f(x)$ y $g(x)$ son asociados.

Ya que no hay un único polinomio que genere a un ideal, nos conviene elegir a uno de ellos que cumpla una condición especial. El coeficiente principal de un polinomio es el que acompaña al término de mayor grado. En otras palabras, si $p(x)$ es un polinomio de grado $n$ dado por $$p(x)=a_0+\ldots+a_nx^n,$$ con $a_n\neq 0$, entonces $a_n$ es coeficiente principal.

Definición. Un polinomio es mónico si su coeficiente principal es $1$.

Por la proposición anterior, existe un único polinomio mónico asociado a $p(x)$, y es $\frac{1}{a_n}p(x)$. Podemos resumir las ideas de esta sección mediante el siguiente teorema.

Teorema. Para todo ideal $I$ de $\mathbb{R}[x]$ distinto del ideal $\{0\}$, existe un único polinomio mónico $f$ tal que $I$ es el conjunto de múltiplos de $f$, en símbolos, $$I=f\mathbb{R}[x].$$

Máximo común divisor de polinomios

Tomemos $f$ y $g$ polinomios en $\mathbb{R}[x]$. Es sencillo ver, y queda como tarea moral, que el conjunto $$f\mathbb{R}[x]+g\mathbb{R}[x]=\{rf+sg: r,s \in \mathbb{R}[x]\}$$ satisface las propiedades (1), (2) y (3) de la definición de ideal. Por el teorema de caracterización de ideales, la siguiente definición tiene sentido.

Definición. El máximo común divisor de $f$ y $g$ es el único polinomio mónico $d$ en $\mathbb{R}[x]$ tal que $$f\mathbb{R}[x]+g\mathbb{R}[x] = d\mathbb{R}[x].$$ A este polinomio lo denotamos por $\MCD{f,g}$.

De manera inmediata, de la definición de $\MCD{f,g}$, obtenemos que es un elemento de $f\mathbb{R}[x]+g\mathbb{R}[x]$, o sea, una combinación lineal polinomial de $f$ y $g$. Este es un resultado fundamental, que enunciamos como teorema.

Teorema (identidad de Bézout). Para $f$ y $g$ en $\mathbb{R}[x]$ existen polinomios $r$ y $s$ en $\mathbb{R}[x]$ tales que $$\MCD{f,g}=rf+sg.$$

El nombre que le dimos a $\MCD{f,g}$ tiene sentido, en vista del siguiente resultado.

Teorema. Para $f$ y $g$ en $\mathbb{R}[x]$ distintos del polinomio cero se tiene que:

  • $\MCD{f,g}$ divide a $f$ y a $g$.
  • Si $h$ es otro polinomio que divide a $f$ y a $g$, entonces $h$ divide a $\MCD{f,g}$.

Demostración. Por definición, $$f\mathbb{R}[x]+g\mathbb{R}[x] = \MCD{f,g}\mathbb{R}[x].$$ El polinomio $f$ pertenece al conjunto del lado izquierdo, pues lo podemos escribir como $$1\cdot f + 0 \cdot g,$$ así que también está en el lado derecho. Por ello, $f$ es un múltiplo de $\MCD{f,g}$. De manera similar se prueba que $g$ es un múltiplo de $\MCD{f,g}$.

Para la segunda parte, escribimos a $\MCD{f,g}$ como combinación lineal polinomial de $f$ y $g$, $$\MCD{f,g}=rf+sg.$$ De aquí es claro que si $h$ divide a $f$ y a $g$, entonces $h$ divide a $\MCD{f,g}$.

$\square$

Todo esto va muy bien. El máximo común divisor de dos polinomios en efecto es un divisor, y es «el mayor», en un sentido de divisibilidad. Además, como en el caso de $\mathbb{Z}$, lo podemos expresar como una combinación lineal de sus polinomios. En la tarea moral puedes ver algunos ejemplos que hablan del concepto dual: el mínimo común múltiplo.

El algoritmo de Euclides

Al igual que como sucede en los enteros, podemos usar el algoritmo de la división iteradamente para encontrar el máximo común divisor de polinomios, y luego revertir los pasos para encontrar de manera explícita al máximo común divisor como una combinación lineal polinomial de ellos. Es un buen ejercicio enunciar y demostrar que esto es cierto. No lo haremos aquí, pero veremos un ejemplo de cómo aplicar el algoritmo.

Problema: Encuentra el máximo común divisor de los polinomios
\begin{align*}
a(x)&=x^7+x^6+x^5+x^4+x^3+x^2+x+1\\
b(x)&=x^4+x^3+x^2+x+1,
\end{align*} y exprésalo como combinación lineal de $a(x)$ y $b(x)$.

Solución. Aplicando el algoritmo de la división repetidamente, tenemos lo siguiente:

\begin{align*}
a(x)&=x^3b(x)+(x^2+x+1)\\
b(x)&=x^2(x^2+x+1)+(x+1)\\
x^2+x+1&=x(x+1)+1.
\end{align*}

Esto muestra que $a(x)$ y $b(x)$ tienen como máximo común divisor al polinomio $1$. Por lo que discutimos antes, debe haber una combinación lineal polinomial de $a(x)$ y $b(x)$ igual a $1$ Para encontrarla de manera explícita, invertimos los pasos:

\begin{equation*}
\begin{split}
1 & =(x^2+x+1)-x(x+1)\\
& =(x^2+x+1)-x(b(x)-x^2(x^2+x+1))\\
& =(x^2+x+1)(x^3+1)-xb(x)\\
& =(x^3+1)(a(x)-x^3(b(x))-xb(x)\\
& =(x^3+1)a(x)-x^3(x^3+1)b(x)-xb(x)\\
& =(x^3+1)a(x)+(-x^6-x^3-x)b(x)
\end{split}
\end{equation*}

Así, concluimos que una combinación lineal que sirve es: $$(x^3+1)a(x)+(-x^6-x^3-x)b(x) = 1.$$

$\triangle$

Más adelante…

Como mencionamos, los conceptos que desarrollamos en esta sección son muy similares a los que desarrollamos para $\mathbb{Z}$, sin embargo, para que puedas acostumbrarte a la notación, en la siguiente entrada practicaremos como calcular el Máximo Común Divisor para dos polinomios.

Después de eso, el siguiente paso será extrapolar el concepto de elementos primos en el conjunto de los polinomios y con esa nueva herramienta ver la posibilidad de poder dar un resultado análogo al teorema fundamental de la aritmética que dimos en $\mathbb{Z}$.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Verifica que el conjunto $$f\mathbb{R}[x]+g\mathbb{R}[x]=\{rf+sg: r,s \in \mathbb{R}[x]\}$$ satisface las propiedades (1), (2) y (3) de la definición de ideal.
  2. Encuentra el máximo común divisor de los polinomios $x^8-1$ y $x^6-1$. Exprésalo como combinación lineal de ellos.
  3. Muestra que la intersección de dos ideales de $\mathbb{R}[x]$ es un ideal de $\mathbb{R}[x]$.
  4. Al único polinomio mónico $m$ tal que $$f\mathbb{R}[x]\cap g\mathbb{R}[x]=m\mathbb{R}[x]$$ le llamamos el mínimo común múltiplo de $f$ y $g$, y lo denotamos $\mcm{f,g}$. Muestra que es un múltiplo de $f$ y de $g$ y que es «mínimo» en el sentido de divisibilidad.
  5. Muestra que si $f$ y $g$ son polinomios mónicos en $\mathbb{R}[x]$ distintos del polinomio cero, entonces $fg = \MCD{f,g} \mcm{f,g}$. ¿Es necesaria la hipótesis de que sean mónicos? ¿La puedes cambiar por una hipótesis más débil?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Determinantes de matrices y transformaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior dimos la definición de determinante para ciertos vectores con respecto a una base. En esta entrada continuamos con la construcción de determinantes. Primero, basados en la teoría que desarrollamos anteriormente, definiremos determinantes de transformaciones lineales. Luego, mediante la cercanía entre transformaciones lineales y matrices, definimos determinantes de matrices.

Determinantes de transformaciones lineales

Ahora definiremos el determinante para transformaciones lineales. Antes de esto, necesitamos hacer algunas observaciones iniciales y demostrar un resultado.

Si tomamos un espacio vectorial $V$ de dimensión finita $n\geq 1$ sobre un campo $F$, una transformación lineal $T:V\to V$ y una forma $n$-lineal $f:V^n\to F$, se puede mostrar que la transformación $$T_f:V^n\to F$$ dada por $$T_f(x_1,\ldots,x_n)=f(T(x_1),\ldots,T(x_n))$$ también es una forma $n$-lineal. Además, se puede mostrar que si $f$ es alternante, entonces $T_f$ también lo es. Mostrar ambas cosas es relativamente sencillo y queda como tarea moral.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n\geq 1$ sobre el campo $F$. Para cualquier transformación lineal $T:V\to V$ existe un único escalar $\det T$ en $F$ tal que $$f(T(x_1),\ldots,T(x_n))=\det T\cdot f(x_1,\ldots, x_n)$$ para cualquier forma $n$-lineal alternante $f:V^n\to F$ y cualquier elección $x_1,\ldots,x_n$ de vectores en $V$.

Demostración. Fijemos una base $B=(b_1,\ldots,b_n)$ cualquiera de $V$. Llamemos $g$ a la forma $n$-lineal alternante $\det_{(b_1,\ldots,b_n)}$. Por la discusión de arriba, la asignación $T_g:V^n\to F$ dada por $$(x_1,\ldots,x_n)\mapsto g(T(x_1),\ldots,T(x_n))$$ es una forma $n$-lineal y alternante.

Por el teorema que mostramos en la entrada de determinantes de vectores, se debe cumplir que $$T_g = T_g(b_1,\ldots,b_n) \cdot g.$$ Afirmamos que $\det T:= T_g(b_1,\ldots, b_n)$ es el escalar que estamos buscando.

En efecto, para cualquier otra forma $n$-lineal alternante $f$, tenemos por el mismo teorema que $$f=f(b_1,\ldots,b_n) \cdot g.$$ Usando la linealidad de $T$ y la igualdad anterior, se tiene que

\begin{align*}
T_f &= f(b_1,\ldots,b_n)\cdot T_g\\
&=f(b_1,\ldots,b_n) \cdot \det T \cdot g\\
&= \det T \cdot f.
\end{align*}

Con esto se prueba que $\det T$ funciona para cualquier forma lineal $f$. La unicidad sale eligiendo $(x_1,\ldots,x_n)=(b_1,\ldots,b_n)$ y $f=g$ en el enunciado del teorema, pues esto forza a que $$\det T = g(T(b_1),\ldots,T(b_n)).$$

$\square$

Ahora sí, estamos listos para definir el determinante de una transformación lineal.

Definición. El escalar $\det T$ del teorema anterior es el determinante de la transformación lineal $T$.

Para obtener el valor de $\det T$, podemos entonces simplemente fijar una base $B=(b_1,\ldots,b_n)$ y el determinante estará dado por $$\det T = \det_{(b_1,\ldots,b_n)}(T(b_1),\ldots, T(b_n)).$$ Como el teorema también prueba unicidad, sin importar que base $B$ elijamos este número siempre será el mismo.

Ejemplo 1. Vamos a encontrar el determinante de la transformación lineal $T:\mathbb{R}^3 \to \mathbb{R}^3$ dada por $$T(x,y,z)=(2z,2y,2x).$$ Para ello, usaremos la base canónica de $\mathbb{R}^3$. Tenemos que
\begin{align*}
T(1,0,0)&=(0,0,2)=2e_3\\
T(0,1,0)&=(0,2,0)=2e_2\\
T(0,0,1)&=(2,0,0)=2e_1.
\end{align*}

De acuerdo al teorema anterior, podemos encontrar al determinante de $T$ como $$\det T = \det_{(e_1,e_2,e_3)}(2e_3,2e_2,2e_1).$$

Como el determinante (para vectores) es antisimétrico, al intercambiar las entradas $1$ y $3$ su signo cambia en $-1$. Usando la $3$-linealidad en cada entrada, podemos sacar un factor $2$ de cada una. Así, tenemos:
\begin{align*}
\det T &= \det_{(e_1,e_2,e_3)}(2e_3,2e_2,2e_1)\\
&= -\det_{(e_1,e_2,e_3)}(2e_1,2e_2,2e_3)\\
&=-8\det_{(e_1,e_2,e_3)}(e_1,e_2,e_3)\\
&=-8.
\end{align*}

Concluimos entonces que el determinante de $T$ es $-8$.

$\triangle$

Ejemplo 2. Vamos ahora a encontrar el determinante de la transformación $T:\mathbb{R}_n[x]\to \mathbb{R}_n[x]$ que deriva polinomios, es decir, tal que $T(p)=p’$. Tomemos $q_0=1,q_1=x,\ldots,q_n=x^n$ la base canónica de $\mathbb{R}_n[x]$.

Notemos que, $T(1)=0$, de modo que los vectores $T(1),\ldots,T(x^n)$ son linealmente dependientes. Así, sin tener que hacer el resto de los cálculos, podemos deducir ya que $$\det_{(q_0,\ldots,q_n)}(T(q_0),\ldots,T(q_n))=0.$$ Concluimos entonces que $\det T = 0$.

$\triangle$

Determinantes de matrices

La expresión $$\det T = \det_{(b_1,\ldots,b_n)}(T(b_1),\ldots, T(b_n))$$ para una transformación lineal $T$ también nos permite poner al determinante en términos de las entradas de la matriz de $T$ con respecto a la base $B$. Recordemos que dicha matriz $A_T=[a_{ij}]$ tiene en la columna $i$ las coordenadas de $b_i$ en la base $B$. En otras palabras, para cada $i$ se cumple que $$T(b_i)=\sum_{j=1}^n a_{ji}b_i.$$

Usando esta notación, obtenemos que $$\det T = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},$$ de manera que podemos expresar a $\det T$ en términos únicamente de su matriz en la base $B$.

Esto nos motiva a definir el determinante de una matriz en general.

Definición. Para una matriz $A$ en $M_n(F)$ de entradas $A=[a_{ij}]$, el determinante de $A$ es $$\det A = \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$ A $\det A$ también lo escribimos a veces en notación de «matriz con barras verticales» como sigue:

\begin{align*}
\det A = \begin{vmatrix}
a_{11} & a_{12} & \ldots & a_{1n}\\
a_{21} & a_{22} & \ldots & a_{2n}\\
\vdots & & \ddots & \vdots\\
a_{n1} & a_{n2} & \ldots & a_{nn}.
\end{vmatrix}
\end{align*}

Ejemplo. Si queremos calcular el determinante de una matriz en $M_2(F)$, digamos $$A=\begin{pmatrix} a & b \\ c & d \end{pmatrix},$$ debemos considerar dos permutaciones: la identidad y la transposición $(1,2)$.

La identidad tiene signo $1$ y le corresponde el sumando $ad$. La transposición tiene signo $-1$ y le corresponde el sumando $bc$. Así, $$\begin{vmatrix} a & b \\ c & d \end{vmatrix} = ad-bc.$$

$\triangle$

Retomando la discusión antes de la definición, tenemos entonces que $\det T = \det A_T$, en donde a la izquierda hablamos de un determinante de transformaciones lineales y a la derecha de uno de matrices. La matriz de $T$ depende de la base elegida, pero como vimos, el determinante de $T$ no. Esta es una conclusión muy importante, y la enunciamos como teorema en términos de matrices.

Teorema. Sean $A$ y $P$ matrices en $M_n(F)$ con $P$ invertible. El determinante de $A$ y el de $P^{-1}AP$ son iguales.

Determinantes de matrices triangulares

Terminamos esta entrada con un problema que nos ayudará a repasar la definición y que más adelante servirá para calcular determinantes.

Problema. Muestra que el determinante de una matriz triangular superior o triangular inferior es igual al producto de las entradas de su diagonal.

Solución. En una matriz triangular superior tenemos que $a_{ij}=0$ si $i>j$. Vamos a estudiar la expresión $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$

Si una permutación $\sigma$ no es la identidad, entonces hay un entero $i$ que no deja fijo, digamos $\sigma(i)\neq i$. Tomemos a $i$ como el mayor entero que $\sigma$ no deja fijo. Notemos que $\sigma(i)$ tampoco queda fijo por $\sigma$ pues $\sigma(\sigma(i))=\sigma(i)$ implica $\sigma(i)=i$, ya que $\sigma$ es biyectiva, y estamos suponiendo $\sigma(i)\neq i$. Por la maximalidad de $i$, concluimos que $\sigma(i)<i$.Entonces el sumando correspondiente a $\sigma$ es $0$ pues tiene como factor a la entrada $a_{i\sigma(i)}=0$.

En otras palabras, la única permutación a la que le puede corresponder un sumando no cero es la identidad, cuyo signo es $1$. De esta forma,
\begin{align*}
\det(A) &= \sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}\\
&=a_{11}\cdot \ldots \cdot a_{nn}.
\end{align*}

$\square$

Más adelante…

En esta entrada planteamos cómo se define el concepto de matriz para transformaciones lineales y cómo esta definición se extiende naturalmente a la definición del determinante de una matriz, recordando que a cada transformación lineal se le puede asociar una matriz y viceversa.

En las siguientes entradas vamos a ver qué propiedades que cumplen los determinantes y aprenderemos diferentes técnicas para calcularlos. A lo largo de la unidad, desarrollaremos bastante práctica en el cálculo y la manipulación de los determinantes, ya sea el determinante de un conjunto de vectores, de una transformación lineal o de una matriz.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Muestra que la transformación $T_f$ definida en la entrada es $n$-lineal y alternante.
  • Usando la definición de determinante para transformaciones lineales, encuentra el determinante de la transformación lineal $T:\mathbb{R}^n \to \mathbb{R}^n$ dada por $$T(x_1,x_2,\ldots,x_n)=(x_2,x_3,\ldots,x_1).$$
  • Calcula por definición el determinante de las matrices $$\begin{pmatrix} 3 & 2 \\ 4 & 1\end{pmatrix}$$ y $$\begin{pmatrix} 1 & 2 & 4 \\ 1 & 3 & 9 \\ 1 & 4 & 16 \end{pmatrix}.$$
  • Calcula por definición el determinante de la matriz $$\begin{pmatrix} 1 & 1 & 1 \\ 2 & 3 & 4 \\ 4 & 9 & 16\end{pmatrix}$$ y compáralo con el de la matriz de $3\times 3$ del inciso anterior. ¿Qué notas?
  • Completa el argumento para mostrar que el determinante de una matriz triangular inferior es el producto de las entradas en su diagonal.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Superior II: Algoritmo de la división, teorema del factor y teorema del residuo

Por Leonardo Ignacio Martínez Sandoval

Introducción

Tal vez te hayas dado cuenta de que ya hablamos de suma, producto y resta de polinomios, pero aún no hemos hablado de la división. Una razón es que no todos los polinomios tienen inverso multiplicativo. Sin embargo, los polinomios sí tienen un algoritmo de la división parecido al que estudiamos para el conjunto $\mathbb{Z}$ de enteros. A partir de él podemos extender varios de los conceptos aritméticos de $\mathbb{Z}$ a $\mathbb{R}[x]$: divisibilidad, máximo común divisor, factorización, etc. Luego, estos aspectos se pueden conectar a evaluación de polinomios mediante el un teorema clave: el teorema del factor.

Como recordatorio, hasta ahora, ya construimos el anillo $\mathbb{R}[x]$ de polinomios con coeficientes reales y vimos que era un dominio entero. También, vimos que una copia de $\mathbb{R}$ vive en $\mathbb{R}[x]$, con lo justificamos pasar de la notación de sucesiones, a la notación usual de polinomios usando el símbolo $x$ y sus potencias. En la entrada anterior también hablamos del grado de un polinomio (cuando no es el polinomio cero), de la evaluación de polinomios y de raíces.

Algoritmo de la división

Recordemos que en $\mathbb{Z}$ tenemos un algoritmo de la división que dice que para enteros $a$ y $b\neq 0$ existen únicos enteros $q$ y $r$ tales que $a=qb+r$ y $0\leq r < |b|$.

En $\mathbb{R}[x]$ hay un resultado similar. Pero hay que tener cuidado al generalizar. En $\mathbb{R}[x]$ no tenemos una función valor absoluto que nos permita decir que encontramos un «residuo más chiquito». Para la versión polinomial del algoritmo de la división tenemos que usar una función que diga «qué tan grande es un polinomio»: el grado.

Teorema (algoritmo de la división en $\mathbb{R}[x]$). Sean $f(x)$ y $g(x)$ polinomios en $\mathbb{R}[x]$, donde $g(x)$ no es el polinomio cero. Entonces, existen únicos polinomios $q(x)$ y $r(x)$ en $\mathbb{R}[x]$ tales que $$f(x)=q(x)g(x)+r(x),$$ en donde $r(x)$ es el polinomio cero, o $\deg(r(x))<\deg(g(x))$.

Demostración. Probaremos la parte de existencia. La parte de unicidad queda como tarea moral. Para probar la existencia, haremos inducción fuerte sobre el grado de $f(x)$. Sin embargo, antes de poder hacer esto, necesitamos hacer el caso en el que $f(x)$ no tiene grado, es decir, cuando es el polinomio cero.

Si $f(x)$ es el polinomio cero, entonces $q(x)=0$ y $r(x)=0$ son polinomios que funcionan, pues $0=0\cdot g(x)+0$, para cualquier polinomio $g(x)$.

Asumamos entonces a partir de ahora que $f(x)$ no es el polinomio cero. Hagamos inducción sobre el grado de $f(x)$. Si $f(x)$ es de grado $0$, entonces es un polinomio de la forma $f(x)=a$ para $a$ en $\mathbb{R}$. Hay dos casos de acuerdo al grado de $g(x)$:

  • Si $g(x)$ es de grado $0$, es de la forma $g(x)=b$ para un real no cero y podemos tomar $q(x)=a/b$ y $r(x)=0$.
  • Si $g(x)$ es de grado mayor a $0$, entonces tomamos $q(x)=0$ y $r(x)=f(x)$. Esta es una elección válida pues se cumple \begin{align*}\deg(r(x))&=\deg(f(x))\\& =0\\& <\deg(g(x)).\end{align*}.

Esto termina la demostración de la base inductiva.

Supongamos que el resultado es cierto para cuando $f(x)$ tiene grado menor a $n$ y tomemos un caso en el que $f(x)$ tiene grado $n$. Hagamos de nuevo casos con respecto al grado de $g(x)$, al que llamaremos $m$. Si $m>n$, entonces tomamos $q(x)=0$ y $r(x)=f(x)$, que es una elección válida pues $$\deg(r(x))=n<m.$$

En el caso de que $m\leq n$, escribamos explícitamente a $f(x)$ y a $g(x)$ en términos de sus coeficientes como sigue: \begin{align*}f(x)&=a_0+\ldots+a_nx^n\\g(x)&=b_0+\ldots+b_mx^m.\end{align*}

Consideremos el polinomio $$h(x):=f(x)-\frac{a_n}{b_m}x^{n-m}g(x).$$ Notemos que en $h(x)$ el coeficiente que acompaña a $x^n$ es $a_n-\frac{a_nb_m}{b_m}=0$, así que el grado de $h(x)$ es menor al de $f(x)$ y por lo tanto podemos usar la hipótesis inductiva para escribir $$h(x)=t(x)g(x)+u(x)$$ con $u(x)$ el polinomio $0$ o $\deg(u(x))<\deg(g(x))$. De esta forma,
\begin{align*}
f(x)&=t(x)g(x)+u(x)+\frac{a_n}{b_m}x^{n-m}g(x)\\
&=\left(t(x)+\frac{a_n}{b_m}x^{n-m}\right)g(x)+u(x).
\end{align*}

Así, eligiendo $q(x)=t(x)+\frac{a_n}{b_m}x^{n-m}$ y $r(x)=u(x)$, terminamos la hipótesis inductiva.

$\square$

Aplicando el algoritmo de la división de forma práctica

Veamos ahora un ejemplo de cómo se puede aplicar este teorema anterior de forma práctica. A grandes rasgos, lo que podemos hacer es «ir acumulando» en $q(x)$ a los términos $\frac{a_n}{b_m}x^{n-m}$ que van apareciendo en la inducción, y cuando $h(x)$ se vuelve de grado menor a $q(x)$, lo usamos como residuo. Hagamos un ejemplo concreto.

Ejemplo. Tomemos $f(x)=x^5+x^4+x^3+x^2+2x+3$ y $g(x)=x^2+x+1$. Vamos a aplicar iteradamente las ideas de la demostración del teorema anterior para encontrar los polinomios $q(x)$ y $r(x)$ tales que $$f(x)=q(x)g(x)+r(x),$$ con $r(x)$ el polinomio $0$ o de grado menor a $g(x)$.

Como el grado de $f(x)$ es $5$, el de $g(x)$ es $2$ y $5>2$, lo primero que hacemos es restar $x^{5-2}g(x)=x^3g(x)$ a $f(x)$ y obtenemos:

$$h_1(x)=f(x)-x^3g(x)=x^2+2x+3.$$

Hasta ahora, sabemos que $q(x)=x^3+\ldots$, donde en los puntos suspensivos va el cociente que le toca a $h_1(x)=x^2+2x+3$. Como el grado de $h_1(x)$ es $2$, el de $g(x)$ es $2$ y $2\geq 2$, restamos $x^{2-2}g(x)=1\cdot g(x)$ a $h_1(x)$ y obtenemos.

$$h_2(x)=h_1(x)-g(x)=x+2.$$

Hasta ahora, sabemos que $q(x)=x^3+1+\ldots$, donde en los puntos suspensivos va el cociente que le toca a $h_2(x)=x+2$. Como el grado de $h_2(x)$ es $1$, el de $g(x)$ es $2$ y $2>1$, entonces el cociente es $0$ y el residuo es $h_2(x)=x+2$.

De esta forma, concluimos que $$q(x)=x^3+1$$ y $$r(x)=x+2.$$

En conclusión,
\begin{align*}
x^5+ & x^4+x^3+x^2+2x+3\\
&= (x^3+1)(x^2+x+1) + x+2.
\end{align*}

Esto se puede verificar fácilmente haciendo la operación polinomial.

$\triangle$

Hay una forma más visual de hacer divisiones de polinomios «haciendo una casita». Puedes ver cómo se hace esto en el siguiente video en Khan Academy, y los videos que le siguen en la lista.

Divisibilidad en polinomios

Cuando trabajamos en $\mathbb{Z}$, estudiamos la noción de divisibilidad. Si en el algoritmo de la división obtenemos que $r(x)$ es el polinomio $0$, entonces obtenemos una noción similar para $\mathbb{R}[x]$.

Definición. Sean $f(x)$ y $g(x)$ polinomios en $\mathbb{R}[x]$. Decimos que $g(x)$ divide a $f(x)$ si existe un polinomio $q(x)$ tal que $f(x)=q(x)g(x)$.

Ejemplo 1. El polinomio $x^3-1$ divide al polinomio $x^4+x^3-x-1$, pues $$x^4+x^3-x-1 = (x^3-1)(x+1).$$

$\triangle$

Ejemplo 2. Si $g(x)$ es un polinomio no cero y constante, es decir, de la forma $g(x)=a$ para $a\neq 0$ un real, entonces divide a cualquier otro polinomio en $\mathbb{R}[x]$. En efecto, si $$f(x)=a_0+a_1x+\ldots + a_nx^n$$ es cualquier polinomio y tomamos el polinomio $$q(x)=\frac{a_0}{a}+\frac{a_1}{a}x+\ldots + \frac{a_n}{a}x^n,$$ entonces $f(x)=g(x)q(x)$.

$\triangle$

El último ejemplo nos dice que los polinomios constantes y no cero se comportan «como el $1$ se comporta en los enteros». También nos dice que cualquier polinomio tiene una infinidad de divisores. Eso nos pone en aprietos para definir algo así como los «polinomios primos» en términos del número de divisores. En la siguiente sección hablaremos de cómo hacer esta definición de manera adecuada.

Polinomios irreducibles

Cuando trabajamos con enteros, vimos que es muy útil poder encontrar la factorización en términos de números primos. En polinomios no tenemos «polinomios primos», pero tenemos un concepto parecido.

Definición. Un polinomio $p(x)$ en $\mathbb{R}[x]$ es irreducible en $\mathbb{R}[x]$ si no es un polinomio constante, y no es posible escribirlo como producto de dos polinomios no constantes en $\mathbb{R}[x]$.

Ejemplo. El polinomio $$x^4+x^2+1$$ no es irreducible en $\mathbb{R}[x]$ pues $$x^4+x^2+1=(x^2+x+1)(x^2-x+1).$$

Los polinomios $x^2+x+1$ y $x^2-x+1$ sí son irreducibles en $\mathbb{R}[x]$. Más adelante veremos por qué.

$\triangle$

La razón por la cual quitamos a los polinomios constantes es parecida a la cual en $\mathbb{Z}$ no consideramos que $1$ sea primo: ayuda a enunciar algunos teoremas más cómodamente.

Hay unos polinomios que fácilmente se puede ver que son irreducibles: los de grado $1$.

Proposición. Los polinomios de grado $1$ en $\mathbb{R}[x]$ son irreducibles.

Demostración. Si $f(x)$ es un polinomio de grado $1$, entonces no es constante. Además, no se puede escribir a $f(x)$ como el producto de dos polinomios no constantes pues dicho producto tiene grado al menos $2$.

$\square$

Hay otros polinomios en $\mathbb{R}[x]$ que no son de grado $1$ y que son irreducibles. Por ejemplo, con la teoría que tenemos ahora te debe ser fácil mostrar de tarea moral que $x^2+1$ es irreducible en $\mathbb{R}[x]$.

La razón por la que siempre insistimos en que la irreducibilidad sea en $\mathbb{R}[x]$ es por que a veces un polinomio no se puede factorizar en polinomios con coeficientes reales, pero sí con coeficientes complejos. Aunque $x^2+1$ sea irreducible en $\mathbb{R}[x]$, si permitimos coeficientes complejos se puede factorizar como $$x^2+1=(x+i)(x-i).$$

Más adelante seguiremos hablando de irreducibilidad. Por ahora, nos enfocaremos en los polinomios de grado $1$.

Teorema del factor

Una propiedad clave de los polinomios de grado $1$ es que, es lo mismo que $x-a$ divida a un polinomio $p(x)$, a que $a$ sea una raíz de $p(x)$.

Teorema (del factor). Sea $a$ un real y $p(x)$ un polinomio en $\mathbb{R}[x]$. El polinomio $x-a$ divide a $p(x)$ si y sólo si $p(a)=0$.

Demostración. De acuerdo al algoritmo de la división, podemos escribir $$p(x)=(x-a)q(x)+r(x),$$ en donde $r(x)$ es $0$ o un polinomio de grado menor estricto al de $x-a$. Como el grado de $x-a$ es $1$, la única posibilidad es que $r(x)$ sea un polinomio constante $r(x)=r$. Así, $p(x)=(x-a)q(x)+r$, con $r$ un real.

Si $p(a)=0$, tenemos que $$0=p(a)=(a-a)q(a)+r=r,$$ de donde $r=0$ y entonces $p(x)=(x-a)q(x)$, lo que muestra que $x-a$ divide a $p(x)$.

Si $x-a$ divide a $p(x)$, entonces $p(x)=(x-a)q(x)$, de donde $p(a)=(a-a)q(a)=0$, por lo que $a$ es raíz de $p(x)$.

$\square$

Ejemplo. Consideremos el polinomio $p(x)=x^3-6x^2+11x-6$. ¿Podremos encontrar algunos polinomios lineales que lo dividan? A simple vista, notamos que la suma de sus coeficientes es $1-6+11-6=0$. Esto nos dice que $p(1)=0$. Por el teorema del factor, tenemos que $x-1$ divide a $p(x)$. Tras hacer la división, notamos que $$p(x)=(x-1)(x^2-5x+6).$$

Veamos si podemos seguir factorizando polinomios lineales que no sean $x-1$. Si un polinomio $x-a$ divide a $p(x)$, por el teorema del factor debemos tener $$0=p(a)=(a-1)(a^2-5a+6).$$ Como $a\neq 1$, entonces $a-1\neq 0$, de modo que tiene que pasar $$a^2-5a+6=0,$$ en otras palabras, hay que encontrar las raíces de $x^2-5x+6$.

Usando la fórmula general cuadrática, tenemos que las raíces de $x^2-5x+6$ son
\begin{align*}
x_1&=\frac{5+\sqrt{25-24}}{2}=3\\
x_2&=\frac{5-\sqrt{25-24}}{2}=2.
\end{align*}

Usando el teorema del factor, concluimos que tanto $x-2$ como $x-3$ dividen a $p(x)$. Hasta ahora, sabemos entonces que $$p(x)=(x-1)(x-2)(x-3)h(x),$$ donde $h(x)$ es otro polinomio. Pero $(x-1)(x-2)(x-3)$ ya es un polinomio de grado $3$, como $p(x)$ y su coeficiente de $x^3$ es $1$, como el de $p(x)$. Concluimos que $h(x)=1$ y entonces $$p(x)=(x-1)(x-2)(x-3).$$

$\triangle$

Teorema del residuo

En realidad, la técnica que usamos para el teorema del factor nos dice algo un poco más general. Cuando escribimos $$p(x)=(x-a)q(x)+r$$ y evaluamos en $a$, obtenemos que $p(a)=r$. Reescribimos esta observación como un teorema.

Teorema (del residuo). Sea $a$ un real y $p(x)$ un polinomio en $\mathbb{R}[x]$. El residuo de dividir $p(x)$ entre $x-a$ es $p(a)$.

Problema. Encuentra el residuo de dividir el polinomio $p(x)=x^8-x^5+2x^3+2x$ entre el polinomio $x+1$.

Solución. Se podría hacer la división polinomial, pero esto es largo y no nos piden el polinomio cociente, sólo el residuo. Así, podemos resolver este problema más fácilmente usando el teorema del residuo.

Como $x+1=x-(-1)$, el residuo de la división de $p(x)$ entre $x+1$ es $p(-1)$. Este número es
\begin{align*}
p(-1)&=(-1)^8-(-1)^5+2(-1)^3+2(-1)\\
&=1+1-2-2\\
&=-2.
\end{align*}

$\square$

Más adelante…

Los teoremas que hemos visto en esta entrada serán las principales herramientas algebraicas que tendremos en el estudio de los polinomios así como en la búsqueda de las raíces de los polinomios y en resolver la pregunta sobre su irreductibilidad.

El algoritmo de la división nos servirá (como nos sirvió en $\mathbb{Z}$ para poder precisar el algoritmo de Euclides y definir el máximo común divisor de dos polinomios.

Por ahora, en la siguiente entrada, nos encargaremos de practicar lo aprendido y resolver ejercicios sobre raíces y residuos de polinomios.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Muestra que el polinomio $x$ no tiene inverso multiplicativo.
  2. Demuestra la parte de unicidad del algoritmo de la división.
  3. Muestra que el polinomio $x^2+1$ es irreducible en $\mathbb{R}[x]$. Sugerencia. Procede por contradicción. Una factorización tiene que ser de la forma $x^2+1=p(x)q(x)$ con $p$ y $q$ de grado $1$.
  4. Factoriza en términos lineales al polinomio $p(x)=x^3-12x^2+44x-48$. Sugerencia. Intenta enteros pequeños (digamos de $-3$ a $3$) para ver si son raíces. Uno de ellos funciona. Luego, usa el teorema del factor para expresar a $p(x)$ como un polinomio lineal por uno cuadrático. Para encontrar el resto de factores lineales, encuentra las raíces del cuadrático.
  5. Encuentra el residuo de dividir el polinomio $x^5-x^4+x^3-x^2+x-1$ entre el polinomio $x-2$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Determinantes de vectores e independencia lineal

Por Leonardo Ignacio Martínez Sandoval

Introducción

En este cuarto y último bloque del curso comenzamos hablando de transformaciones multilineales y de permutaciones. Luego, nos enfocamos en las transformaciones multilineales antisimétricas y alternantes. Con la teoría que hemos desarrollado hasta ahora, estamos listos para definir determinantes de vectores, de transformaciones lineales y de matrices.

En esta entrada comenzaremos con la definición de determinantes de vectores. En la siguiente entrada hablaremos acerca de determinantes de matrices y de transformaciones lineales. Después de definir determinantes, probaremos varias de las propiedades que satisfacen. Posteriormente, hablaremos de varias técnicas que nos permitirán calcular una amplia variedad de determinantes para tipos especiales de matrices.

Determinantes de vectores

Para empezar, definiremos qué es el determinante de un conjunto de vectores en un espacio de dimensión finita con respecto a una base.

Definición. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ de dimensión finita $n$ y $x_1,\ldots,x_n$ vectores de $V$. Cada uno de los $x_i$ se puede escribir como $$x_i=\sum_{j=1}^n a_{ji}b_j.$$

El determinante de $x_1,\ldots,x_n$ con respecto a $(b_1,\ldots,b_n)$ es $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)},$$ y lo denotamos por $\det_{(b_1,\ldots,b_n)} (x_1,\ldots,x_n)$.

Observa que estamos sumando tantos términos como elementos en $S_n$. Como existen $n!$ permutaciones de un conjunto de $n$ elementos, entonces la suma de la derecha tiene $n!$ sumandos.

Ejemplo. Consideremos la base $b_1=1$, $b_2=1+x$ y $b_3=1+x+x^2$ del espacio vectorial $\mathbb{R}_2[x]$ de polinomios con coeficientes reales y grado a lo más $2$. Tomemos los polinomios $v_1=1$, $v_2=2x$ y $v_3=3x^2$. Vamos a calcular el determinante de $v_1, v_2, v_3$ con respecto a la base $(b_1,b_2,b_3)$.

Para hacer eso, lo primero que tenemos que hacer es expresar a $v_1, v_2, v_3$ en términos de la base. Hacemos esto a continuación:
\begin{align*}
v_1&= 1\cdot b_1 + 0 \cdot b_2 + 0 \cdot b_3\\
v_2&= -2\cdot b_1 + 2 \cdot b_2 + 0 \cdot b_3\\
v_3&= 0 \cdot b_1 – 3 \cdot b_2 +3 b_3.
\end{align*}

De aquí, obtenemos
\begin{align*}
a_{11}&=1, a_{21}=0, a_{31}=0,\\
a_{12}&=-2, a_{22}=2, a_{32}=0,\\
a_{13}&=0, a_{23}=-3, a_{33}=3.
\end{align*}

Si queremos calcular el determinante, tenemos que considerar las $3!=3\cdot 2 \cdot 1 = 6$ permutaciones en $S_3$. Estas permutaciones son

\begin{align*}
\sigma_1 &= \begin{pmatrix}1 & 2 & 3 \\ 1 & 2 & 3\end{pmatrix}\\
\sigma_2 &= \begin{pmatrix}1 & 2 & 3 \\ 1 & 3 & 2\end{pmatrix}\\
\sigma_3 &= \begin{pmatrix}1 & 2 & 3 \\ 2 & 1 & 3\end{pmatrix}\\
\sigma_4 &= \begin{pmatrix}1 & 2 & 3 \\ 2 & 3 & 1\end{pmatrix}\\
\sigma_5 &= \begin{pmatrix}1 & 2 & 3 \\ 3 & 2 & 1\end{pmatrix}\\
\sigma_6 &= \begin{pmatrix}1 & 2 & 3 \\ 3 & 1 & 2\end{pmatrix}.
\end{align*}

Los signos de $\sigma_1,\ldots,\sigma_6$ son, como puedes verificar, $1$, $-1$, $-1$, $1$, $-1$ y $1$, respectivamente.

El sumando correspondiente a $\sigma_1$ es
\begin{align}
\text{sign}(\sigma_1) &a_{1\sigma_1(1)}a_{2\sigma_1(2)}a_{3\sigma_1(3)}\\
&= 1 \cdot a_{11}a_{22}a_{33}\\
&=1\cdot 1\cdot 2 \cdot 3 = 6.
\end{align}

El sumando correspondiente a $\sigma_2$ es
\begin{align}
\text{sign}(\sigma_2) &a_{1\sigma_2(1)}a_{2\sigma_2(2)}a_{3\sigma_2(3)}\\
&= (-1) \cdot a_{11}a_{23}a_{32}\\
&=(-1) \cdot 1\cdot (-3) \cdot 0 = 0.
\end{align}

Continuando de esta manera, se puede ver que los sumandos correspondientes a $\sigma_1,\ldots,\sigma_6$ son $$+6,-0,-0,+0,-0,+0,$$ respectivamente de modo que el determinante es $6$.

$\triangle$

La expresión de determinante puede parecer algo complicada, pero a través de ella podemos demostrar fácilmente algunos resultados. Consideremos como ejemplo el siguiente resultado.

Proposición. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ de dimensión finita $n$. El determinante de $B$ con respecto a sí mismo es $1$.

Demostración. Cuando escribimos a $b_i$ en términos de la base $b$, tenemos que $$b_i=\sum_{j=1}^n a_{ji} b_j.$$ Como la expresión en una base es única, debemos tener $a_{ii}=1$ y $a_{ji}=0$ si $j\neq i$. Ahora, veamos qué le sucede al determinante $$\sum_{\sigma \in S_n} \text{sign}(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}.$$

Si $\sigma$ es una permutación tal que $\sigma(i)\neq i$ para alguna $i$, entonces en el producto del sumando correspondiente a $\sigma$ aparece $a_{i\sigma(i)}=0$, de modo que ese sumando es cero. En otras palabras, el único sumando no cero es cuando $\sigma$ es la permutación identidad.

Como el signo de la identidad es $1$ y cada $a_{ii}$ es $1$, tenemos que el determinante es
\begin{align*}
\sum_{\sigma \in S_n} \text{sign}&(\sigma)a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)} \\
&=a_{11}\cdot\ldots\cdot a_{nn}\\
&= 1\cdot\ldots\cdot 1 \\
& = 1.
\end{align*}

$\square$

El determinante es una forma $n$-lineal alternante

La razón por la cual hablamos de transformaciones $n$-lineales antisimétricas y alternantes antes de hablar de determinantes es que, en cierto sentido, los determinantes de vectores son las únicas transformaciones de este tipo. Los siguientes resultados formalizan esta intuición.

Teorema. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$ sobre $F$. Entonces la transformación $\det_{(b_1,\ldots,b_n)}:V^n \to F$ es una forma $n$-lineal y alternante.

Demostración. La observación clave para demostrar este resultado es que $\det_{(b_1,\ldots,b_n)}$ se puede reescribir en términos de la base dual $b_1^\ast, \ldots, b_n^\ast$. En efecto, recuerda que $b_i^\ast$ es la forma lineal que «lee» la coordenada de un vector $v$ escrito en la base $B$. De esta forma,

\begin{align*}
\det_{(b_1,\ldots,b_n)}&(v_1,\ldots,v_n)\\
&=\sum_{\sigma\in S_n}\left(\text{sign}(\sigma) \prod_{j=1}^n b_j^\ast(v_{\sigma(j)})\right)\\
\end{align*}

Para cada permutación $\sigma$, el sumando correspondiente es una forma $n$-lineal, pues es producto de $n$ formas lineales evaluadas en los distintos vectores. Así que $\det_{(b_1,\ldots,b_n)}$ es suma de formas $n$-lineales y por lo tanto es forma $n$-lineal.

Para mostrar que el determinante es alternante, tenemos que mostrar que es igual a $0$ cuando algún par de sus entradas son iguales. Supongamos que $i\neq j$ y que $v_i=v_j$. Tomemos $\tau$ a la transposición que intercambia a $i$ y a $j$. Cuando se compone una permutación con una transposición, su signo cambia. Así, para cualquier permutación $\sigma$, tenemos que $\sigma\tau$ tiene signo diferente.

Además, para cualquier $\sigma$ tenemos que $$a_{1\sigma(1)}\cdot\ldots\cdot a_{n\sigma(n)}$$ y $$a_{1\sigma\tau(1)}\cdot\ldots\cdot a_{n\sigma\tau(n)}$$ son iguales, pues $v_i=v_j$. Combinando ambas ideas, podemos emparejar a cada sumando del determinante con otro con el cual sume cero. Esto muestra que el determinante es $0$.

$\square$

Usando la teoría que desarrollamos en la entrada anterior, tenemos el siguiente corolario.

Corolario. La forma $n$-lineal $\det_{(b_1,\ldots,b_n)}$ es antisimétrica.

Los determinantes de vectores son las «únicas» formas $n$-lineales alternantes

Ya vimos que el determinante es una forma $n$-lineal alternante. Veamos ahora por qué decimos que es «la única». El siguiente resultado dice que cualquier otra forma $n$-lineal alternante varía de $\det_{(b_1,\ldots,b_n)}$ únicamente por un factor multiplicativo.

Teorema. Sea $B=(b_1,\ldots,b_n)$ una base de un espacio vectorial $V$. Si $f:V^n \to F$ es cualquier forma $n$-lineal y alternante, entonces $$f=f(b_1,\ldots,b_n)\det_{(b_1,\ldots,b_n)}.$$

Demostración. Para mostrar la igualdad del teorema, que es una igualdad de transformaciones, tenemos que ver que es cierta al evaluar en cualesquiera vectores $x_1,\ldots,x_n$. Escribamos a cada $x_i$ en términos de la base $B$: $$x_i=\sum_{j=1}^n a_{ij}b_j.$$

Usando la $n$-linealidad de $f$ en cada una de las entradas, tenemos que
\begin{align*}
f(x_1,\ldots,x_n)&=\sum_{i=1}^n a_{1i} f(b_i,x_2,\ldots,x_n)\\
&=\sum_{i,j=1}^n a_{1i}a_{2i} f(b_i,b_j,x_3,\ldots,x_n)\\
&=\ldots\\
&=\sum_{i_1,\ldots,i_n = 1}^n a_{1i_1}\ldots a_{ni_n} f(b_{i_1},\ldots,b_{i_n}).
\end{align*}

Aquí hay muchos términos, pero la mayoría de ellos son $0$. En efecto, si $b_{i_k}=b_{i_l}$, como $f$ es alternante tendríamos que ese sumando es $0$. Así, los únicos sumandos que pueden ser no cero son cuando la elección de subíndices es una permutación, es decir cuando existe $\sigma$ en $S_n$ tal que para $i_k=\sigma(k)$.

Por lo tanto, podemos simplificar la expresión anterior a
$$f(x_1,\ldots,x_n)=\sum_{\sigma \in S_n}a_{1 \sigma(1)}\ldots a_{n\sigma(n)} f(b_{\sigma(1)},\ldots,b_{\sigma(n)}).$$

Como $f$ es alternante, entonces es antisimétrica. De este modo, podemos continuar la igualdad anterior como
\begin{align*}
&=\sum_{\sigma \in S_n} \text{sign}(\sigma) a_{1 \sigma(1)}\ldots a_{n\sigma(n)} f(b_1,\ldots,b_n)\\
&=f(b_1,\ldots,b_n) \det_{(b_1,\ldots,b_n)}(x_1,\ldots, x_n).
\end{align*}

Esto es justo lo que queríamos probar.

$\square$

Los determinantes de vectores caracterizan bases

Como consecuencia del último teorema de la sección anterior, los determinantes de vectores caracterizan totalmente a los conjuntos de vectores que son bases. A continuación enunciamos esto formalmente.

Corolario. En un espacio vectorial $V$ de dimensión $n$ son equivalentes las siguientes tres afirmaciones para vectores $x_1,\ldots,x_n$ de $V$:

  1. El determinante de $x_1,\ldots,x_n$ con respecto a toda base es distinto de $0$.
  2. El determinante de $x_1,\ldots,x_n$ con respecto a alguna base es distinto de $0$.
  3. $x_1,\ldots,x_n$ es una base de $V$.

Demostración. La afirmación (1) es más fuerte que la (2) y por lo tanto la implica.

Ahora, probemos que la afirmación (2) implica la afirmación (3). Como $x_1,\ldots,x_n$ son $n$ vectores y $n$ es la dimensión de $V$, para mostrar que forman una base basta mostrar que son linealmente independientes. Anteriormente, vimos que cualquier forma alternante manda vectores linealmente dependientes a $0$. Como la hipótesis de (2) es que existe alguna forma alternante que no se anula en $x_1,\ldots, x_n$, entonces deben ser linealmente independientes y por lo tanto formar una base.

Finalmente, probemos que (3) implica (1). Tomemos $B=(b_1,\ldots,b_n)$ otra base de $V$. Como $\det_{(x_1,\ldots,x_n)}$ es una forma $n$-lineal, podemos aplicar el teorema anterior y evaluar en $x_1,\ldots,x_n$ para concluir que
\begin{align*}
\det_{(x_1,\ldots,x_n)}&(x_1,\ldots,x_n)&\\
&=\det_{(x_1,\ldots,x_n)}(b_1,\ldots,b_n) \det_{(b_1,\ldots,b_n)}(x_1,\ldots,x_n).
\end{align*}

El término de la izquierda es igual a $1$, de modo que ambos factores a la derecha deben ser distintos de $0$.

$\square$

Ejemplo. En el ejemplo que dimos de polinomios vimos que el determinante de $1$, $2x$ y $3x^2$ con respecto a la base $1$, $1+x$ y $1+x+x^2$ es igual a $6$. De acuerdo al teorema anterior, esto implica que $1$, $2x$ y $3x^2$ es un conjunto linealmente independiente de polinomios, y de hecho una base.

Además, el teorema anterior también implica que sin importar que otra base $B$ de $\mathbb{R}_2[x]$ tomemos, el determinante de $1$, $2x$ y $3x^2$ con respecto a $B$ también será distinto de $0$.

$\triangle$

Más adelante…

A lo largo de esta entrada estudiamos la definición de determinantes para un conjunto de vectores y enunciamos sus principales propiedades. En las siguientes entradas vamos a hablar cómo se define el determinante para matrices y para transformaciones lineales. Después de las definiciones, pasaremos a estudiar cómo se calculan los determinantes y veremos cómo se aplican a diferentes problemas de álgebra lineal.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • ¿Cuántos sumandos tendrá el determinante de $5$ vectores en un espacio vectorial de dimensión $5$ con respecto a cualquier base? Da el número de manera explícita.
  • Verifica que en el primer ejemplo de determinantes de esta entrada, en efecto los sumandos correspondientes a $\sigma_1,\ldots,\sigma_6$ son los que se enuncian.
  • Encuentra el determinante de los vectores $(3,1)$ y $(2,4)$ con respecto a la base $((5,1), (2,3))$ de $\mathbb{R}^2$.
  • Muestra que los vectores $(1,4,5,2)$, $(0,3,2,1)$, $(0,0,-1,4)$ y $(0,0,0,1)$ son linealmente independientes calculando por definición su determinante con respecto a la base canónica de $\mathbb{R}^4$.
  • Usa un argumento de determinantes para mostrar que los vectores $(1,4,3)$, $(2,-2,9)$, $(7,8,27)$ de $\mathbb{R}^3$ no son linealmente independientes. Sugerencia. Calcula su determinante con respecto a la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»