Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Teorema de navidad de Fermat: primos suma de dos cuadrados

Por Leonardo Ignacio Martínez Sandoval

Comentario de Leo: Esta es una escrita en conjunto con por Alexandher Vergara, estudiante en ESFM. En ella hablamos del teorema de navidad de Fermat, una idea de la prueba y de las consecuencias. Si quieres contribuir con algún tema de matemáticas, puedes contactarme por correo electrónico, o dejando un comentario aquí en el blog.

Introducción

En entradas anteriores hemos visto temas de teoría de números, como divisibilidad y teoría de congruencias. También hablamos acerca de números primos y del teorema fundamental de la aritmética. A continuación probaremos una parte del famoso «teorema de navidad de Fermat», el cual dice cuáles primos impares son la suma de dos cuadrados.

Teorema (teorema de Navidad de Fermat). Un número primo $p>2$ es la suma del cuadrado de dos enteros si y sólo si $p\equiv 1 \pmod 4$.

Enunciado del teorema de Navidad de Fermat

El teorema recibe este nombre pues Fermat escribió una carta con muchos detalles acerca del resultado para Mersenne, cuya fecha fue el 25 de diciembre de 1640.

Este resultado nos lleva un paso más adelante en teoría de números. Por un lado, tiene «el mismo sabor» que el teorema de los cuatro cuadrados de Lagrange.

Teorema (teorema de los cuatro cuadrados de Lagrange). Todo entero no negativo puede ser escrito como suma de los cuadrados de cuatro números enteros.

Por otro lado, el teorema de Navidad de Fermat también nos ayuda a demostrar un caso particular del teorema de Dirichlet para primos sobre progresiones aritméticas.

Teorema 1. Hay infinitos números primos de la forma $4k+1$ e infinitos números de la forma $4k+3$.

El teorema de Dirichlet es una generalización de este resultado.

Teorema (teorema de Dirichlet). Si $a$ y $b$ son primos relativos, entonces existe una infinidad de primos $p$ tales que $p\equiv a \pmod b$.

Las demostraciones de los teoremas de Lagrange y de Dirichlet requieren de varios argumentos para los cuales aún no hemos desarrollado teoría suficiente. La idea de esta entrada de blog es demostrar el teorema de Navidad de Fermat y usarlo para demostrar el Teorema 1.

El teorema de Navidad de Fermat

En la demostración del teorema de navidad de Fermat usaremos el siguiente resultado.

Teorema 2. Si $p$ es un número primo y la ecuación $a^2+1 \equiv 0 \pmod p$ tiene solución para algún $a$, entonces $p$ se puede representar como una suma de dos cuadrados.

Por el momento, no nos enfocaremos en demostrar este resultado auxiliar. Existen muchas pruebas en la literatura, por ejemplo, una por J.H. Grace usando latices de enteros (The four square theorem).

Demostración del teorema de Navidad de Fermat. Supongamos primero que $p=x^2+y^2$ para enteros no negativos $x,y$. El hecho de que $p \equiv 1 \pmod 4$ se desprende de dos propiedades del anillo $\mathbb{Z}_4$. Notemos primero que cualquier entero impar es congruente con $1 \pmod 4$ o con $3\pmod 4$. Además, cualquier cuadrado es congruente con $0 \pmod 4$ o $1\pmod 4$, pues si $x$ es congruente con $0,1,2,3 \pmod 4$ entonces $x^2$ es congruente con $0,1,0,1 \pmod 4$, respectivamente. Como $p=x^2+y^2$, sabemos entonces que $$p\equiv x^2+y^2=0,1 \text{ \’o } 2 \pmod 4.$$ Pero $p$ es un primo mayor que $2$, entonces $p$ es impar. Así, $p\equiv 1 \pmod 4$.

Observación. En esta parte de la prueba en realidad es un poco más general, pues muestra que si $n$ es un entero impar que se puede representar como suma de dos cuadrados, entonces $n\equiv 1 \pmod 4$.

Supongamos ahora que $p\equiv 1 \pmod 4$. Lo primero que haremos es mostrar que $a^2+1\equiv 0 \pmod p$ tiene solución para alguna $a$, y después usaremos el Teorema 2 para obtener que $p$ es suma de dos cuadrados.

Primero, examinaremos los factores en $$(p-1)!=1\cdot 2 \cdot \ldots \cdot \frac{p-1}{2} \cdot \frac{p+1}{2}\cdot \ldots \cdot (p-2) \cdot (p-1).$$ A los últimos $(p-1)/2$ factores los pensamos como sigue: $p-1\equiv -1 \pmod p$, $p-2\equiv -2\pmod p$, …, $\frac{p+1}{2}\equiv -\frac{p-1}{2} \pmod p$. El factorial se convierte entonces en
\begin{align*}
(p-1)!&\equiv 1\cdot \ldots \cdot \left(\frac{p-1}{2}\right) \cdot \left(-\frac{p-1}{2}\right) \cdot \ldots \cdot (-1)\\
&\equiv (-1)^{(p-1)/2} \left(1\cdot \ldots \cdot \frac{p-1}{2}\right)^2 \pmod p.
\end{align*}

Definiendo $a= 1\cdot \ldots \cdot \frac{p-1}{2}$, lo anterior se puede escribir como $$(p-1)!\equiv (-1)^{(p-1)/2} a^2 \pmod p.$$

Por el teorema de Wilson, $(p-1)!\equiv -1 \pmod p$. Como $p\equiv 1 \pmod 4$, tenemos $p=4k+1$ para algún entero $k$. Entonces, $(p-1)/2=2k$, que es par, de modo que $(-1)^{(p-1)/2}=1$. De esta forma, tenemos que $$-1\equiv a^2 \pmod p.$$ Sumando $1$ de ambos lados, tenemos que $a^2+1\equiv 0 \pmod p$. Aplicando el Teorema 2, concluimos que $p$ es suma de dos cuadrados.

$\square$

Infinidad de primos de las formas $4k+1$ y $4k+3$

Todos los primos mayores que $2$ son impares, así que son o bien de la forma $4k+1$, o bien de la forma $4k+3$. Sabemos además que hay una infinidad de números primos. ¿Será cierto que hay una infinidad de ellos de la forma $4k+1$ y una infinidad de ellos de la forma $4k+3$?

Por el principio de las casillas, tiene que suceder por lo menos alguna de estas dos opciones. Si hubiera una cantidad finita de la forma $4k+1$ y de la forma $4k+3$, entonces por el párrafo anterior habría sólo una cantidad finita de primos, lo cual es una contradicción.

Lo que dice el Teorema 1 es más fuerte. Lo volvemos a poner aquí por conveniencia para el lector.

Teorema 1. Hay infinitos números primos de la forma $4k+1$ e infinitos números de la forma $4k+3$.

Es decir, el Teorema 1 afirma que para cada uno de los tipos hay una infinidad de primos. Veamos que en efecto esto sucede.

La primera parte del Teorema 1 no necesita que usemos el teorema de Navidad de Fermat.

Proposición 1. Hay una infinidad de primos de la forma $4k+3$.

Demostración. Supongamos que existiera únicamente una cantidad finita $n$ de primos de la forma $4k+3$ y supongamos que ellos son $p_1<\ldots<p_n$, en donde $p_1=3$. Consideremos el número $N=4p_2p_3\ldots p_n +3$ (ojo: no estamos incluyendo al $3$ en la multiplicación). Este número no puede ser primo pues es mayor que $p_n$ y $N\equiv 3\pmod 4$. De esta forma, debe tener al menos un divisor primo.

Tenemos que $N$ es impar, así que $2$ no divide a $N$. Si todos los divisores primos de $N$ fueran $1\pmod 4$, entonces $N$ sería $1\pmod 4$, pero esto no es cierto. De este modo, algún divisor primo $p$ de $N$ debe satisfacer $p\equiv 3 \pmod 4$. Notemos que $p$ no puede ser $3$, pues si $3\mid N$, tendríamos $3\mid 4p_1 \ldots p_n$, pero esto es imposible pues el número de la derecha no tiene ningún factor $3$. Con esto concluimos que $p=p_i$ para algún entero $i=2,\ldots,n$. Sin embargo, si $p_i\mid N$, entonces $p_i\mid N-(p_2\ldots p_n)=3$. Esto también es imposible pues $p_i\neq 3$. Así, es inevitable llegar a una contradicción, por lo que hay una infinidad de primos de la forma $4k+3$.

$\square$

La demostración anterior no funciona directamente para los primos de la forma $4k+1$, pues si hubiera una cantidad finita $n$ de ellos $p_1<\ldots < p_n$ y consideramos al número $4p_1\ldots p_n+1$, este número es congruente con $1\pmod 4$, pero nada garantiza que sus factores primos deban ser de la forma $1\pmod 4$ pues, por ejemplo, $3\equiv 3\pmod 4$, $7\equiv 3\pmod 4$, pero $3\cdot 7 \equiv 21 \equiv 1\pmod 4$. Tenemos que hacer algo distinto.

Proposición 2. Hay una infinidad de primos de la forma $4k+1$.

Demostración. Supongamos que existe una cantidad finita $n$ de primos de la forma $4k+1$ y que son $p_1<\ldots<p_n$. Consideremos al número $N=4(p_1p_2\ldots p_n)^2 +1$. Este número es de la forma $4k+1$. Por esta razón, es imposible que $N$ sea primo, pues es mayor que todo $p_i$.

Sea $p$ un divisor primo de $N$. Como $N$ es impar, $p\neq 2$. Como $p$ divide a $N$, tenemos que $(2p_1\ldots p_n)^2+1\equiv 0 \pmod p$, de modo que $x^2+1\equiv 0 \pmod p$ tiene solución y por el Teorema 2, $p$ se puede escribir como suma de dos cuadrados. Por el teorema de Navidad de Fermat, $p\equiv 1\pmod 4$. De esta forma, $p=p_i$ para alguna $i$. Pero entonces, $p$ divide a $N$ y a $4(p_1\ldots p_n)^2$, de modo que divide a su resta, que es $1$. Esto es imposible. Esta contradicción muestra que hay una cantidad infinita de primos de la forma $4k+1$.

$\square$

El Teorema 1 se sigue de las proposiciones 1 y 2.

¿Dónde seguir?

Aquí en el blog hay otras entradas en donde hablamos acerca de teoría de números. Puedes revisar las siguientes:

Álgebra Lineal I: Ortogonalidad y espacio ortogonal

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores hablamos de formas lineales y del espacio dual. Vimos que las formas coordenadas correspondientes a una base forman bases del espacio dual. También hicimos ejemplos prácticos de cómo encontrar bases duales y cómo hacer cambios de base en el espacio dual. Usaremos la teoría que hemos desarrollado hasta el momento para estudiar los conceptos de ortogonalidad y espacio ortogonal.

Antes de comenzar, es importante dejar un consejo. Quizás a estas alturas asocias a la ortogonalidad con la perpendicularidad. Esta intuición puede ayudar un poco más adelante, pero por el momento es recomendable que dejes esa intuición de lado. El problema es que la «perpendicularidad» habla de parejas de segmentos, parejas de lineas, o parejas de vectores. Sin embargo, las nociones de ortogonalidad que estudiaremos ahora hablan de cuándo una forma lineal $l$ y un vector $v$ son ortogonales, por lo cual es mejor pensarlo por el momento en la ortogonalidad como un concepto nuevo.

Definiciones de ortogonalidad y espacio ortogonal

En esta sección, $V$ es un espacio vectorial sobre un campo $F$.

Definición. Tomemos una forma lineal $l$ de $V$ y $v$ un vector en $V$. Decimos que $l$ y $v$ son ortogonales si $$\langle l,v \rangle = 0.$$

De manera equivalente, $l$ y $v$ son ortogonales si $l(v)=0$, o si $v$ está en el kernel de $l$.

Ejemplo 1. Consideremos la forma lineal $l$ de los polinomios en $\mathbb{R}_2[x]$ que a un polinomio lo manda a su evaluación en $2$, es decir, tal que $l(p)=p(2)$. Consideremos al polinomio $p(x)=x^2-3x+2$. Tenemos que \begin{align*}l(p)&=p(2)\\&=2^2-3\cdot 2 +2\\&=4-6+2\\&=0,\end{align*} de modo que $\langle l, p\rangle =0,$ así que $l$ y $p$ son ortogonales. Por otro lado, si $q(x)=x+1$, tenemos que $\langle l,q\rangle = l(q)=3$, de modo que $l$ y $q$ no son ortogonales.

$\triangle$

Ejemplo 2. Consideremos la forma lineal $l(x,y,z)=2x+3y-z$ de $\mathbb{R}^3$. Un vector que es ortogonal con $l$ es el vector $v=(0,0,0)$. Un vector un poco más interesante es el vector $(1,1,5)$ pues $l(1,1,5)=2+3-5=0$.

El vector $(1,1,5)$ también es ortogonal a la forma lineal $m(x,y,z)=x+y-\frac{2z}{5}$, como puedes verificar.

$\triangle$

A partir de la noción anterior, nos podemos hacer dos preguntas. Dado un conjunto de vectores, ¿quiénes son todas las formas lineales ortogonales a todos ellos? Dado un conjunto de formas lineales, ¿quiénes son todos los vectores ortogonales a todas ellas? Esta noción queda capturada en la siguiente definición.

Definición. Para $S$ un subconjunto de $V$, definimos al ortogonal de $S$ como el conjunto de formas lineales de $V$ ortogonales a todos los elementos de $S$. En símbolos, $$S^\bot:= \{l\in V^\ast: \langle l,v \rangle = 0\, \forall v \in S\}.$$

Tenemos una definición dual para subconjuntos de $V^\ast$.

Definición. Para $S$ un subconjunto de $V^\ast$, el ortogonal de $S$ es el conjunto de vectores de $V$ ortogonales a todos los elementos de $S$. En símbolos, $$S^\bot=\{v\in V: \langle l, v \rangle = 0 \, \forall l\in S\}.$$

Observa que estamos definiendo al ortogonal para subconjuntos de $V$ (y de $V^\ast$), es decir, que $S$ no tiene por qué ser un subespacio vectorial de $V$. Por otro lado, sea o no $S$ un subespacio, siempre tenemos que $S^\bot$ es un subespacio. Por ejemplo, si $S$ es un subconjunto de $V$ y $l_1$, $l_2$ son formas lineales que se anulan en todos los elementos de $S$, entonces para cualquier escalar $c$ también tenemos que $l_1+cl_2$ se anula en todos los elementos de $S$.

Ejercicio. Tomemos $S$ al subconjunto de matrices diagonales con entradas enteras en $M_2(\mathbb{R})$. ¿Quién es $S^\bot$? Ojo: Aquí $S$ no es un subespacio.

Solución. Sabemos que para cualquier forma lineal $l$ de $M_2(\mathbb{R})$ existen reales $p$, $q$, $r$, $s$ tales que $$l\begin{pmatrix}a&b\\c&d\end{pmatrix}=pa+qb+rc+sd.$$

Si $l$ está en $S^\bot$, se tiene que anular en particular en las matrices $A=\begin{pmatrix} 1 & 0\\ 0 & 0\end{pmatrix}$ y $B=\begin{pmatrix} 0 & 0 \\ 0 & 1\end{pmatrix}$, pues ambas están en $S$. En otras palabras, $$0 = l(A) = p$$ y $$0 = l(B) = s.$$ Así, la forma lineal tiene que verse como sigue:

$$l\begin{pmatrix}a&b\\c&d\end{pmatrix}= qb+rc.$$

Y en efecto, todas las formas lineales de esta forma se anulan en cualquier matriz diagonal con entradas enteras, pues en esas matrices $b=c=0$.

$\triangle$

Encontrar el espacio ortogonal de manera práctica

Ya mencionamos que $S$ no necesariamente tiene que ser un subespacio para definir $S^\bot$. Sin embargo, usando la linealidad podemos mostrar que, para cualquiera de las dos definiciones, basta estudiar qué sucede con subespacios vectoriales. La demostración de la siguiente proposición es sencilla, y se deja como tarea moral.

Proposición 1. Para $S$ un subconjunto de $V$ (o de $V^\ast$), tenemos que $$S^\bot = \text{span}(S)^\bot.$$

Esta proposición es particularmente importante pues en espacios vectoriales de dimensión finita nos permite reducir el problema de encontrar ortogonales para subconjuntos de vectores (o de formas lineales), a simplemente resolver un sistema de ecuaciones. El procedimiento que hacemos es el siguiente (lo enunciamos para vectores, para formas lineales es análogo):

  • Tomamos una base $B=\{b_1,\ldots,b_n\}$ de $V$.
  • Tomamos un subconjunto $S$ de vectores de $V$.
  • Usamos la Proposición 1 para argumentar que $S^\bot=\text{span}(S) ^\bot$.
  • Consideramos una base $C=\{c_1,\ldots,c_m\}$ de $\text{span}(S)$ y notamos que una forma lineal $l$ se anula en todo $\text{span}(S)$ si y sólo si se anula en cada elemento de $C$.
  • Escribimos a cada $c_i$ como combinación lineal de elementos de $B$, digamos $$c_i=a_{i1}b_1+\ldots+a_{in}b_n.$$
  • Cada condición $l(c_i)=0$ se transforma en la ecuación lineal $$a_{i1}l(b_1)+\ldots+a_{in}l(b_n)=l(c_i)=0$$ en las variables $l(b_1), l(b_2),\ldots, l(b_n)$ igualada a $0$, de forma que las $m$ condiciones dan un sistema de ecuaciones homogéneo.
  • Podemos resolver este sistema con reducción gaussiana para encontrar todas las soluciones, aunque basta con encontrar a las soluciones fundamentales, pues justo forman la base de $\text{span}(S)^\bot=S^\bot$.

Veamos este método en acción.

Ejemplo de encontrar el espacio ortogonal de manera práctica

Ejercicio. Considera el subconjunto $S$ de $\mathbb{R}^3$ cuyos elementos son $(2,3,-5)$, $(-1,0,1)$, $(3,3,-6)$, $(-3,-2,5)$. Determina $S^\bot$.

Solución. Para encontrar $S^\bot$, basta encontrar $\text{span}(S)^\bot$.

Lo primero que notamos es que todos los vectores de $S$ satisfacen que la suma de sus entradas es $0$, así que todos los vectores en $\text{span}(S)$ también, de modo que $\text{span}(S)$ no es todo $\mathbb{R}^3$, así que es de dimensión a lo más $2$. Notamos también que $(-1,0,1)$ y $(2,3,-5)$ son linealmente independientes, así que $\text{span}(S)$ es de dimensión al menos $2$, de modo que es de dimensión exactamente $2$ y por lo tanto $(-1,0,1)$ y $(2,3,-5)$ es una base.

Para cualquier forma lineal $l$ en $\mathbb{R}^3$ existen reales $a$, $b$, $c$ tales que $l(x,y,z)=ax+by+cz$. Para encontrar aquellas formas lineales que se anulan en $\text{span}(S)$, basta encontrar aquellas que se anulan en la base, es decir, en $(-1,0,1)$ y $(2,3,-5)$. De esta forma, necesitamos resolver el sistema de ecuaciones homogéneo \begin{align*}-a+c&=0\\2a+3b-5c&=0.\end{align*}

Para resolver este sistema, aplicamos reducción gaussiana:

\begin{align*}
&\begin{pmatrix} -1 & 0 & 1\\ 2 & 3 & -5\end{pmatrix}\\
\to & \begin{pmatrix} 1 & 0 & -1\\ 0 & 3 & -3\end{pmatrix}\\
\to & \begin{pmatrix} 1 & 0 & -1\\ 0 & 1 & -1\end{pmatrix}
\end{align*}

La variable libre es $c$ y las pivote son $a$ y $b$. Obtenemos $a=c$ y $b=c$, de donde las soluciones se ven de la forma $(c,c,c)$. Concluimos entonces que $S^\bot$ son las formas lineales tales que $$l(x,y,z)=c(x+y+z)$$ para algún real $c$.

$\triangle$

En el ejemplo anterior, la dimensiones de $\text{span}(S)$ y de $\text{span}(S)^\bot$ suman $3$, que es la dimensión de $\mathbb{R}^3$. Esto no es una casualidad, como veremos en la siguiente sección.

El teorema de dualidad

Las dimensiones de un subespacio de un espacio vectorial de dimensión finita, y de su espacio ortogonal, están relacionadas con la dimensión del espacio. Este es uno de los teoremas más importantes de dualidad.

Teorema. Sea $V$ un espacio vectorial de dimensión finita sobre $F$ y $W$ un subespacio de $V$ (o de $V^\ast)$. Entonces $$\dim W + \dim W^\bot = \dim V.$$

Demostración. Hagamos primero el caso en el que $W$ es un subespacio de $V$. Supongamos que $\dim V = n$ y que $\dim W = m$. Como $W$ es subespacio, tenemos que $m\leq n$. Tenemos que mostrar que $\dim W^\bot = n-m$, así que basta exhibir una base de $\dim W^\bot$ con $n-m$ formas lineales.

Para ello, tomemos $e_1,e_2,\ldots, e_m$ una base de $W$ y tomemos elementos $e_{m+1},\ldots,e_{n}$ que la completan a una base de $V$. Afirmamos que la base de $W^\bot$ que estamos buscando consiste de las formas coordenadas $e_{m+1}^\ast,\ldots,e_{n}^\ast$ correspondientes a $e_{m+1},\ldots,e_n$.

Por un lado, estas formas coordenadas son linealmente independientes, pues son un subconjunto de la base $e_1^\ast,\ldots, e_n^\ast$ de $V^\ast$. Por otro lado, si tenemos a una forma lineal $l$ de $V$, habíamos mostrado que la podemos expresar de la forma $$l=\sum_{i=1}^n \langle l, e_i \rangle e_i^\ast,$$ de modo que si $l$ se anula en todo $W$, en particular se anula en los vectores $e_1,\ldots,e_m$, por lo que $$l=\sum_{i=m+1}^n \langle l, e_i\rangle e_i^\ast,$$ lo cual exhibe a $l$ como combinación lineal de los elementos $e_{m+1}^\ast,\ldots,e_n^\ast$. De esta forma, este subconjunto de formas lineales es linealmente independiente y genera a $W^\bot$, que era justo lo que necesitábamos probar.

Ahora hagamos el caso en el que $W$ es un subespacio de $V^\ast$. Podríamos hacer un argumento análogo al anterior, pero daremos una prueba alternativa que usa la bidualidad canónica $\iota: V\to {V^\ast} ^\ast$. La igualdad $\langle l,v \rangle = 0$ es equivalente a $\langle \iota(v),l \rangle =0$. De esta forma, $v$ está en $W^\bot$ si y sólo si $\iota(v)\in {V^\ast} ^\ast$ se anula en todo $W$. Como $\iota$ es isomorfismo y el espacio de los $g\in {V^\ast} ^\ast$ que se anulan en $W$ tiene dimensión $$\dim V^\ast-\dim W = \dim V – \dim W$$ (por la primer parte del teorema), concluimos entonces que $$\dim W^\bot = \dim V – \dim W,$$ lo cual prueba la otra parte del teorema.

$\square$

Problema. Sea $W$ el subespacio de matrices simétricas de $M_3(\mathbb{R})$ ¿Cuál es la dimensión de $W^\bot$?

Solución. Se puede mostrar que $E_{11}$, $E_{22}$, $E_{33}$, $E_{12}+E_{21}$, $E_{23}+E_{32}$, $E_{13}+E_{31}$ forman una base para $W$. De esta forma, $W$ tiene dimensión $6$. Por el Teorema 1, tenemos que $\dim W^\bot = \dim M_3(\mathbb{R})-6=9-6=3$.

$\triangle$

Aplicar dos veces ortogonalidad en subespacios

Una consecuencia importante del teorema anterior es que aplicarle la operación «espacio ortogonal» a un subespacio de un espacio de dimensión finita nos regresa al inicio. Más formalmente:

Corolario. Si $V$ es un espacio vectorial de dimensión finita sobre un campo $F$ y $W$ un subespacio de $V$ (o de $V^\ast$), entonces $(W^\bot)^\bot=W$.

Demostración. Haremos la prueba para cuando $W$ es subespacio de $V$. La otra es análoga y se deja como tarea moral. Lo primero que vamos a mostrar es que $W\subset (W^\bot)^\bot$. Tomemos $w$ en $W$. Tenemos que mostrar que $l(w)=0$ para cualquier $l$ en $W^\bot$. Por definición, un $l$ en $W^\bot$ se anula en todo elemento de $W$, así que se anula particularmente en $w$, como queremos.

Como $W$ y $(W^\bot)^\bot$ son espacios vectoriales, tenemos que $W$ es subespacio de $(W^\bot)^\bot$. Por el teorema de dualidad, tenemos que $$\dim W^\bot = \dim V – \dim W.$$ Usando esto y de nuevo el teorema de dualidad, tenemos que $$\dim (W^\bot)^\bot = \dim V – \dim W^\bot = \dim W.$$

De esta forma, $W$ es un subespacio de $\dim (W^\bot)^\bot$ de su misma dimensión, y por lo tanto $W= (W^\bot)^\bot$.

$\square$

Hay que tener particular cuidado en usar el corolario anterior. Solamente se puede garantizar su validez cuando $W$ es un subespacio de $V$, y cuando $V$ es de dimensión finita. En efecto, si $S$ es simplemente un subconjunto de $V$ y no es un subespacio, entonces la igualdad $S=(S^\bot)^\bot$ es imposible, pues al lado derecho tenemos un subespacio de $V$ y al izquierdo no.

Más adelante…

En esta entrada hablamos de ortogonalidad y de espacios ortogonales como si fueran un concepto nuevo, dejando de lado, al menos por el momento, nuestras ideas previas de asociar ortogonalidad con perpendicularidad. También vimos cómo encontrar un espacio ortogonal de manera práctica y hablamos de un teorema muy importante: el teorema de la dualidad.

Lo que sigue es hablar de cómo la noción de ortogonalidad nos permite estudiar sistemas de ecuaciones e hiperplanos. En la siguiente entrada estudiaremos estos conceptos.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Demuestra la proposición enunciada en la entrada.
  • Sea $S$ el subespacio de matrices diagonales en $M_n(\mathbb{R})$. ¿Cuál es la dimensión de $S^\bot$?
  • Considera $\mathbb{R}_3[x]$, el espacio vectorial de polinomios con coeficientes reales y grado a lo más $3$. Considera las formas lineales $\text{ev}_2$ y $\text{ev}_3$ que evalúan a un polinomio en $2$ y en $3$ respectivamente. ¿Quién es el espacio ortogonal de $\{\text{ev}_2,\text{ev}_3\}$?
  • Prueba la segunda parte del teorema de dualidad con un argumento análogo al que usamos para probar la primer parte.
  • Prueba el corolario para cuando $W$ es subespacio de $V^\ast$.
  • Verifica que las matrices propuestas en el último ejercicio en efecto forman una base para el subespacio de matrices simétricas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Superior II: Construcción de números complejos

Por Leonardo Ignacio Martínez Sandoval

Introducción

En una entrada anterior esbozamos las construcciones de los números racionales y los números reales. Es hora de construir los números complejos. Para ello, definiremos primero el conjunto, $\mathbb{C}$, sobre el que trabajaremos, después definiremos sus operaciones.

Una forma intuitiva de visualizar a $\mathbb{C}$ es tomar el conjunto de los números reales ($\mathbb{R}$) y en ellos introducir un nuevo elemento, $i$, el cual satisface que $i^2=-1$. Este es, realmente, un nuevo elemento, pues en $\mathbb{R}$ siempre se tiene que $x^2\geq 0$.

Una vez que introducimos a $i$, queremos que las operaciones de suma y producto estén definidas en $\mathbb{C}$ y que, además este conjunto, sea cerrado bajo estas operaciones. Es decir, es necesario que para cualquier número real $b$ se tenga $bi\in \mathbb{C}$ y que para cualesquiera números reales $a$ y $b$ tengamos, también, $a+bi\in \mathbb{C}$. Resulta que esto «es suficiente», en el sentido de que ya no hay que meter más números para que las operaciones estén bien definidas. Veamos como es esto, si tenemos los números de la forma $a+bi$ y $c+di$ con $a,b,c,d\in \mathbb{R}$ y los sumamos y multiplicamos como sigue: $$(a+bi)+(c+di)=(a+c)+(b+d)i$$, vemos que, la suma, «tiene la misma forma» (ya que $a+c$ y $b+d$ son números reales) así como su producto:
\begin{align*}
(a+bi)(c+di)&=ac+bci+adi+bdi^2\\
&=(ac-bd)+(ad+bc)i.
\end{align*}
Desde luego que lo anterior es soló una discusión informal. En las siguientes secciones veremos cómo formalizar estas ideas.

Los números complejos se comportan muy bien en términos algebraicos y en términos de análisis. En términos algebraicos, esto se comenzará a notar en la última parte del curso en donde veremos que cualquier polinomio tiene por lo menos una raíz compleja. En cursos posteriores, como el de álgebra lineal, verás otras de las propiedades algebraicas de los polinomios. Más adelante, si llevas un curso de variable compleja verás las bellas propiedades analíticas que tienen los números complejos.

El campo de los números complejos

La construcción del conjunto de números complejos es bastante sencilla. Para hacerla, simplemente consideraremos las parejas de números reales $$\mathbb{C}=\{(a,b): a,b\in \mathbb{R}\}.$$

Por el momento a cada $(a,b)$ lo puedes pensar de manera informal como el complejo $a+bi$. Lo interesante del conjunto de los números complejos no son sus elementos en sí, sino las siguientes operaciones que están definidas en él.

Definición. Para $(a,b)$ y $(c,d)$ en $\mathbb{C}$, definimos su suma como $$(a,b)+(c,d)=(a+c,b+d).$$

Recordemos que dentro del paréntesis se usa la suma de $\mathbb{R}$ ya que $a$, $b$, $c$ y $d$ son números reales.

Definición. Para $(a,b)$ y $(c,d)$ en $\mathbb{C}$, definimos su producto como $$(a,b)(c,d)=(ac-bd,ad+bc).$$

Igualmente dentro del paréntesis se usan la suma y producto de $\mathbb{R}$. La definición de producto está motivada por la discusión que hicimos en la introducción.

Teorema. El conjunto $\mathbb{C}$, junto con las operaciones de suma y producto que definimos, es un campo.

Demostración. La suma es conmutativa y asociativa ya que cada entrada pertenece a $\mathbb{R}$ y en $\mathbb{R}$ la suma es conmutativa y asociativa. El neutro es $(0,0)$ pues $$(a,b)+(0,0)=(a+0,b+0)=(a,b)$$ y para $(a,b)$ su inverso aditivo es $(-a,-b)$.

Veamos ahora el producto. Probemos que es conmutativo. Para dos complejos $(a,b)$ y $(c,d)$ tenemos que $$(a,b)(c,d)=(ac-bd,ad+bc)$$ y que $$(c,d)(a,b)=(ca-db,cb+da).$$

Ambos resultados son iguales ya que cada entrada pertenece a $\mathbb{R}$ y la suma y el producto son conmutativos en $\mathbb{R}$.

Probemos que el producto es asociativo. Para ello tomemos tres complejos $(a,b)$, $(c,d)$ y $(e,f)$. Tenemos que
\begin{align*}
[(a,b)(c,d)](e,f)&=(ac-bd,ad+bc)(e,f)\\
&=(ace-bde-adf-bcf,acf-bdf+ade+bce),
\end{align*} y que
\begin{align*}
(a,b)[(c,d)(e,f)]&=(a,b)(ce-df,cf+de)\\
&=(ace-adf-bcf-bde,acf+ade+bce-bdf),
\end{align*}

Ambas expresiones son iguales ya que cada entrada pertenece a $\mathbb{R}$ y la suma es conmutativa en $\mathbb{R}$.

El complejo $(1,0)$ actúa como neutro multiplicativo, pues $$(a,b)(1,0)=(a\cdot 1 – b\cdot 0, a\cdot 0 + b\cdot 1)=(a,b).$$ Además, si tomamos un complejo $(a,b)\neq (0,0)$ y lo multiplicamos por $\left(\frac{a}{a^2+b^2},\frac{-b}{a^2+b^2}\right)$ obtenemos \begin{align*}
(a,b)\left(\frac{a}{a^2+b^2},\frac{-b}{a^2+b^2}\right)&= \left(\frac{a^2+b^2}{a^2+b^2}, \frac{-ab}{a^2+b^2}+\frac{ba}{a^2+b^2}\right)\\ &= (1,0),
\end{align*} lo cual muestra que tenemos inversos multiplicativos.

Sólo falta demostrar la propiedad distributiva. Su verificación se deja como tarea moral.

$\square$

La copia de los reales en los números complejos

Dentro de $\mathbb{C}$ hay una copia de los números reales. Esta consiste en asociarle, a cada número real $a$, el número complejo $\varphi(a)=(a,0)$. Esta asociación es claramente biyectiva. Además, si $a$ y $b$ son números reales, tenemos que $$(a,0)+(b,0)=(a+b,0)=\varphi(a+b)$$ y
\begin{align*}
(a,0)(b,0) &= (ab-0\cdot 0, a\cdot 0 + b\cdot 0)\\
&= (ab,0) = \varphi(ab).
\end{align*}
Además los neutros se van a neutros y los inversos a inversos. Esto muestra que $\varphi$ es una asociación biyectiva entre $\mathbb{R}$ y los complejos de la forma $(a,0)$ y que respeta la estructura de campo de $\mathbb{R}$.

Por otro lado, notemos que $$(0,1) (0,1)= (0\cdot 0 – 1\cdot 1, 0\cdot 1 + 1\cdot 0)= (-1, 0).$$

En otras palabras, al elevar el complejo $(0,1)$ al cuadrado obtenemos el número $(-1,0)$, que es precisamente $\varphi(-1)$.

Tras toda esta discusión, estamos justificados entonces en llamar simplemente $1$ al complejo $(1,0)$, en llamar $i$ al complejo $(0,1)$, y por lo tanto en llamar $a+bi$ al complejo $(a,b)$. A partir de aquí ya podemos olvidar la notación de parejas y tratar a los números complejos como lo discutimos en la introducción.

Operaciones en la notación $a+bi$

La notación $a+bi$ para números complejos es bastante práctica. Podemos trabajar con los complejos «igualito que en $\mathbb{R}$, pero, además, con la propiedad de que $i^2=-1$».

Como $i^4=(-1)^2=1$, tenemos que las potencias de $i$ se ciclan cada cuatro: $$1, i, i^2, i^3, i^4, i^5, i^6, \ldots$$ son $$1,i, -1, -i, 1, i,\ldots .$$ Ya mencionamos en la introducción que para complejos $a+bi$ y $c+di$ se tiene que $$(a+bi)+(c+di)=(a+c)+(b+d)i$$ y que $$(a+bi)(c+di)=(ac-bd)+(ad+bc)i,$$ de modo que cualquier composición de sumas y productos de números complejos se puede simplificar a la forma $x+yi$ con $x$ y $y$ reales.

Ejemplo. Simplifica la expresión $$(1+i)(1-i)+(2+i)(3-4i).$$ Solución. Haciendo el producto del primer sumando tenemos $(1+i)(1-i)=1^2-i^2=1-(-1)=2$. Haciendo el producto del segundo sumando tenemos \begin{align*}
(2+i)(3-4i)&=6+3i-8i-4i^2\\
&=6-5i+4\\
&=10-5i.
\end{align*}
De esta forma, el resultado de la operación es $$2+(10-5i)=12-5i.$$

$\triangle$

En complejos también podemos usar expresiones fraccionales, como $\frac{3+2i}{5-i}$. Si queremos pasar estas expresiones a la forma $x+yi$ con $x$ y $y$ reales, tenemos que pensar a $\frac{1}{5-i}$ como «el inverso multiplicativo de $5-i$», que como vimos en la demostración de que $\mathbb{C}$ es un campo, es $$\frac{5}{5^2+(-1)^2}+\frac{1}{5^2+(-1)^2}i=\frac{5}{26}+\frac{1}{26} i.$$ Una vez hecho esto, tenemos que \begin{align*}
\frac{3+2i}{5-i}&=(3+2i)\left( \frac{5}{26}+\frac{1}{26} i \right)\\
&=\frac{13}{26} + \frac{13}{26} i\\
&=\frac{1}{2}+\frac{1}{2} i.
\end{align*}

Otra forma de pensarlo es que a una expresión de la forma $\frac{a+bi}{c+di}$ la podemos simplificar «multiplicando arriba y abajo» por $c-di$. De esta forma, obtenemos
\begin{align*}
\frac{a+bi}{c+di} \cdot \frac{c-di}{c-di} = \left(\frac{ac+bd}{c^2+d^2}\right) + \left(\frac{bc-ad}{c^2+d^2}\right)i.
\end{align*}

Ambos métodos dan el mismo resultado.

Más adelante…

Al tomar un número complejo $z=a+bi$ y calcular su inverso, aparecen de manera natural las expresiones $a-bi$ y $a^2+b^2$. Estas expresiones son fundamentales.

  • A $a-bi$ se le conoce como el conjugado de $z$, y se denota por $\overline{z}$.
  • A $\sqrt{a^2+b^2}$ se le conoce como la norma de $z$ y se denota por $|z|$.

En la siguiente ocasión hablaremos de las propiedades de estas dos operaciones y cómo están relacionadas entre sí. Más adelante veremos su utilidad al resolver ecuaciones cuadráticas en los números complejos.

Si quieres, puedes revisar esta entrada sobre aplicaciones interesantes de los números complejos en la resolución de problemas. Tiene teoría que no hemos visto, pero te puede servir de motivación para aprender lo que veremos a continuación.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Demuestra que en los complejos se satisface la ley distributiva.
  2. Verifica que bajo la asociación $\varphi$ en efecto los neutros se van a los neutros y los inversos a inversos.
  3. Realiza la operación $(1+i)(2+i)(1+2i)(2+2i)$ y expresa el resultado de la forma $x+yi$ con $x$ y $y$ reales.
  4. Realiza la operación $$\frac{3+5i}{2+i}-\frac{1+2i}{4-3i}$$ y expresa el resultado de la forma $x+yi$ con $x$ y $y$ reales.
  5. Realiza la operación $$1+(1+i)+(1+i)^2+(1+i)^3+(1+i)^4$$ y expresa el resultado de la forma $x+yi$ con $x$ y $y$ reales.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Problemas de dualidad y base dual

Por Blanca Radillo

Introducción

En esta ocasión, comenzaremos a resolver problemas sobre un nuevo tema: espacio dual. La parte teórica ya la hemos cubierto en entradas anteriores. En la entrada de introducción a dualidad definimos el espacio dual y las formas coordenadas. Después, en una siguiente entrada, de bases duales vimos que las formas coordenadas son una base del espacio dual, hablamos de ciertos problemas prácticos para resolver, y vimos un teorema que relaciona bases, bases duales y una matriz invertible.

Problemas resueltos

Uno de los problemas de dualidad que discutimos la ocasión anterior es expresar a una base dual de vectores en $V$ en términos de la base dual de la base canónica. Veamos un ejemplo de esto.

Problema 1. Sean $v_1,v_2,v_3,v_4$ los vectores en $\mathbb{R}^4$ definidos como $$v_1=\begin{pmatrix} 1 \\ 1 \\ 1 \\ 1 \end{pmatrix}, v_2=\begin{pmatrix} 1 \\ 2 \\ 3 \\ 4 \end{pmatrix}, v_3=\begin{pmatrix} 0 \\ 0 \\ 1 \\ 2 \end{pmatrix}, v_4=\begin{pmatrix} 1 \\ 0 \\ 0 \\ 5 \end{pmatrix}.$$ Demuestra que $V:=\{v_1,v_2,v_3,v_4\}$ es una base de $\mathbb{R}^4$ y encuentra la base dual de $V$ en términos de $e_i^\ast$, donde $e_i^\ast$ es la base dual de la base canónica de $\mathbb{R}^4$.

Solución. Dado que $V$ está conformado por cuatro vectores y la dimensión de $\mathbb{R}^4$ es $4$, basta con probar que son vectores linealmente independientes. Hay dos maneras de hacerlo.

Manera 1: Sean $a,b,c,d \in \mathbb{R}$ tales que $0=av_1+bv_2+cv_3+dv_4$. Esto da cuatro ecuaciones

\begin{align*}
0&=a+b+d\\
0&=a+2b\\
0&=a+3b+c\\
0&=a+4b+2c+5d.
\end{align*}

De la segunda obtenemos que $a=-2b$, sustituyendo en la primera y en la tercera
\begin{align*}
d&=2b-b=b,\\
c&=2b-3b=-b,
\end{align*}
y sustituyendo ésto en la cuarta, tenemos que $0=-2b+4b-2b+5b=5b$. Por lo tanto $a=b=c=d=0$, implicando que los vectores en $V$ son linealmente independientes, y por consiguiente forman una base de $\mathbb{R}^4$.

Manera 2: También podemos hacer la reducción gaussiana en la matriz $(A|I)$ donde $A$ es la matriz cuyas columnas son los vectores de $V$. Esta forma tiene la ventaja de que a la vez calcularemos la matriz inversa que nos interesa encontrar.
$$\left( \begin{array}{cccc|cccc} 1 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\ 1 & 2 & 0 & 0 & 0 & 1 & 0 & 0 \\ 1 & 3 & 1 & 0 & 0 & 0 & 1 & 0 \\ 1 & 4 & 2 & 5 & 0 & 0 & 0 & 1 \end{array} \right)$$

$$\to \left( \begin{array}{cccc|cccc} 1 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & -1 & -1 & 1 & 0 & 0 \\ 0 & 2 & 1 & -1 & -1 & 0 & 1 & 0 \\ 0 & 3 & 2 & 4 & -1 & 0 & 0 & 1 \end{array} \right)$$

$$\to \left( \begin{array}{cccc|cccc} 1 & 1 & 0 & 1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & -1 & -1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 & 1 & -2 & 1 & 0 \\ 0 & 0 & 2 & 7 & 2 & -3 & 0 & 1 \end{array} \right)$$

$$\to \left( \begin{array}{cccc|cccc} 1 & 0 & 0 & 0 & 2 & -7/5 & 4/5 & -2/5 \\ 0 & 1 & 0 & 0 & -1 & 6/5 & -2/5 & 1/5 \\ 0 & 0 & 1 & 0 & 1 & -11/5 & 7/5 & -1/5 \\ 0 & 0 & 0 & 1 & 0 & 1/5 & -2/5 & 1/5 \end{array} \right)$$


Como podemos reducir a la identidad, los vectores iniciales son linealmente independientes y forman una base. Más aún, ya obtuvimos la inversa de $A$.

Ahora, para obtener la base dual $V^{\ast}:=\{v_1^\ast,v_2^\ast,v_3^\ast,v_4^\ast\}$ de la base $V$, por lo visto en la última entrada, podemos escribir a cada elemento de $V^\ast$ como combinación lineal de $e_i^\ast$, donde los coeficientes del vector $v_i^\ast$ están en la $i$-ésima fila de $A^{-1}$. Por lo tanto,
\begin{align*}
v_1^\ast &= 2e_1^\ast -\frac{7}{5} e_2^\ast +\frac{4}{5} e_3^\ast -\frac{2}{5}e_4^\ast\\
v_2^\ast &= -e_1^\ast +\frac{6}{5} e_2^\ast -\frac{2}{5} e_3^\ast +\frac{1}{5}e_4^\ast\\
v_3^\ast &= e_1^\ast -\frac{11}{5} e_2^\ast +\frac{7}{5} e_3^\ast -\frac{1}{5}e_4^\ast\\
v_4^\ast &= \frac{1}{5} e_2^\ast -\frac{2}{5} e_3^\ast +\frac{1}{5}e_4^\ast.
\end{align*}

$\square$

Otro tipo de problemas de dualidad consisten en determinar algunos vectores en $V$ cuya base dual sea una base dada de $V^\ast$.

Problema 2. Considera las siguientes formas lineales en $\mathbb{R}^3$: \begin{align*}
l_1(x,y,z)&=x-y, \\
l_2(x,y,z)&=y-z, \\
l_3(x,y,z)&=x+y-z.
\end{align*}

  1. Prueba que $l_1,l_2,l_3$ forman una base del dual de $\mathbb{R}^3$.
  2. Encuentra una base de $\mathbb{R}^3$ cuya base dual es $l_1,l_2,l_3$.

Solución. (1) Por el último teorema de la entrada de bases duales, sabemos que $l_1,l_2,l_3$ forman una base si la matriz $A=[l_i(e_j)]$ es invertible, donde $e_j$ es la base canónica de $\mathbb{R}^3$.

Para mostrar que $A$ es invertible, calcularemos la forma escalonada reducida de la matríz $(A|I)$. Entonces,

\begin{align*}
&\left( \begin{array}{ccc|ccc} 1 & -1 & 0 & 1 & 0 & 0 \\ 0 & 1 & -1 & 0 & 1 & 0 \\ 1 & 1 & -1 & 0 & 0 & 1 \end{array} \right) \\ \to &\left( \begin{array}{ccc|ccc} 1 & -1 & 0 & 1 & 0 & 0 \\ 0 & 1 & -1 & 0 & 1 & 0 \\ 0 & 2 & -1 & -1 & 0 & 1 \end{array} \right) \\
\to &\left( \begin{array}{ccc|ccc} 1 & -1 & 0 & 1 & 0 & 0 \\ 0 & 1 & -1 & 0 & 1 & 0 \\ 0 & 0 & 1 & -1 & -2 & 1 \end{array} \right) \\ \to &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 0 & -1 & 1 \\ 0 & 1 & 0 & -1 & -1 & 1 \\ 0 & 0 & 1 & -1 & -2 & 1 \end{array} \right)
\end{align*}

Con esto concluimos que $A$ es invertible, y por lo tanto $l_1,l_2,l_3$ forman una base del dual de $\mathbb{R}^3$.

(2) En el inciso anterior, calculamos la inversa de $A$, obteniendo $$A^{-1}=\begin{pmatrix} 0 & -1 & 1 \\ -1 & -1 & 1 \\ -1 & -2 & 1 \end{pmatrix}.$$
Recordemos que la base $v_1,v_2,v_3$ de $\mathbb{R}^3$ está determinada por las columnas de $B=A^{-1}$, entonces $$v_1=\begin{pmatrix} 0 \\ -1 \\ -1 \end{pmatrix}, \ v_2=\begin{pmatrix} -1 \\ -1 \\ -2 \end{pmatrix}, \ v_3=\begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}.$$

$\square$

Veamos otro ejemplo, en el que veremos formas lineales un poco más interesantes, relacionadas con cálculo.

Problema 3. Sea $V=\mathbb{C}_2[X]$ el espacio vectorial de polinomios de grado a lo más 2 con coeficientes complejos, y para cada $P\in V$ definimos
\begin{align*}
l_1(P)&=P(0), \\ l_2(P)&=\int_0^1 P(x) \, dx, \\ l_3(P)&=\int_0^1 P(x)e^{-2\pi ix}\, dx.
\end{align*}

  1. Prueba que $l_1,l_2,l_3$ pertenecen a $V^*$. Más aún, forman una base de $V^*$.
  2. Encuentra una base $v_1,v_2,v_3$ de $V$ cuya base dual es $l_1,l_2,l_3$.

Solución. (1) No es difícil ver que son formas lineales. Para $l_1$, notamos que \begin{align*}
l_1(P+Q)&=P(0)+Q(0)=l_1(P)+l_1(Q)\\
l_1(aP)&=aP(0)=al_1(P)
\end{align*} para cualesquiera polinomios $P$ y $Q$, y cualquier escalar $a$ en $\mathbb{C}$. Para $l_2$ y $l_3$, la linealidad se sigue por las propiedades de la integral.

Para probar que $l_1, l_2,l_3$ forman una base de $V^\ast$, lo haremos de manera similar al problema anterior. Sabemos que $1,x,x^2$ forman la base canónica de $V$, entonces $L:=\{l_1,l_2,l_3\}$ es una base de $V^\ast$ si la matriz $A=[l_i(e_j)]$ es invertible. Calculando $$l_1(1)=1, \ l_1(x)=l_1(x^2)=0,$$ $$l_2(1)=1, \ l_2(x)=\int_0^1 xdx=\frac{1}{2},$$ $$ l_2(x^2)=\int_0^1 x^2 dx=\frac{1}{3},$$ $$l_3(1)=\int_0^1 e^{-2\pi i x}dx=0, \ l_3(x)=\int_0^1 xe^{-2\pi i x}dx=\frac{i}{2\pi},$$ $$l_3(x^2)=\int_0^1 x^2e^{-2\pi i x}dx=\frac{1+i\pi}{2\pi^2}.$$
(Para calcular $l_3(x),l_3(x^2)$ se usa integración por partes). Entonces la matriz es $$A=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 1/2 & 1/3 \\ 0 & \frac{i}{2\pi} & \frac{1+i\pi}{2\pi^2} \end{pmatrix}.$$

Ahora, reduciremos la matriz $(A|I)$ para simultáneamente probar que $A$ es invertible y encontrar $A^{-1}$. Tenemos que

\begin{align*}
&\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 1 & 1/2 & 1/3 & 0 & 1 & 0 \\ 0 & \frac{i}{2\pi} & \frac{1+i\pi}{2\pi^2} & 0 & 0 & 1 \end{array} \right)\\
\to &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1/2 & 1/3 & -1 & 1 & 0 \\ 0 & i\pi & 1+i\pi & 0 & 0 & 2\pi^2 \end{array} \right)\\
\to & \left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 3 & 2 & -6 & 6 & 0 \\ 0 & 1 & \frac{1+i\pi}{i\pi} & 0 & 0 & -2i\pi \end{array} \right)\\
\to &\left( \begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & 0 & 0 \\ 0 & 1 & 0 & \frac{-6-6\pi i}{3+\pi i} & \frac{6+6\pi i}{3+\pi i} & \frac{-4\pi^2}{3+\pi i} \\ 0 & 0 & 1 & \frac{6\pi i}{3+\pi i} & \frac{-6\pi i}{3+\pi i} & \frac{6\pi^2}{3+\pi i} \end{array} \right)
\end{align*}

Por lo tanto $A$ es invertible, implicando que $L$ es una base de $V^*$.

(2) Ya calculada en el inciso anterior, tenemos que $$A^{-1}=\frac{1}{3+\pi i} \begin{pmatrix} 3+\pi i & 0 & 0 \\ -6-6\pi i & 6+6\pi i & -4\pi^2 \\ 6\pi i & -6 \pi i & 6\pi^2 \end{pmatrix}.$$ De esta matriz leemos a las coordenadas de la base que estamos buscando en términos de la la base canónica $\{1,x,x^2\}$. Las columnas son los vectores de coordenadas. Por lo tanto, la base de $V$ tal que $L$ es la base dual es:

\begin{align*}
v_1&= \frac{1}{3+\pi i} \left(3+\pi i – (6+6\pi i) x + 6\pi i x^2\right) \\
v_2&= \frac{1}{3+\pi i} \left((6+6\pi i)x-6\pi i x^2 \right) \\
v_3&= \frac{1}{3+\pi i} \left( -4\pi^2 x+6\pi^2x^2 \right).
\end{align*}

$\square$

Fórmula de interpolación de Lagrange

La teoría de dualidad tiene amplias aplicaciones. Con ella se puede probar un resultado clásico: podemos construir un polinomio de grado $n$ que pase por $n+1$ puntos que nosotros queramos. En el siguiente ejercicio vemos los detalles.

Problema. (Interpolación de Lagrange) Sea $V=\mathbb{R}_n[X]$ el espacio vectorial de polinomios de grado a lo más $n$ con coeficientes reales. Sean $x_0,\dots,x_n$ números reales distintos. Para $0\leq i \leq n$ definimos $$L_i(x)=\prod_{0\leq j\leq n, j\neq i} \frac{x-x_j}{x_i-x_j}.$$

  1. Demuestra que $L_i(x_j)=\delta_{ij}$ para todo $1\leq i,j \leq n$, donde $\delta_{ij}$ es igual a 1 si $i=j$ y es igual a 0 si $i\neq j$.
  2. Prueba que $L_0,\dots,L_n$ forman una base de $V$.
  3. Encuentra la base dual de $L_0,\dots,L_n$.
  4. Prueba la Fórmula de Interpolación de Lagrange: para todo $P\in V$ tenemos que $$P=\sum_{i=0}^n P(x_i)L_i.$$
  5. Demuestra que para cualquiera $b_0,\dots,b_n \in\mathbb{R}$, podemos encontrar un único polinomio $P\in V$ tal que $P(x_i)=b_i$ para todo $0\leq i \leq n$. Este polinomio $P$ es llamado el polinomio de interpolación de Lagrange asociado a $b_0,\dots,b_n$.

Solución. (1) Si $j\neq i$, entonces $$L_i(x_j)=\frac{x_j-x_j}{x_i-x_j}\cdot\prod_{k\neq j,i} \frac{x_j-x_k}{x_i-x_k}=0.$$ Por otro lado si $i=j$, $$L_i(x_j)=L_i(x_i)=\prod_{k\neq i} \frac{x_i-x_k}{x_i-x_k} =1 .$$

(2) Dado que $\text{dim}(V)=n+1$, cuya base canónica es $1,x,\ldots,x^n$ y $L_0,\dots,L_n$ son $n+1$ vectores, para probar que son base, basta con demostrar que son linealmente independientes. Sean $a_0,\dots,a_n$ tales que $a_0L_0+\dots+a_nL_n=0$. Evaluando en $x_i$ y usando el inciso anterior, tenemos que $$0=\sum_{j=0}^n a_jL_j(x_i)=\sum_{j=0}^n a_j\delta_{ij}=a_i,$$ pero esto pasa cualquier $0\leq i \leq n$. Por lo tanto $L_0,\dots,L_n$ son linealmente independientes, y por consiguiente, son base de $V$.

(3) Por definición de la base dual $L_i^*(L_j)=\delta_{ij}$, y por el inciso (a) tenemos que $L_j(x_i)=\delta_{ij}$, entonces $L_i^*(L_j)=L_j(x_i)$, para toda $i,j$. Ahora, fijamos $i$. Dado que $L_0,\dots, L_n$ forman una base de $V^\ast$ y dado que $L_i^*$ es lineal, para todo polinomio $P$ en $V$, escrito en términos de la base como $$P(x)=a_0L_0+a_1L_1+\ldots+a_nL_n,$$ tenemos que
\begin{align*}
L_i^*(P)&=a_0L_i^*(L_0)+\ldots+a_nL_i^\ast(L_n)\\
&=a_0L_0(x_i)+\ldots+a_nL_n(x_i)\\
&=P(x_i).
\end{align*}

Por lo tanto la base dual es $L_i^*=\text{ev}_{x_i}$. Dicho de otra forma, la $i$-ésima forma coordenada consiste en evaluar en $x_i$.

(4) Sabemos que la base dual satisface que $$P=\sum_{i=0}^n \langle L_i^*,P \rangle L_i.$$ Pero por el inciso anterior, $\langle L_i^*,P\rangle =L_i^*(P)=P(x_i)$, entonces $P=\sum_i P(x_i)L_i$.

(5) Definimos $P=\sum_{i=0}^n b_iL_i$. Por el inciso (1), tenemos que $$P(x_j)=\sum_i b_iL_i(x_j)=\sum_i b_i\delta_{ij}=b_j.$$ Entonces el polinomio existe. Falta probar la unicidad.

Suponemos que existe $Q\in V$ tal que $Q(x_i)=b_i$ para todo $i$. Notemos que $P-Q$ es un polinomio de grado a lo más $n$ (por definición) y $(P-Q)(x_i)=0$ para todo $i$, esto implica que $P-Q$ tiene $n+1$ raíces distintas, lo cual es imposible si $P-Q \neq 0$, por lo tanto, $P-Q=0$, es decir $P=Q$.

$\square$

El último argumento viene de la teoría de polinomios. Puedes repasarla en otro curso que tenemos en el blog. Observa que este problema también se satisface para los polinomios con coeficientes complejos, $V=\mathbb{C}_n[X]$. Intenta reproducir la demostración por tu cuenta.

Expresar integral como suma de evaluaciones

Terminamos esta entrada con el siguiente problema. El enunciado no menciona dualidad, pero podemos usar la teoría desarrollada hasta ahora para resolverlo.

Problema. Sean $x_0,x_1,x_2\in [0,1]$, y sea $V=\mathbb{R}_2[X]$. Definimos el mapeo $$l(P)=\int_0^1 P(x)e^{-x} dx.$$ Demuestra que $l$ es una forma lineal en $V$ y prueba que existe una única tercia $(a_0,a_1,a_2)$ de números reales tales que para todo polinomio $P$ en $V$ se cumple que $$\int_0^1 P(x)e^{-x}dx=a_0P(x_0)+a_1P(x_1)+a_2P(x_2).$$

Solución. Debido a las propiedades de la integral, es fácil ver que $l$ es lineal, ya que

\begin{align*}
l(aP+Q)&=\int_0^1 (aP(x)+Q(x))e^{-x} dx \\
&= a\int_0^1 P(x)e^{-x}dx+\int_0^1 Q(x)e^{-x}dx \\
&=al(P)+l(Q).
\end{align*}

Usando el problema anterior, tenemos que $L_0^*=\text{ev}_{x_0}$, $L_1^*=\text{ev}_{x_1}$ y $L_2^*=\text{ev}_{x_2}$ forman una base de $V$. Por lo tanto existen $(a_0,a_1,a_2)$ tales que $l=a_0L_0^*+a_1L_1^*+a_2L_2^*.$ Entonces

\begin{align*}
\int_0^1 P(x)e^{-x}&=l(P)=a_0L_0^*(P) + a_1L_1^*(P) + a_2L_3^*(P) \\
&= a_0P(x_0) + a_1P(x_1) + a_2P(x_2).
\end{align*}

Es fácil ver que es única esa tercia, ya que, si existiera otra $(b_0,b_1,b_2)$ tal que $$l=b_0L_0^*+b_1L_1^*+b_2L_2^*,$$ esto implica que $$0=(a_0-b_0)L_0^*+(a_1-b_1)L_1^*+(a_2-b_2)L_2^*,$$ y dado que $L_i^*$ son una base, tendríamos $a_i=b_i$ para $i=0,1,2$.

$\square$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Superior II: Simplificación, suma y producto de complejos

Por Claudia Silva

Introducción

En una entrada de blog anterior, construimos el campo de los números complejos y definimos sus operaciones básicas. Ahora resolveremos algunos problemas de operaciones con complejos.

Haremos dos tipos de problemas. El primer tipo se trata de simplificar expresiones en números complejos para que se vuelvan de la forma $x+yi$ con $x$ y $y$ números reales. El segundo tipo es de realizar operaciones de suma, resta, producto y división de complejos, y luego simplificar.

Simplificación de expresiones complejas

Comenzamos con un vídeo de simplificar expresiones de números complejos.

Expresar en la forma $a+bi$ las expresiones…

Problemas de operaciones con complejos

Ahora vemos varios ejemplos de realizar sumas con números complejos.

Sumar números complejos

En todos los ejemplos del vídeo, realizamos sólo sumas de dos números, pero se podrían realizar sumas con cualquier cantidad de sumandos. Por ejemplo, podemos considerar la suma $$(5+2i)+(8+i)-(1-7i).$$ ¿Cuál sería el resultado de esta operación?

Finalmente, a continuación se muestra un vídeo en donde se realizan operaciones de productos y de divisiones de números complejos.

Productos y divisiones de números complejos

En el vídeo se define al conjugado del número complejo $z=a+bi$, que se denota por $\overline{z}$ y se obtiene de cambiarle el signo a la parte imaginaria. Por ejemplo, $\overline{4-5i}=4+5i$. Si multiplicas a un número complejo $a+bi$ por su conjugado, obtienes el real $a^2+b^2$. Esto es útil para quitar las partes imaginarias de los denominadores de expresiones fraccionales con complejos.

Más ejemplos y práctica extra

En otro curso, el Seminario de Resolución de Problemas, escribimos una entrada de cómo se pueden usar los números complejos para la resolución de problemas matemáticos. Ahí hay teoría más avanzada, pero puedes echarle un ojo para que veas lo que veremos más adelante en el curso.

En la página de Khan Academy en Español, puedes aprender más acerca de los números complejos, así como hacer muchos ejercicios de práctica.

Más adelante…

Tarea moral

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»