Archivo de la etiqueta: norma

Álgebra Lineal I: Aplicaciones de bases ortogonales y descomposición de Fourier

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada continuamos hablando de bases ortogonales. Como recordatorio, para poder hablar de esto, necesitamos un espacio vectorial sobre R equipado con un producto interior, y por lo tanto podemos hablar de normas. Una base ortogonal de V es una base en la cual cada par de vectores tiene producto interior 0. Es ortonormal si además cada elemento es de norma 1. Ahora veremos que dada una base ortonormal, podemos hacer una descomposición de Fourier de los vectores de V, que nos permite conocer varias de sus propiedades fácilmente.

La teoría que discutiremos está basada en el contenido de la Sección 10.5 del libro Essential Lineal Algebra with Applications de Titu Andreescu. Las últimas dos secciones de esta entrada son un poco abstractas, pero son la puerta a ideas matemáticas interesantes con muchas aplicaciones dentro de la matemática misma y en el mundo real.

Descomposición de Fourier

Es fácil conocer las coordenadas de un vector en términos de una base ortonormal.

Teorema. Si V es un espacio Euclideano de dimensión n con producto interior , y B={e1,,en} es una base ortonormal con este producto interior, entonces para cualquier vector v, la coordenada de v con respecto a ei es v,ei.

Demostración. Expresemos a v en la base B como v=α1e1++αnen.

Tomemos j en 1,2,,n. Usando la linealidad del producto interior, tenemos que
v,ej=i=1nαiei,ej=i=1nαiei,ej.

Como B es base ortonormal, tenemos que en el lado derecho ej,ej=1 y que si ij entonces ei,ej=0. De esta forma, el lado derecho de la expresión es αj, de donde concluimos que v,ej=αj, como queríamos.

◻

Definición. Si V es un espacio Euclideano de dimensión n con producto interior , y B={e1,,en} es una base ortonormal, a v=i=1nv,eiei le llamamos la descomposición de Fourier de v con respecto a B.

Ejemplo. Trabajemos en el espacio vectorial V=R2[x] de polinomios reales de grado a lo más 2. Ya mostramos anteriormente (con más generalidad) que p,q=p(1)q(1)+p(0)q(0)+p(1)q(1) es un producto interior en V.

Los polinomios 13, x2 y 3x226 forman una base ortonormal, lo cual se puede verificar haciendo las operaciones y queda de tarea moral. ¿Cómo expresaríamos a la base canónica {1,x,x2} en términos de esta base ortonormal? Los primeros dos son sencillos:
(1)1=313(2)x=2x2.

Para encontrar el tercero, usamos el teorema de descomposición de Fourier. Para ello, calculamos los siguientes productos interiores:

x2,13=23,x2,x2=0,x2,3x226=26.

De este modo, x2=2313+263x226.

Norma usando la descomposición de Fourier

Cuando tenemos bases ortogonales u ortonormales, también podemos calcular la norma de un vector fácilmente.

Teorema. Si V es un espacio Euclideano de dimensión n con producto interior , y B={e1,,en} es una base ortogonal con este producto interior, entonces para cualquier vector v=α1e1++αnen, tenemos que v2=i=1nαi2ei2.

En particular, si B es una base ortonormal, entonces v2=i=1nv,ei2.

Demostración. Usando la definición de norma y la bilinealidad del producto interior, tenemos que
v2=v,v=i=1nj=1nαiαjei,ej.

Como B es base ortogonal, los únicos sumandos que quedan a la derecha son aquellos en los que i=j, es decir,
v2=i=1nαi2ei,ei=i=1nαi2ei2

como queríamos mostrar.

Si B es base ortonormal, cada ei2 es 1, y por el teorema anterior, αi=v,ei. Esto prueba la última afirmación.

◻

Ejemplo. Continuando con el ejemplo anterior, como ya escribimos a x2 en términos de la base ortogonal, podemos encontrar fácilmente su norma. Tendríamos que
x22=(23)2+(26)2=43+46=2.

De esta forma, x2=2. En efecto, esto es lo que obtendríamos si hubiéramos calculado la norma de x2 con la definición.

Aplicación de descomposición de Fourier a polinomios

Vamos a continuar con un ejemplo que vimos en la entrada anterior. Recordemos que estábamos trabajando en V=Rn[x], que habíamos elegido n+1 reales distintos x0,,xn, y que a partir de ellos definimos P,Q=i=0nP(xi)Q(xi). Mostramos que , es un producto interior y que para j=0,,n los polinomios Li=0jn,jixxjxixj forman una base ortonormal de V.

Por el teorema de descomposición de Fourier, tenemos que cualquier polinomio P de grado a lo más n+1 con coeficientes reales satisface que P=i=0nP,LiLi, lo cual en otras palabras podemos escribir como sigue.

Teorema (de interpolación de Lagrange). Para P un polinomio con coeficientes en los reales de grado a lo más n y x0,x1,,xn reales distintos, tenemos que P(x)=i=0nP(xi)(0jn,jixxjxixj).

El teorema de interpolación de Lagrange nos permite decir cuánto vale un polinomio de grado n en cualquier real x conociendo sus valores en n+1 reales distintos. Ya habíamos mostrado este teorema antes con teoría de dualidad. Esta es una demostración alternativa con teoría de bases ortogonales y descomposición de Fourier.

Aplicación de ideas de Fourier en funciones periódicas

También ya habíamos visto que f,g=ππf(x)g(x)dx define un producto interior en el espacio vectorial V de funciones f:RR continuas y periódicas de periodo 2π.

En ese ejemplo, definimos Cn(x)=cos(nx)πSn(x)=sin(nx)π. y C0(x)=12π, y mostramos que F:={Cn:n0}{Sn:n1} era un conjunto ortonormal.

No se puede mostrar que F sea una base ortonormal, pues el espacio V es de dimensión infinita, y es bastante más complicado que los espacios de dimensión finita. Sin embargo, la teoría de Fourier se dedica a ver que, por ejemplo, la familia F es buena aproximando a elementos de V, es decir a funciones continuas y periódicas de periodo 2π. No profundizaremos mucho en esto, pero daremos algunos resultados como invitación al área.

Para empezar, restringimos a la familia F a una familia más pequeña:

Fn:={Cm:0mn}{Sm:1mn}

Motivados en la descomposición de Fourier para espacios Euclideanos, definimos a la n-ésima serie parcial de Fourier de una función f en V a la expresión Sn(f)=gFnf,gg. Haciendo las cuentas, se puede mostrar que Sn(f)=a0(f)2+k=1n(ak(f)cos(kx)+bk(f)sin(kx)), en donde para k1 tenemos ak=1πππf(x)cos(kx)dx y bk=1πππf(x)sin(kx)dx.

A los números ak y bk se les conoce como los k-ésimos coeficientes de Fourier. Aunque F no sea una base para V, sí es buena «aproximando» a elementos de V. Por ejemplo, un resultado lindo de Dirichlet dice que si f y su derivada son continuas, entonces limnSn(f)(x)=f(x). Este tipo de teoremas de aproximación se estudian con más a detalle en un curso de análisis matemático avanzado o de análisis de Fourier.

Considera ahora Wn el subespacio de V generado por Fn. Tomemos una función f cualquiera en V. La n-ésima serie de Fourier de f es un elemento de Wn. De hecho, es precisamente la proyección de f en Wn. Por esta razón, fn2f2<

Podemos calcular la norma de fn, usando el resultado para espacios Euclideanos en el espacio (de dimensión finita) Wn. Haciendo esto, podemos reescribir la desigualdad anterior como sigue:

a0(f)22+k=1n(ak(f)2+bk(f)2)1πf2.

El lado derecho es constante, y en el lado izquierdo tenemos una suma parcial de la serie k1(ak(f)2+bk(f)2). Los términos son positivos y la sucesión de sumas parciales es acotada, así que la serie converge. Entonces, necesariamente la sucesión de términos debe converger a cero. Acabamos de esbozar la demostración del siguiente teorema.

Teorema (de Riemann-Lebesgue). Sea f una función continua y de periodo 2π. Si an(f) y bn(f) son los coeficientes de Fourier de f, entonces limnan(f)=limnbn(f)=0.

De hecho, se puede mostrar que la desigualdad que mostramos se convierte en igualdad cuando n. Este es un resultado bello, profundo y cuya demostración queda fuera del alcance de estas notas.

Teorema (de Plancherel). Sea f una función continua y de periodo 2π. Si an(f) y bn(f) son los coeficientes de Fourier de f, entonces a0(f)22+k=1(ak(f)2+bk(f)2)=1πππf(x)2dx.

Aunque no daremos la demostración de este resultado, en una entrada posterior veremos cómo podemos aplicarlo.

Más adelante…

En esta entrada seguimos estudiando las bases ortogonales. Usamos este concepto para hacer una descomposición de Fourier, para conocer propiedades de V y obtener otra manera de calcular la norma de un vector. Así mismo, vimos aplicaciones de la descomposición a polinomios, viendo el teorema de la interpolación de Lagrange ya previamente demostrado mediante teoría de dualidad.

Hasta ahora solo hemos hablado de cómo ver si una base es ortonomal y algunas propiedades de estas bases y conjuntos, en la siguiente entrada hablaremos de un método pata encontrar estas bases ortonormales usando el proceso de Gram-Schmidt.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Verifica que los tres polinomios del ejemplo de descomposición de Fourier en efecto forman una base ortogonal.
  • Calcula la norma de x2 con el producto interior del ejemplo de descomposición de Fourier usando la definición, y verifica que en efecto es 2.
  • Con la misma base ortonormal B de ese ejemplo, calcula las coordenadas y la norma del polinomio 1+x+x2.
  • Verifica que todo lo que mencionamos se cumple con el producto punto en Rn y con la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Superior II: Raíces en los complejos y raíces de la unidad.

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada veremos cómo resolver, en C, la ecuación wn=z, en donde z es un complejo y n es un entero positivo. Puedes pensar esto como que aprenderemos a obtener raíces en los complejos, pero sólo para n entero. Más adelante hablaremos de la función exponencial compleja que nos permitirá elevar a otro tipo de exponentes.

Nuestra herramienta principal será la fórmula de De Moivre, que ya demostramos en una entrada anterior. Encontrar raíces n-ésimas es una herramienta más en nuestra caja para trabajar con números complejos, que hasta el momento ya incluye resolver ecuaciones cuadráticas complejas y sistemas de ecuaciones lineales complejos.

Introducción a raíces en los complejos

Pensemos en un ejemplo sencillo. ¿Cuáles son los complejos w tales que w4=1? En R tenemos dos de ellos: 1 y 1. Como (i)4=i4=(1)2=1, en C tenemos otras dos soluciones: i y i. Así que tenemos 4 soluciones en C: 1, 1, i y i.

Para mostrar que son las únicas en este sencillo caso, podemos hacer lo siguiente. Expresamos 1 en forma polar 1=cis(0) y también, en forma polar, una solución w=scis(α), con θ en [0,2π). Por el teorema de De Moivre, tenemos que 1=w4=s4cis(4α).

Así, la norma s de w debe satisfacer s4=1, y además cis(4α) debe ser 1, por lo que 4α debe ser un múltiplo entero de 2π. La norma es un real positivo, así que la única solución para s es 1. Ahora, ¿cuántos argumentos α en [0,2π) hacen que 4α sea un múltiplo entero de 2π?

Para determinar esto, notemos que 4α está en [0,8π), y ahí hay exactamente cuatro múltiplos enteros de 2π, que son 0,2π,4π,6π. Esto es justo lo que limita las soluciones a que sean a lo más 4.

Podemos continuar para verificar que en efecto son las soluciones que ya encontramos. Las soluciones para α en cada caso son 0,π2,π,3π2. Concluimos entonces que las soluciones complejas de w4=1 son, en forma polar,
w1=cis(0)w2=cis(π2)w3=cis(π)w4=cis(3π2),

que son exactamente 1,i,1,i.

El teorema de raíces en los complejos

La discusión anterior funciona en general para cualquier entero positivo n y para cualquier complejo C. Siempre tenemos exactamente n soluciones y sabemos cómo se ven en forma polar.

Teorema. Sea z=rcis(θ) un número complejo, distinto de cero, dado en forma polar y n un entero positivo. Existen exactamente n elementos distintos de C tales que wn=z. Están dados en forma polar por wj=r1/ncis(θn+j2πn) para j=0,1,2,n1.

Demostración. Tomemos una solución w y la escribimos en forma polar w=scis(α), con α en [0,2π). Usando que w es solución y la fórmula de De Moivre, obtenemos que rcis(θ)=sncis(nα). Como s tiene que ser real positivo, obtenemos que s=r1/n (aquí estamos usando la raíz n-ésima en los reales).

El ángulo nα está en el intervalo [0,2nπ), y debe diferir en un múltiplo entero de 2π del ángulo θ. Como θ está en [0,2π), las únicas posibilidades para nα pueden ser los n valores θ,θ+2π,,θ+2(n1)π, de donde las soluciones para α son θn,θn+2πn,,θn+(n1)2πn, respectivamente. Como son ángulos distintos en [0,2π), obtenemos las posibles soluciones distintas r1/ncis(θn+j2πn)para j=0,,n1.

Verificar que en efecto son soluciones es sencillo, ya sea revirtiendo los pasos que hicimos, o usando directamente la fórmula de De Moivre. Esta verificación queda como tarea moral.

◻

Observa que el teorema dice que para obtener una raíz podemos empezar del complejo de norma r1/n y argumento θn, y de ahí obtener el resto de las raíces en los complejos «rotando repetidamente 2πn en el plano complejo». Esto muestra que las raíces forman los vértices de un n-ágono regular.

Nos costó un poco de trabajo mostrar que teníamos a lo más n soluciones. En realidad, cualquier ecuación polinomial de grado n, es decir, de la forma anxn+an1xn1++a1x+a0=0 tiene a lo más n soluciones. Esto lo veremos con toda generalidad en la última unidad, cuando hablemos de polinomios.

Ejemplos de obtener raíces en los complejos

Ejemplo. Encontremos todas las raíces séptimas del complejo 128cis(14π13). Para empezar, notemos que 1281/7=2, de modo que todas las raíces tienen norma 2.

Una de las raíces tiene argumento 14π713=2π13 y el argumento del resto difiere en múltiplos enteros de 2π7. De esta forma, las raíces son

w1=2cis(2π13)w2=2cis(2π13+2π7)=2cis(40π91)w3=2cis(2π13+4π7)=2cis(66π91)w4=2cis(2π13+6π7)=2cis(92π91)w5=2cis(2π13+8π7)=2cis(118π91)w6=2cis(2π13+10π7)=2cis(144π91)w7=2cis(2π13+12π7)=2cis(170π91).

Problema. Sabemos que (23i)4=119+120i. Encuentra las otras raíces cuartas de 119+120i.

Solución. Podríamos pasar 119+120i a forma polar y usar el método anterior. Esto funciona y dará una solución. Pero veamos una solución alternativa más corta, que nos ayuda a entender mejor el teorema de raíces en los complejos.

De acuerdo con lo que probamos, las raíces varían únicamente en argumento, al que se le va sumando π2. Es decir, si tenemos una raíz en el plano complejo, las demás se obtienen de ir rotando π2 (recuerda que esto es 90) desde el origen. Al ir rotando el punto (2,3) en el plano complejo en este ángulo, obtenemos los puntos (3,2), (2,3) y (3,2), de modo que las otras tres raíces son 32i, 2+3i y 3+2i.

Otra forma más de pensarlo es la siguiente. Si ya tenemos una raíz cuarta w de un complejo z, entonces todas las raíces se obtienen multplicando por 1,i,1,i. En efecto, por ejemplo, (iw)4=i4w4=w4=1. Así, para el problema que nos interesa, las soluciones son

w1=23iw2=i(23i)=3+2iw3=(23i)=2+3iw4=i(23i)=32i,
lo cual coincide con lo que habíamos encontrado antes.

Raíces n-ésimas de la unidad

Un caso particular importante de la teoría desarrollada en la sección anterior es cuando z es 1. Sea n un entero positivo y w un complejo tal que wn=1. A w se le conoce como una raíz n-ésima de la unidad.

Teorema (de las raíces n-ésimas de la unidad). Sea n un entero positivo. Existen exactamente n raíces n-ésimas de la unidad distintas. Si ω es la que tiene el menor argumento positivo, entonces dichas raíces son 1,ω,ω2,,ωn1.

La demostración se sigue fácilmente del teorema de raíces n-ésimas y queda como tarea moral. Cualquier raíz n-ésima ω tal que sus primeras potencias generen todas las raíces n-ésimas de la unidad se le conoce como una raíz primitiva.

Las raíces n-ésimas de la unidad tienen una interpretación geométrica bonita. Forman los vértices del n-ágono regular con n vértices, sobre la circunferencia unitaria, donde uno de los vértices es 1.

Ejemplo. Obtengamos las raíces quintas de la unidad. Primero, obtengamos la de menor argumento positivo, que por el teorema de raíces en los complejos, es ω=cis(2π5). El resto de las raíces son entonces ω2, ω3, ω4 y 1. Las podemos encontrar en el plano complejo como vértices del siguiente pentágono regular:

Ejemplo de raíces en los complejos: raíces quintas de la unidad
Raíces quintas de la unidad

Cualquiera de ω, ω2, ω3 y ω4 son raíces primitivas, pero 1 no es raíz primitiva pues sus potencias sólo son él mismo.

Las raíces n-ésimas de la unidad se utilizan en muchos contextos. Aunque se puede trabajar con ellas de forma explícita, muchas veces se utilizan sólo las propiedades algebraicas que cumplen. A continuación enunciamos algunas.

Teorema. Sea ω una raíz primitiva n-ésima de la unidad. Las raíces n-ésimas de la unidad ωi=ωi para i=0,,n1 satisfacen las siguientes propiedades:

  • Para n>1, se tiene que ω0++ωn1=0.
  • Para k=0,1,,n1, se tiene que (ωk)1=ωk=ωnk.
  • Se tiene que ω0ωn1=(1)n+1.

Demostración. Empezamos con el primer inciso. Si n>1, tenemos que 1 no es raíz primitiva, así que para el primer inciso sabemos que ω1. Usamos la fórmula para suma de términos en una progresión geométrica:
ω0+ω1++ωn1=1+ω++ωn1=1ωn1ω=111ω=0.

Para la segunda parte, notemos que ωkωnk=ωkωnk=ωn=1, lo cual prueba una de las igualdades. La otra igualdad se sigue del hecho general que el inverso de un complejo de norma 1 es su conjugado, cuya demostración queda como tarea moral.

La tercera parte se sigue de la propiedad anterior. Al multiplicar todas las raíces de la unidad, podemos emparejar a cada raíz con su conjugado para obtener producto 1. Las únicas excepciones es cuando emparejamos a un complejo consigo mismo, es decir, para cuando ωk=ωk, lo cual sucede sólo cuando ωk es real. Las únicas posibilidades son 1 ó 1. El 1 no tiene problema pues colabora con un factor 1. Si n es impar, 1 no es raíz n-ésima, así que no contribuye al producto. Si n es par sí. Esto muestra lo que queremos pues (1)n+1 es 1 si n es impar y 1 si es par.

◻

Para un entero positivo n, llamemos (Un,) al conjunto de raíces n-ésimas de la unidad equipadas con el producto complejo.

Teorema. Para cada entero positivo n, se tiene que (Un,) es un grupo y es isomorfo a (Zn,+).

Demostración. El producto de cualesquiera dos raíces n-ésimas es también una raíz n-ésima. Por el teorema anterior, los inversos multiplicativos de las raíces n-ésimas también son raíces n-ésimas. Esto basta para mostrar que se forma un grupo.

Para la segunda parte, notamos que ambos grupos son el grupo cíclico de n elementos. Una correspondencia entre ellos está dada por mandar [1]n a cualquier raíz primitiva.

◻

Más adelante…

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra las raíces cúbicas de 88i y dibújalas en el plano complejo.
  2. Verifica que las soluciones obtenidas en el teorema de raíces n-ésimas en efecto son soluciones.
  3. Muestra el teorema de las raíces n-ésimas de la unidad.
  4. Prueba que si z es un complejo de norma 1, entonces su inverso es su conjugado.
  5. Sea ω una raíz n-ésima primitiva de la unidad. Muestra que wk es una raíz primitiva si y sólo si n y k son primos relativos, es decir, MCD(n,k)=1. Sugerencia: Usa lo que sabemos de soluciones a ecuaciones diofantinas lineales.
  6. Encuentra de manera explícita la parte real y la parte imaginaria de todas las raíces quintas de la unidad.
    Sugerencia: La ecuación w51=0 se puede factorizar como (w1)(w4+w3+w2+w+1) y w4+w3+w2+w+1 se puede factorizar como (w2+1+52w+1)(w2+152w+1). Usa lo que sabemos de resolver ecuaciones cuadráticas cojmplejas.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Álgebra Lineal I: Bases ortogonales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Como ya discutimos en las entradas anteriores, si tenemos un espacio vectorial V con producto interior, entonces podemos definir varias nociones geométricas en V, como ángulos, norma y distancia. Ahora vamos a definir una noción muy útil en álgebra lineal: la de bases ortogonales. Para ello, combinaremos las nociones de bases y producto interior.

Las bases ortogonales no sólo tienen aplicaciones en álgebra lineal. También son el punto de partida de muchos conceptos matemáticos avanzados. Un primer ejemplo es el análisis de Fourier, que estudia cómo aproximar funciones mediante funciones trigonométricas y que tiene aplicaciones en el mundo real en análisis de señales. Otro ejemplo es la vasta teoría de polinomios ortogonales, con aplicaciones en el mundo real en aproximación e integración numérica.

En estas entradas de bases ortogonales tomaremos espacios vectoriales sobre R con un producto interior ,.

Conjuntos ortogonales y ortonormales

Comenzamos con la siguiente definición. Recuerda que V es un espacio vectorial sobre R con producto interior, así que induce una norma .

Definición. Sea S un conjunto de vectores en V. Decimos que S es

  • Ortogonal si cualquier par de vectores distintos de S es ortogonal, es decir, si para todo v,w en S, con vw se tiene que v,w=0.
  • Ortonormal si es ortogonal, y además todo vector de S tiene norma 1.

En otras palabras, S es ortonormal si para todo v en S se tiene v,v=1 y para v y w en S distintos se tiene v,w=0.

Ejemplo. Si tomamos a Rn con el producto punto, entonces la base canónica es un conjunto ortonormal pues, en efecto, eiei=1 y para ij se tiene eiej=0.

Todo conjunto de un sólo elemento es ortogonal, pues no hay nada que probar. Otro conjunto ortonormal en R2 es el conjunto que sólo tiene al vector (35,45), pues este es un vector de norma 1.

Los vectores (1,1,0), (1,1,0) y (0,0,1) forman otro conjunto ortogonal en R3, pues en efecto
(1,1,0)(1,1,0)=11=0(1,1,0)(0,0,1)=0(0,0,1)(1,1,0)=0.

Sin embargo, este no es un conjunto ortonormal, pues la norma de (1,1,0) es 21. Si normalizamos a cada vector, es decir, si lo dividimos entre su norma, entonces obtenemos los vectores ortonormales (1/2,1/2,0), (1/2,1/2,0) y (0,0,1).

Propiedades de conjuntos ortogonales y ortonormales

Todo conjunto ortogonal de vectores no nulos se puede normalizar como en el ejemplo de la sección anterior para obtener un conjunto ortonormal. Es decir, si S es un conjunto de vectores distintos de 0, entonces S={vv:vS} es un conjunto ortonormal.

Una propiedad fundamental de los conjuntos ortonormales de vectores es que son linealmente independientes. Se puede probar algo un poco más general.

Proposición. Si S es un conjunto ortogonal de vectores no nulos, entonces los elementos de V son linealmente independientes.

Demostración. Tomemos v1,,vn elementos de S y supongamos que existen α1,,αn escalares tales que v:=i=1nαivi=0.

Tomemos un índice j en 1,,n y hagamos el producto interior v,vj. Por un lado, como v=0, este produto es 0. Por otro lado, por linealidad es i=1nαivi,vj.

Cuando ij, el sumando correspondiente es igual a 0. De este modo, el único sumando no cero es cuando i=j, el cual es αjvj,vj. De estos argumentos, deducimos que αjvj,vj=0. Como los vectores son no nulos, se tiene que vj,vj0. Así, αj=0 para todo j=1,,n, lo cual muestra que los vectores son linealmente independientes.

◻

Como cada elemento de un conjunto ortonormal tiene norma 1, entonces no puede ser nulo, así que como corolario de la proposición anterior, todo conjunto ortonormal es linealmente independiente. Otro corolario es el siguiente.

Corolario. En un espacio Euclideano de dimensión d, los conjuntos ortogonales sin vectores nulos tienen a lo más d elementos.

Bases ortogonales y ortonormales

Cuando una base de un espacio vectorial es ortogonal (o bien, ortonormal), pasan varias cosas buenas. Esto amerita una definición por separado.

Definición. Sea S un conjunto de vectores en V. Decimos que S es

  • Una base ortogonal si S es una base de V y es un conjunto ortogonal.
  • Una base ortonormal si S una base de V y es un conjunto ortonormal.

Ejemplo. En Rn la base canónica es una base ortonormal.

En R2 el conjunto S={(2,3),(9,6)} es un conjunto ortogonal. Además, se puede verificar fácilmente que son dos vectores linealmente independientes. De este modo, S es una base ortogonal.

Sin embargo, S no es una base ortonormal pues el primero de ellos tiene norma 22+32=13. Si quisiéramos convertir a S en una base ortonormal, podemos normalizar a cada uno de sus elementos.

En la sección anterior vimos que los conjuntos ortonormales son linealmente independientes. Otro corolario de este resultado es lo siguiente.

Corolario. En un espacio Euclideano de dimensión n, un conjunto ortonormal de n vectores es una base ortonormal.

La importancia de las bases ortogonales yace en que dada una base ortonormal B y un vector v, podemos encontrar varias propiedades de v en términos de B fácilmente. Por ejemplo, veremos más adelante que:

  • Las coordenadas de v con respecto a la base B son sencillas.
  • Hay una fórmula simple para la norma de v en términos de sus coordenadas en la base B.
  • Si B es una base de un subespacio W de V, entonces es fácil encontrar la distancia de v a W.

Mejor aún, las bases ortonormales siempre existen.

Teorema. Todo espacio Euclideano tiene una base ortonormal.

Es decir, sin importar qué espacio vectorial real de dimensión finita tomemos, y sin importar qué producto punto le pongamos, podemos dar una base ortogonal. De hecho, veremos un resultado un poco más fuerte, que nos dará un procedimiento para encontrar dicha base, incluso imponiendo restricciones adicionales.

Ejemplo de bases ortogonales en polinomios

Ejemplo. Tomemos Rn[x] el espacio de polinomios de grado a lo más n con coeficientes reales. Además, tomemos números reales distintos x0,,xn. A partir de estos reales podemos definir la operación P,Q=j=0nP(xj)Q(xj), la cual es claramente bilineal y simétrica.

Tenemos que P,P es una suma de cuadrados, y por lo tanto es no negativa. Además, si P,P=0, es porque j=0nP(xj)2=0, y como estamos trabajando en R esto implica que cada sumando debe ser cero. Pero las igualdades P(x0)==P(xn)=0 dicen que los n+1 reales distintos xi son raíces de P, y como P es de grado a lo más n, tenemos que P es el polinomio 0. En resumen, , es un producto interior en Rn[x]. Vamos a dar una base ortogonal con respecto a este producto interior.

Para i=0,,n, consideremos los polinomios Li(x)=0kn,kixxkxixk. Observa que Lj(xj)=1 y si ji, tenemos Li(xj)=0. Afirmamos que B={Lj:j=0,,n+1} es una base ortonormal de Rn[x] con el producto interior que definimos. Como consiste de n+1 polinomios y dim(Rn[x])=n+1, basta con que veamos que es un conjunto ortonormal.

Primero, notemos que
Li,Li=j=0nLi(xj)2=Li(xi)2=1,

de modo que cada Li tiene norma 1.

Luego, notemos que si ij, entonces Li(xk)Lj(xk)=0 pues xk no puede ser simultáneamente xi y xj. De este modo,

Li,Lj=k=0nLi(xk)Lj(xk)=0.

Con esto mostramos que cada par de polinomios distintos es ortogonal. Esto termina la demostración de que B es base ortonormal.

◻

Ejemplo de conjuntos ortogonales en funciones periódicas

Ejemplo. Consideremos V el conjunto de funciones f:RR continuas y periódicas de periodo 2π. Definimos f,g=ππf(x)g(x)dx. Se puede mostrar que , así definido es un producto interior en V.

Para cada entero positivo n, definimos
Cn(x)=cos(nx)πSn(x)=sin(nx)π.

Además, definimos C0(x)=12π. Afirmamos que F:={Cn:n0}{Sn:n1} es un conjunto ortonormal de vectores. Mostremos esto.

Para empezar, notamos que C02=ππ12πdx=1.

Luego, tenemos que para n1 que
Cn2=ππ1πcos2(nx)dx=ππ1+cos(2nx)2πdx=1,

ya que para todo entero m0 se tiene que ππcos(mx)dx=0. De manera similar, usando la identidad sin2(nx)=1cos(nx)2, se puede ver que la norma de Sn es 1.

Para ver que las parejas de elementos distintas son ortogonales, tenemos varios casos. Si tomamos n1, el resultado para C0,Cn ó C0,Sn se deduce de que
ππcos(mx)dx=ππsin(mx)dx=0 para todo entero m0.

Si tomamos dos Ci’s distintos, dos Sis distintos o un Ci y un Si, el resultado se deduce de las fórmulas «producto a suma» de las funciones trigonométricas.

◻

Más adelante…

En esta entrada combinamos las nociones de bases y el producto interior, estudiadas en entradas anteriores, para definir a las bases ortogonales. Vimos algunas propiedades de conjuntos ortogonales y ortonormales, para extenderlos a bases ortogonales y ortonormales. Vimos unos ejemplos de bases ortogonales de los polinomios y otros ejemplos de conjuntos ortogonales en funciones periódicas.

En la siguiente entrada veremos aplicaciones de estos conceptos, culminando en una descomposición de Fourier.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Encuentra un conjunto ortogonal de vectores en R4 tal que ninguna de las entradas de ninguno de sus vectores sea igual a 0.
  • Escribe las demostraciones de los corolarios enunciados en esta entrada.
  • Muestra que , definido en el ejemplo de funciones periódicas es un producto interior.
  • Termina de mostrar que la familia F del ejemplo de funciones periódicas es ortonormal. Sugerencia: Usa identidades de suma y resta de ángulos para poner el producto de senos (o cosenos o mixto) como una suma de senos y/o cosenos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Ángulos, norma, distancia y desigualdad de Minkowski

Por Leonardo Ignacio Martínez Sandoval

Introducción

Estamos listos para hablar de varias nociones geométricas como ángulo, norma, distancia y de la desigualdad de Minkowski. Antes de hacer eso, hagamos un breve repaso de qué hemos hecho en estas últimas entradas.

Primero, hablamos de formas bilineales y de su formas cuadráticas asociadas. Segundo, vimos cómo a través de la identidad de polarización podemos asignar una única forma bilineal simétrica a una forma cuadrática. Finalmente, en la última entrada nos enfocamos en las formas bilineales simétricas que cumplían cierta condición de positividad.

En esa misma entrada definimos producto interior, que simplemente es una forma bilineal simétrica y positiva definida. También definimos la norma de un vector en un espacio con producto interior ,, que era x=x,x.

Finalmente, en la entrada anterior probamos la siguiente versión general de la desigualdad de Cauchy-Schwarz:

Teorema (desigualdad de Cauchy-Schwarz). Sea b:V×VR una forma bilineal simétrica y q su forma cuadrática asociada.

  • Si b es positiva, entonces para todo x y y en V tenemos que b(x,y)2q(x)q(y). Si x y y son linealmente dependientes, se da la igualdad.
  • Además, si b es positiva definida y x y y son linealmente independientes, entonces la desigualdad es estricta.

Ángulos

Fijemos V un espacio vectorial sobre los reales con producto interior. En la entrada anterior vimos que la desigualdad de Cauchy-Schwarz implica que para cualesquiera vectores x y y en V tenemos que |x,y|xy.

Si x y y son vectores distintos de cero, podemos reescribir la desigualdad anterior como 1x,yxy1. Esto justifica la siguiente definición.

Definición. Sean x y y vectores no nulos. Definimos al ángulo entre x y y como el único ángulo θ en el intervalo [0,π] tal que cosθ=x,yxy.

Observa que θ=π2 si y sólo si x,yxy=0. Esto ocurre si y sólo si x,y=0. Este caso es particularmente importante, y por ello recibe una definición especial.

Definición. Decimos que x y y son ortogonales si x,y=0.

Para empezar, veamos un ejemplo sencillo de ortogonalidad.

Ejemplo 1. Tomemos R5 con el producto interior canónico, es decir, el producto punto. Los vectores u=(1,0,4,0,5) y v=(0,3,0,2,0) tienen producto punto u,v=10+03+(4)0+0(2)+50=0, así que son ortogonales.

Ahora, veamos un ejemplo un poco más elaborado, del cálculo de un ángulo en un espacio vectorial de funciones.

Ejemplo 2. Anteriormente vimos que C[0,1] tiene un producto interior f,g=01f(x)g(x)dx. Calculemos el ángulo entre f(x)=x2 y g(x)=x3 con este producto interior. Primero, calculamos f y g como sigue
f2=01x4dx=15g2=01x6dx=17,

de donde f=15 y g=17.

Luego, calculamos
f,g=01f(x)g(x)dx=01x5dx=16.

Como esperaríamos por la desigualdad de Cauchy-Schwarz, tenemos la siguiente desigualdad:
f,g=16135=fg.

El ángulo entre f y g es entonces
θ=arccos(f,gfg)=arccos(1/61/35)=arccos(356).

Desigualdad de Minkowski

Hay una forma un poco distinta de escribir la desigualdad de Cauchy-Schwarz. La enunciamos a continuación.

Teorema (desigualdad de Minkowski). Sean x y y vectores de un espacio vectorial V con una forma cuadrática positiva q. Entonces q(x)+q(y)q(x+y).

Demostración. Sea b la forma polar de q. Recordemos que q(x+y)=q(x)+2b(x,y)+q(y).

Como q es forma cuadrática positiva, la desigualdad que queremos mostrar es equivalente a la siguiente desigualdad obtenida de elevar ambos lados al cuadrado:

q(x)+2q(x)q(y)+q(y)q(x+y)=q(x)+2b(x,y)+q(y).

Cancelando q(x)+q(y) de ambos lados y dividiendo entre 2, obtenemos la desigualdad equivalente
q(x)q(y)b(x,y).

Si b(x,y)<0, esta desigualdad es claramente cierta. Si b(x,y)0, esta desigualdad es equivalente a la obtenida de elevarla al cuadrado, es decir, q(x)q(y)b(x,y)2, que es precisamente la desigualdad de Cauchy-Schwarz.

◻

De producto interior a norma

Estamos listos para mostrar algunas propiedades importantes de la noción de norma que definimos para espacios vectoriales reales con producto interior.

Proposición. Sea V un espacio vectorial sobre R con producto interior con norma asociada . Se cumple que

  1. v0 para todo v en V, con igualdad si y sólo si v=0.
  2. cv=|c|v para todo v en V y real c.
  3. (Desigualdad del triángulo) v+wv+w para todo par de vectores v y w en V.

Demostración. Sea b el producto interior de V. El punto 1 se sigue de que b es positiva definida. El punto 2 se sigue de que b es bilineal, pues b(cv,cv)=c2b(v,v), de modo que cv=c2v=|c|v. El punto 3 es la desigualdad de Minkowski.

◻

En general, si tenemos un espacio vectorial V sobre los reales y una función :VR que satisface los puntos 1 a 3 de la proposición anterior, decimos que es una norma para V. Hay algunas normas que no se pueden obtener a través de un producto interior.

Ejemplo. Consideremos V=Mn(R). El producto de Frobenius de las matrices A y B está dado por A,B=tr(tAB). Se puede mostrar que el producto de Frobenius es un producto interior. La norma de Frobenius es la norma inducida por este producto, es decir, A=tr(tAA).

Por la desigualdad de Minkowski, tenemos que para cualesquiera dos matrices A y B tenemos que tr(t(A+B)(A+B))tr(tAA)+tr(tBB).

En particular, si tomamos a la identidad I, tenemos que su norma de Frobenius es n. Esto muestra la siguiente desigualdad, válida para cualquier matriz A en Mn(R):

tr((tA+I)(A+I))tr(tAA)+n.

De norma a distancia

Podemos pensar a la norma de un vector v como qué tan lejos está del vector 0. También nos gustaría poder hablar de qué tan lejos están cualesquiera dos vectores de un espacio vectorial con producto interior. Por esta razón, introducimos la siguiente definición.

Definición. Sea V un espacio vectorial sobre R con producto interior de norma . La distancia asociada a este producto interior es la función d:V×VR tal que d(x,y)=xy. A d(x,y) le llamamos la distancia entre x y y.

El siguiente resultado se sigue de las propiedades de la norma de un producto interior. Su demostración queda como tarea moral.

Proposición. Si V es un espacio vectorial sobre R con producto interior de distancia d, entonces:

  1. d(x,y)0 para todos x y y en V y es igual a 0 si y sólo si x=y.
  2. d(x,y)=d(y,x) para todos x y y en V.
  3. d(x,z)+d(z,y)d(x,y) para todos x, y y z en V.

En general, si tenemos cualquier conjunto X (no hace falta que sea un espacio vectorial), a una función d que satisface los puntos 1 a 3 de la proposición anterior se le conoce como una métrica para X. Cualquier norma en un espacio vectorial V (no sólo las de producto interior) induce una métrica en V. Sin embargo, hay métricas de espacios vectoriales que no vienen de una norma.

Más adelante…

Retomando conceptos ya definidos como la norma de un vector, en esta entrada vimos cómo encontrar el ángulo entre dos vectores no-nulos y se llegó a una forma natural de introducir la ortogonalidad entre dos vectores. Así mismo, se demostraron algunas propiedades de la norma asociada a un producto interior, siendo la última una forma distinta de expresar la desigualdad de Cauchy-Schwarz, usando la desigualdad de Minkowski. Finalmente, se definió el concepto de distancia entre dos vectores.

En entradas posteriores, usaremos estos conceptos para estudiar bases ortogonales, que tienen usos en conceptos matemáticos más avanzados como el análisis de Fourier o la teoría de polinomios ortogonales.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Toma R4 con el producto interior canónico (producto punto). Determina la norma de (3,4,0,1). Encuentra el ángulo entre los vectores (1,0,2,5) y (4,5,0,3).
  • Muestra que el producto de Frobenius es un producto interior en Mn(R).
  • Demuestra la proposición de propiedades de la distancia

Considera V=R3[x] el espacio vectorial de polinomios con coeficientes reales y grado a lo más 3. Definimos p,q=j=15p(j)q(j).

  • Muestra que , así definido es un producto interior.
  • Encuentra el ángulo entre los polinomios 1+x2 y 2x3x3.
  • Para cada entero positivo n, determina la norma del polinomio 1+nx3.
  • Determina la distancia entre los polinomios 1 y 1+x+x2+x3.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Producto interior y desigualdad de Cauchy-Schwarz

Por Leonardo Ignacio Martínez Sandoval

Introducción

Anteriormente, platicamos acerca de formas bilineales y de formas cuadráticas. Ahora veremos un tipo de formas bilineales especiales: las positivas y las positivas definidas. Las formas positivas definidas nos ayudan a definir qué es un producto interior. Esta es una noción fundamental que más adelante nos ayudará a definir distancias y ángulos.

Formas bilineales positivas y positivas definidas

Para hablar de geometría en espacios vectoriales, la siguiente noción es fundamental. Es importante notar que es una definición únicamente para formas bilineales simétricas.

Definición. Sea b:V×VR una forma bilineal simétrica.

  • Diremos que b es positiva si b(x,x)0 para todo vector x de V.
  • Diremos que b es positiva definida si b(x,x)>0 para todo vector x0 de v.

Tenemos una noción análoga para formas cuadráticas.

Definición. Sea q:VR una forma cuadrática con forma polar b. Diremos que q es positiva si b lo es, y diremos que es positiva definida si b lo es.

Ejemplo 1. Como ya vimos antes, el producto punto de Rn es una forma bilineal simétrica. También es positiva definida, pues si tenemos x=(x1,,xn), tenemos que xx=x12++xn20, y esta es una igualdad si y sólo si x1==xn=0, lo cual sucede si y sólo si x=0.

Ejemplo 2. Considera V=R2[x] y consideremos la forma bilineal b dada por b(p,q)=p(0)q(1)+p(1)q(0). Esta es una forma bilineal simétrica pues b(p,q)=p(0)q(1)+p(1)q(0)=q(0)p(1)+q(1)p(0)=b(q,p). Notemos que b(p,p)=2p(0)p(1), que no necesariamente es positivo. Por ejemplo, si tomamos el polinomio p(x)=x12, tenemos que b(p,p)=2p(0)p(1)=21212=12. Así, esta es una forma bilineal simétrica, pero no es positiva (y por lo tanto tampoco es positiva definida).

Problema. Considera la forma cuadrática Q en M2(R) que suma el cuadrado de las entradas de la diagonal de una matriz, es decir, aquella dada por Q(abcd)=a2+d2. Determina su forma polar y si es positiva o positiva definida.

Solución. Para encontrar la forma polar B de Q, usamos la identidad de polarización
B((abcd),(efgh))=(a+e)2+(d+h)2a2e2d2h22=2ae+2dh2=ae+dh.

Como Q(abcd)=a2+d20, tenemos que Q (y B) son positivas. Sin embargo, Q no es positiva definida (ni B), pues por ejemplo, Q(0110)=0.

Producto interior

Estamos listos para definir aquellos espacios sobre los que podemos hacer geometría.

Definición. Sea V un espacio vectorial sobre R

  • Un producto interior en V es una forma bilineal simétrica y positiva definida.
  • Decimos que V es un espacio Euclideano si es de dimensión finita y está equipado con un producto interior.

Estamos siguiendo la convención del libro de Titu Andreescu, en donde es importante pedir que V sea de dimensión finita para ser Euclideano.

Cuando estamos hablando de espacios con producto interior, o de espacios Euclideanos, tenemos una forma bilineal simétrica y positiva definida b. Sin embargo, en vez de usar constantemente b(x,y), para simplificar la notación usaremos simplemente x,y.

Definición. Si V es un espacio con producto interior ,, definimos la norma de un vector x como x=x,x.

Ejemplo. Como dijimos arriba, el producto punto en Rn es una forma bilineal simétrica, así que es un producto interior. Como Rn es de dimensión finita, entonces es un espacio Euclideano.

La norma de un vector x=(x1,,xn) está dada por x=x12++xn2, y geométricamente se interpreta como la distancia de x al origen.

Un ejemplo más concreto es R4, en donde la norma del vector (1,2,3,1) es 12+22+32+12=15.

La notación de producto interior quizás te recuerde la notación que se usa cuando hablamos de dualidad. Sin embargo, es muy importante que distingas los contextos. En el caso de dualidad, tenemos ,:V×VR, y en este contexto de producto interior tenemos ,:V×VR. Más adelante, puede que te encuentres en tu preparación matemática con el teorema de representación de Riesz, a partir del cual tendrá sentido que se use la misma notación.

Desigualdad de Cauchy-Schwarz

A continuación presentamos un resultado fundamental es espacios con formas bilineales positivas y positivas definidas.

Teorema (desigualdad de Cauchy-Schwarz). Sea b:V×VR una forma bilineal simétrica y q su forma cuadrática asociada.

  • Si b es positiva, entonces para todo x y y en V tenemos que b(x,y)2q(x)q(y). Si x y y son linealmente dependientes, se alcanza la igualdad.
  • Además, si b es positiva definida y x y y son linealmente independientes, entonces la desigualdad es estricta.

Demostración. Supongamos primero solamente que b es positiva. Consideremos la función f:RR dada por f(t)=q(x+ty). Como q es forma cuadrática positiva, tenemos que f(t)0 para todo real t. Por otro lado, expandiendo y usando que b es simétrica, tenemos que
f(t)=q(x+ty)=b(x+ty,x+ty)=b(x,x)+2b(x,y)t+b(y,y)t2=q(x)+2b(x,y)t+q(y)t2.

En esta expresión, q(x), 2b(x,y) y q(y) son reales, así que f(t) es un polinomio cuadrático en t. Como f(t)0 para todo t en R, el discriminante de este polinomio es no positivo, en otras palabras, (2b(x,y))24q(x)q(y)0.

Sumando 4q(x)q(y) y dividiendo entre 4 ambos lados de la desigualdad, obtenemos que b(x,y)2q(x)q(y), la cual es la desigualdad que queremos.

Si x y y son linealmente dependientes, podemos despejar a uno en términos del otro. Sin perder generalidad, podemos suponer que x=αy. En este caso, b(αy,y)2=α2b(y,y)=q(α(y))q(y), así que se da la igualdad.

Ahora, supongamos además que b es positiva definida y que se da la igualdad. Si esto sucede, el discriminante del polinomio cuadrático de arriba es igual a 0 y por lo tanto el polinomio tiene una raíz t. En otras palabras, q(x+ty)=0. Pero como q es positiva definida, esto implica que x+ty=0, de donde x y y son linealmente dependientes. Así, si x y y son linealmente independientes, tenemos que la desigualdad es estricta.

◻

El siguiente caso particular es uno de los más importantes y los más usados, por lo cual amerita que lo enunciemos separadamente.

Corolario. Sea V un espacio vectorial sobre R equipado con un producto interior ,. Para cualesquiera x,y en V se cumple |x,y|xy.

Puede que te preguntes por qué enfatizamos los resultados de desigualdades. En varias partes de tu formación matemática trabajarás con espacios vectoriales en donde quieres hacer cálculo. Ahí, se define la convergencia y los límites en términos de una norma. Las desigualdades que probemos para espacios vectoriales son útiles para cuando se quiere demostrar la validez de ciertos límites. Más adelante mencionaremos algunas cosas adicionales al respecto.

Más adelante…

En esta entrada definimos el concepto de producto interior y vimos cómo el producto interior induce una norma en el espacio vectorial. El concepto de norma nos permite generalizar la noción de distancia y esto nos permitirá ver cómo se puede hacer cálculo en espacios vectoriales.

En las siguientes entradas veremos cómo se define esta norma para diferentes espacios vectoriales con diferentes productos interiores. Podremos ver entonces cómo se generalizan otras nociones que ya hemos visto en cursos anteriores; como el concepto de ángulo.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Considera la función q(w,x,y,z)=wx+yz. Muestra que es una forma cuadrática en R4. Encuentra su forma polar y determina si es una forma cuadrática positiva y/o positiva definida.
  • Muestra que q(w,x,y,z)=x2+y2+z2+xy+yz+zx es una forma cuadrática en R4 y determina si es positiva y/o positiva definida.
  • Considera V=C[0,1] el espacio vectorial de funciones continuas en el intervalo [0,1]. Muestra que f,g=01f(x)g(x)dx define un producto interior en V. ¿Es V un espacio Euclideano? Determina la norma de la función f(x)=x3.
  • Sea V=R2[x] el espacio vectorial de polinomios con coeficientes reales y de grado a lo más 1. Muestra que p,q=p(0)q(0)+p(1)q(1)+p(2)q(2) hace a V un espacio Euclideano.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»