Teoría de los Conjuntos I: Funciones inyectivas

Introducción

En esta sección abordaremos el concepto de función inyectiva, notaremos que la función inyectiva será aquella que mande elementos distintos a elementos distintos bajo una función.

Función inyectiva

Definición: Sea $f: X \to Y$ una función. Decimos que $f$ es una función inyectiva si para cualesquiera $x_1$, $x_2 \in X$ tales que $x_1\not=x_2$ implica que $f(x_1)\not= f(x_2)$.

Ejemplo:

Sean $X=\set{1,2,3,4}$ y $Y=\set{1,2,3,4,5}$ y sea $f:X\to Y$ una función dada por $f=\set{(1,2), (2,1), (3,3), (4,5)}$. Decimos que $f$ es inyectiva pues cada elemento de $X$ bajo la función va a dar a uno y sólo uno de $Y$, como se muestra en la siguiente imagen:

Ejemplo: La función identidad es una función inyectiva.

En efecto, dado que $Id_X:X\to X$ esta dada por $Id_X(x)=x$, entonces si $x_1,x_2\in X$ son tales que $Id_X(x_1)=x_1=x_2=Id_X(x_2)$, entonces $x_1=x_2$ y por lo tanto, $Id_X$ es inyectiva.

$\square$

Ejemplo: La función constante no es inyectiva.

Consideremos $X=\set{1,2,3}$ y $Y=\set{1}$. Sea $f:X\to Y$ una función dada por $f(x)=1$ para toda $x\in X$. Consideremos $x_1=1$ y $x_2=2$ elementos de $X$, sabemos que $1\not=2$ por lo que para que nuestra función sea inyectiva esperamos que $f(x_1)\not=f(x_2)$, sin embargo, $f(1)=1=f(2)$. Esto demuestra que en general las funciones constantes no son inyectivas.

$\square$

Equivalencias de inyectividad

Teorema: Sea $f:X\to Y$ una función tal que $X\not=\emptyset$. Entonces los siguientes enunciados son equivalentes:

  1. $f$ es inyectiva.
  2. Para cualesquiera $x_1,x_2\in X$ tales que $f(x_1)=f(x_2)$ entonces $x_1=x_2$,
  3. Para cualesquiera $h,k:Z\to X$ tales que si $f\circ h= f\circ k$, entonces $h=k$,
  4. Para cualesquiera $A,B$ subconjuntos de $X$, se cumple que $f[B\setminus A]= f[B]\setminus f[A]$,
  5. Para cualesquiera $A,B$ subconjuntos de $X$ se cumple que $f[A\cap B]= f[A]\cap f[B]$.

Demostración:

$1)\rightarrow 2)$
Supongamos que $f$ es inyectiva, esto es para cualesquiera $x_1, x_2\in X$ tales que $x_1\not=x_2$ implica que $f(x_1)\not=f(x_2)$. Luego, sabemos que la implicación es equivalente a la contrapositiva por lo que podemos concluir que para cualesquiera $x_1, x_2\in X$, si $f(x_1)=f(x_2)$ entonces $x_1=x_2$.

$2)\rightarrow 3)$
Supongamos que para cualesquiera $x_1, x_2\in X$ tales que $f(x_1)=f(x_2)$ entonces $x_1= x_2$ y supongamos que $h,k:Z\to X$ son funciones tales que $f\circ h= f\circ k$ y veamos que $h=k$.

Sea $z\in Z$, entonces $h(z)\in X$ y $k(z)\in X$, luego como $f\circ h=f\circ k$ tenemos que $f\circ h(z)= f\circ k(z)$, de donde $f(h(z))= f(k(z))$ y como $f$ es inyectiva entonces $h(z)=k(z)$. Por lo tanto, $h=z$.

$3)\rightarrow 4)$

Supongamos que $h,k:Z\to X$ son funciones tales que si $f\circ h= f\circ k$, entonces $h=k$. Supongamos también que para cualesquiera $A,B$ conjuntos tales que $A\subseteq B\subseteq X$ y veamos que $f[B\setminus A]= f[B]\setminus f[A]$.

En la sección de funciones vimos que siempre ocurre que $f[B]\setminus f[A]\subseteq f[B\setminus A]$ por lo que basta ver la otra contención.

Sea $y\in f[B\setminus A]$, entonces existe $x\in B\setminus A$ tal que $f(x)=y$. Luego, $x\in B\setminus A$ por lo que $x\in B$ y $x\notin A$, de modo que $f(x)\in f[B]$. Resta ver que $f(x)\notin f[A]$, supongamos que si ocurre, es decir que $f(x)\in f[A]$. Entonces existe $z\in A$ tal que $f(z)=f(x)$.

Sean $h:X\to X$ dada por $h(a)=x$ para todo $a\in X$ y $k:X\to X$ dada por $k(a)=z$ para todo $a\in X$. Notemos que $h\not=k$ pues $z\not=x$ ya que $z\in A$ y $x\notin A$. Luego, $f\circ h(a)=f(h(a))= f(x)$ y $f\circ k(a)= f(k(a))= f(z)=f(x)$, por lo que $f\circ h=f\circ k$. Así, por hipótesis se sigue que $h=k$ lo cuál es una contradicción, por lo tanto, no debe ocurrir que $f(x)\in f[A]$. Así, $f(x)\in f[B]\setminus f[A]$.

$4)\rightarrow 5)$

Supongamos que para cualesquiera $A, B$ subconjuntos de $X$, se cumple que $f[B\setminus A]=f[B]\setminus f[A]$. Veamos que $f[A\cap B]= f[A]\cap f[B]$.

En la sección de funciones probamos que $f[A\cap B]\subseteq f[A]\cap f[B]$, por lo que basta ver que $f[A]\cap f[B]\subseteq f[A\cap B]$.

Sea $y\in f[A]\cap f[B]$, entonces $y\in f[A]$ y $y\in f[B]$, así existe $x\in A$ tal que $f(x)=y$. Queremos demostrar que $x\in B$, supongamos que no es así, es decir $x\notin B$, entonces existe $x\in A\setminus B$ tal que $f(x)=y$, por lo que $y\in f[A\setminus B]= f[A]\setminus f[B]$.

Se sigue que $y\in f[A]$ y $y\notin f[B]$ lo cual es una contradicción, por lo tanto, debe ocurrir que $x\in B$, así existe $x\in A\cap B$ tal que $f(x)=y$.

Por lo tanto, $f[A]\cap f[B]= f[A\cap B]$.

$5)\rightarrow 1)$

Supongamos que para cualesquiera $A, B\subseteq X$ se cumple que $f[A]\cap f[B]= f[A\cap B]$.

Sean $x_1, x_2\in X$ tales que $x_1\not= x_2$, veamos que $f(x_1)\not= f(x_2)$.

Consideremos $\set{x_1}$ y $\set{x_2}$ subconjuntos de $X$. Luego,

\begin{align*}
f[\set{x_1}\cap \set{x_2}]&=f[\emptyset]\ \text{pues} \ x_1\not=x_2\\
&=f[\set{x_1}]\cap f[\set{x_2}]\ \text{por hipótesis}\\
&=\set{f(x_1)}\cap \set{f(x_2)}
\end{align*}

Luego, como $\set{f(x_1)}\cap \set{f(x_2)}=\emptyset$ entonces $\set{f(x_1)}\not=\set{f(x_2)}$ y por lo tanto, $f(x_1)\not=f(x_2)$.

Por lo tanto, $f$ es inyectiva.

Por lo tanto, todos los enunciados anteriores son equivalentes.

$\square$

Aunque existen muchas equivalencias de función inyectiva para este curso usaremos con mayor frecuencia la equivalencia dos.

¿Qué pasa con la composición?

Anteriormente definimos a la composición de funciones que resulta ser una función, por lo que podemos preguntarnos que ocurre si las funciones que conforman a la composición son inyectivas, es decir si eso implica que la composición es inyectiva, veamos que nos dice el siguiente teorema.

Teorema: Sean $f:X\to Y$ y $g:Y\to Z$ funciones inyectivas. Se cumple que $g\circ f$ es inyectiva.

Demostración:

Sean $f$ y $g$ funciones inyectivas y sean $x_1, x_2\in X$ tales que $g\circ f(x_1)= g(f(x_1))=g(f(x_2))= g\circ f(x_2)$. Dado que $f(x_1), f(x_2)\in Y$ y $g$ es inyectiva, entonces $ g(f(x_1))=g(f(x_2)) $ implica que $f(x_1)=f(x_2)$. Por la inyectividad de $f$ podemos concluir que $x_1=x_2$. Por lo tanto, $g\circ f$ es una función inyectiva.

$\square$

Tarea moral

La siguiente lista de ejercicios te permitirá reforzar el tema de funciones inyectivas.

  • Demuestra que la función inclusión es inyectiva.
  • Sean $A=\set{1,2,3}$, $B=\set{1,2}$ y $C=\set{1,2}$ conjuntos. Sean $f:A\to B$ y $g:B\to C$ funciones dadas por $f=\set{(1,1), (2,1), (3,2)}$ y $g=set{(1,2), (2,1)}$ respectivamente. Escribe al conjunto $g\circ f$ y ve si es inyectiva. Argumenta tu respuesta.
  • Si $f\circ g$ es inyectiva, ¿es cierto que $f$ y $g$ son inyectivas?
  • Demuestra que la función $\emptyset$ es inyectiva.
  • Demuestra que $f:X\to Y$ una función constante es inyectiva si y sólo si $X=\set{x}$.

Más adelante

En la siguiente sección abordaremos el tema de funciones sobreyectivas. Con este tema tendremos los conceptos necesarios para comenzar a hablar acerca de funciones biyectivas e invertibles.

Enlaces

En el siguiente enlace podrás encontrar más contenido acerca de funciones inyectivas.

Álgebra Superior I: Funciones inyectivas, suprayectivas y biyectivas

Álgebra Lineal II: Aplicaciones del teorema de Cayley-Hamilton

Introducción

En entradas anteriores ya enunciamos y demostramos el teorema de Cayley-Hamilton. Veremos ahora algunas aplicaciones de este resultado.

Encontrar inversas de matrices

El teorema de Cayley-Hamilton nos puede ayudar a encontrar la inversa de una matriz haciendo únicamente combinaciones lineales de potencias de la matriz. Procedemos como sigue. Supongamos que una matriz $A$ en $M_n(F)$ tiene polinomio característico $$\chi_A(x)=x^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0.$$ Como $a_0=\det(A)$, si $a_0=0$ entonces la matriz no es invertible. Supongamos entonces que $a_0\neq 0$. Por el teorema de Cayley-Hamilton tenemos que $$A^n+a_{n-1}A^{n-1}+\ldots+a_1A+a_0I_n=O_n.$$ De aquí podemos despejar la matriz identidad como sigue:

\begin{align*}
I_n&=-\frac{1}{a_0}\left( A^n+a_{n-1}A^{n-1}+\ldots+a_1A \right)\\
&=-\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-2}+\ldots+a_1 I\right) A.
\end{align*}

Estos cálculos muestran que la inversa de $A$ es la matriz $$ -\frac{1}{a_0}\left(A^{n-1}+a_{n-1}A^{n-1}+\ldots+a_1 I\right).$$

Ejemplo. Supongamos que queremos encontrar la inversa de la siguiente matriz $$A=\begin{pmatrix} 2 & 2 & 0 \\ 0 & -1 & 0 \\ 1 & 1 & 1 \end{pmatrix}.$$ Su polinomio característico es $\lambda^3-2\lambda^2 – \lambda +2$. Usando la fórmula de arriba, tenemos que

$$A^{-1}=-\frac{1}{2}(A^2-2A-I).$$

Necesitamos entonces $A^2$, que es:

$$A^2=\begin{pmatrix} 4 & 2 & 0 \\ 0 & 1 & 0 \\ 3 & 2 & 1 \end{pmatrix}.$$

De aquí, tras hacer las cuentas correspondientes, obtenemos que:

$$A^{-1}=\begin{pmatrix} \frac{1}{2} & 1 & 0 \\ 0 & -1 & 0 \\ -\frac{1}{2} & 0 & 1\end{pmatrix}.$$

Puedes verificar que en efecto esta es la inversa de $A$ realizando la multiplicación correspondiente.

$\square$

El método anterior tiene ciertas ventajas y desventajas. Es práctico cuando es sencillo calcular el polinomio característico, pero puede llevar a varias cuentas. En términos de cálculos, en general reducción gaussiana funciona mejor para matrices grandes. Como ventaja, el resultado anterior tiene corolarios teóricos interesantes. Un ejemplo es el siguiente resultado.

Corolario. Si $A$ es una matriz con entradas en los enteros y determinante $1$ ó $-1$, entonces $A^{-1}$ tiene entradas enteras.

Encontrar el polinomio mínimo de una matriz

Otra de las consecuencias teóricas del teorema de Cayley-Hamilton con aplicaciones prácticas ya la discutimos en la entrada anterior.

Proposición. El polinomio mínimo de una matriz (o transformación lineal) divide a su polinomio característico.

Esto nos ayuda a encontrar el polinomio mínimo de una matriz: calculamos el polinomio característico y de ahí intentamos varios de sus divisores polinomiales para ver cuál de ellos es el de grado menor y que anule a la matriz. Algunas consideraciones prácticas son las siguientes:

  • Si el polinomio característico se factoriza totalmente sobre el campo y conocemos los eigenvalores, entonces conocemos todos los factores lineales. Basta hacer las combinaciones posibles de factores lineales para encontrar el polinomio característico (considerando posibles multiplicidades).
  • Además, para cada eigenvalor $\lambda$ ya vimos que $\lambda$ debe ser raíz no sólo del polinomio característico, sino también del polinomio mínimo. Así, debe aparecer un factor $x-\lambda$ en el polinomio mínimo para cada eigenvalor $\lambda$.

Ejemplo. Encontramos el polinomio mínimo de la siguiente matriz:

$$B=\begin{pmatrix} 2 & 0 & 4 \\ 3 & -1 & -1 \\0 & 0 & 2 \end{pmatrix}.$$

Una cuenta estándar muestra que el polinomio característico es $(x-2)^2(x+1)$. El polinomio mínimo debe ser mónico, dividir al polinomio característico y debe contener forzosamente a un factor $(x-2)$ y un factor $(x+1)$. Sólo hay dos polinomios con esas condiciones: $(x-2)(x+1)$ y $(x-2)^2(x+1)$. Si $(x-2)(x+1)$ anula a $B$, entonces es el polinomio mínimo. Si no, es el otro. Haciendo las cuentas:

\begin{align*}
(B-2I_3)(B+I_3)&=\begin{pmatrix}0 & 0 & 4 \\ 3 & -3 & -1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} 3 & 0 & 4 \\ 3 & 0 & -1 \\ 0 & 0 & 3 \end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 & 12 \\ 0 & 0 & 12 \\ 0 & 0 & 0 \end{pmatrix}.
\end{align*}

Así, $(x-2)(x+1)$ no anula a la matriz y por lo tanto el polinomio mínimo es justo el polinomio característico $(x-2)^2(x+1)$.

$\square$

Ejemplo. Consideremos la matriz $C=\begin{pmatrix} 3 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 3 \end{pmatrix}$. Su polinomio característico es $(x-3)^3$. Así, su polinomio mínimo es $x-3$, $(x-3)^2$ ó $(x-3)^3$. Nos damos cuenta rápidamente que $x-3$ sí anula a la matriz pues $A-3I_3=O_3$. De este modo, el polinomio mínimo es $x-3$.

$\square$

Clasificación de matrices con alguna condición algebraica

Si sabemos que una matriz cumple una cierta condición algebraica, entonces el teorema de Cayley-Hamilton puede ayudarnos a entender cómo debe ser esa matriz, es decir, a caracterizar a todas las matrices que cumplan la condición.

Por ejemplo, ¿quienes son todas las matrices en $M_n(\mathbb{R})$ que son su propia inversa? La condición algebraica es $A^2=I_2$. Si el polinomio característico de $A$ es $x^2+bx+c$, entonces por el teorema de Cayley-Hamilton y la hipótesis tenemos que $O_2=A^2+bA+cI_2=bA+(c+1)I_2$. De aquí tenemos un par de casos:

  • Si $b\neq 0$, podemos despejar a $A$ como $A=-\frac{c+1}{b}I_2$, es decir $A$ debe ser un múltiplo de la identidad. Simplificando la notación, $A=xI_2$. Así, la condición $A^2=I_2$ se convierte en $x^2I_2=I_2$, de donde $x^2=1$ y por lo tanto $x=\pm 1$. Esto nos da las soluciones $A=I_2$ y $A=-I_2$.
  • Si $b=0$, entonces $O_2=(c+1)I_2$, de donde $c=-1$. De este modo, el polinomio característico es $x^2-1=(x+1)(x-1)$. Se puede demostrar que aquí las soluciones son las matices semejantes a la matriz $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$, y sólo esas.

Más adelante…

El teorema de Cayley-Hamilton es un resultado fundamental en álgebra lineal. Vimos dos demostraciones, pero existen varias más. Discutimos brevemente algunas de sus aplicaciones, pero tiene otras tantas. De hecho, más adelante en el curso lo retomaremos para aplicarlo nuevamente.

Por ahora cambiaremos ligeramente de tema. De manera muy general, veremos cómo llevar matrices a otras matrices que sean más simples. En las siguientes entradas haremos esto mediante similaridades de matrices. Más adelante haremos esto mediante congruencias de matrices. Hacia la tercer unidad del curso encontraremos un resultado aún más restrictivo, en el que veremos que cualquier matriz simétrica real puede ser llevada a una matriz diagonal mediante una matriz que simultáneamente da una similaridad y una congruencia.

Tarea moral

  1. Encuentra el polinomio mínimo de la matriz $\begin{pmatrix}-3 & 1 & 0 & 0 \\ 0 & -3 & 0 & 0 \\ 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 2\end{pmatrix}$
  2. Encuentra la inversa de la siguiente matriz usando las técnica usada en esta entrada: $$\begin{pmatrix} 0 & 1 & 1 \\ 1 & -1 & 2\\ 2 & 2 & 1 \end{pmatrix}.$$
  3. Demuestra el corolario de matrices con entradas enteras. De hecho, muestra que es un si y sólo si: una matriz invertibles con entradas enteras cumple que su inversa tiene únicamente entradas enteras si y sólo si su determinante es $1$ ó $-1$.
  4. ¿Cómo son todas las matrices en $M_2(\mathbb{R})$ tales que $A^2=A$?
  5. ¿Cómo son todas las matrices en $M_3(\mathbb{R})$ de determinante $0$ tales que $A^3=O_3$?

Entradas relacionadas

Álgebra Lineal II: Proceso de Gram-Schmidt en espacios euclideanos

Introducción

En la entrada anterior recordamos algunas de las aplicaciones que pueden tener las bases ortogonales y ortonormales. Esto nos da la pista de que siempre es bueno intentar conseguir una base ortonormal. ¿Es esto siempre posible? En el primer curso de Álgebra Lineal vimos que si tenemos en espacio euclideano, entonces sí. Esto está explicado a detalle en la entrada del Proceso de Gram-Schmidt.

Esta entrada está escrita únicamente en formato de recordatorio. Enunciamos los resultados principales, pero las demostraciones y más ejemplos se encuentran en otras entradas.

Teorema de Gram-Schmidt

El teorema de Gram-Schmidt asegura que dado un conjunto de vectores linealmente independientes en un espacio vectorial real con un producto interior dado, podemos encontrar otros vectores que ahora sean ortonormales, que generen lo mismo y que además «apunten hacia un lado similar» a los vectores originales. Además, asegura que estos vectores son únicos. El resultado concreto es el siguiente.

Teorema. Sea $V$ un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$. Sean $v_1,\ldots,v_d$ vectores linealmente independientes. Entonces, existen únicos vectores ortonormales $e_1,\ldots,e_d$ tales que para toda $k\in\{1,2,\ldots,d\}$ se tiene que $$\text{span}(e_1,\ldots,e_k)= \text{span}(v_1,\ldots,v_k)$$ y $\langle e_k, v_k \rangle >0$.

Muy a grandes rasgos, esta forma de escribir el teorema permite hacer inducción en $d$. Al pasar a un nuevo $d$, podemos usar hipótesis inductiva para construir $e_1,\ldots,e_{d-1}$. Así, sólo hay que ver cómo construir $e_d$ para que sea ortogonal a todos los anteriores y para que tenga norma $1$. Para encontra a un buen candidato, se debe poner a $e_d$ en términos de los $e_1,\ldots,e_{d-1}$ y $v_d$, y se debe suponer que cumple lo deseado. Al hacer algunos productos interiores esto nos dice que $e_d$ forzosamente se construye definiendo

$$f_d=v_d-\sum_{i=1}^{d-1}\langle v_d, e_i\rangle e_i$$

y tomando $e_d=\frac{f_d}{\norm{f_d}}$.

En los detalles de la prueba se ve que este $e_d$ en efecto cumple todo lo deseado.

Si estamos en un espacio euclideano, entonces tenemos una base finita. Podemos usar esta en la hipótesis del teorema de Gram-Schmidt para concluir lo siguiente.

Corolario. Todo espacio euclideano tiene una base ortonormal.

Algoritmo de Gram-Schmidt

La demostración del teorema de Gram-Schmidt a su vez da un algorimo para encontrar de manera explícita la base ortonormal buscada. Es un algoritmo que poco a poco va contruyendo los vectores. Supongamos que nos dan los vectores $v_1,\ldots,v_n$.

Para empezar, normalizamos $v_1$ para obtener $e_1=\frac{v_1}{\norm{v_1}}$. De aquí en adelante procedemos recursivamente. Si ya construimos $e_1,\ldots,e_k$, entonces podemos construir $e_{k+1}$ a través de la fórmula que pusimos, es decir, primero definimos

$$f_{k+1}=v_{k+1}-\sum_{i=1}^{k}\langle v_{k+1}, e_i\rangle e_i,$$

para luego tomar $e_{k+1}$ como la normalización de $f_{k+1}$, es decir, como $\frac{e_{k+1}}{\norm{e_{k+1}}.$ Seguimos de esta manera hasta terminar.

El siguiente diagrama da una idea un poco más visual de cómo vamos haciendo las operaciones. Comenzamos con los vectores $v_1,\ldots,v_d$ de la fila superior. Luego, vamos construyendo a los $e_i$ y $f_i$ en el orden indicado por las flechas: $e_1,f_2,e_2,\ldots,f_{d-1},e_{d-1},f_d,e_d$. Para construir un $f_i$ usamos la fórmula con productos interiores. Para construir el $e_i$ correspondiente, normalizamos.

Intuición geométrica

Ya tenemos el lenguaje para entender mucho mejor el proceso de Gram-Schmidt. Si te das cuenta, cuando tomamos $$f_{k+1}=v_{k+1}-\sum_{i=1}^{k}\langle v_{k+1}, e_i\rangle e_i$$ justamente estamos aprovechando la descomposición

$$v_{k+1}= \left(\sum_{i=1}^{k}\langle v_{k+1}\right)+ f_{k+1}$$

de $v_{k+1}$ como suma de un elemento en espacio generado por $e_1,\ldots, e_k$ y uno en su ortogonal. El elemento del espacio generado lo obtenemos a través de la fórmula que sale de la descomposición de Fourier que vimos en la entrada anterior. El hecho de que $f_{k+1}$ esté en el ortogonal es lo que hace que cada nuevo vector sea ortogonal a los anteriores. Al final hay que normalizar $f_{k+1}$ para que la base sea ortonormal y no sólo ortogonal. Habría dos formas de hacerlo. Una es tomar $\frac{f_{k+1}}{\norm{f_{k+1}}}$. La otra es tomar $-\frac{f_{k+1}}{\norm{f_{k+1}}}$. El producto escalar positivo que pedimos es lo que nos da la unicidad.

Ejemplo de aplicación del algoritmo de Gram-Schmidt

Hagamos un ejemplo muy sencillo. Será sólo de práctica y como recordatorio. Hay ejemplos más interesantes en la entrada Problemas de bases ortogonales, Fourier y proceso de Gram-Schmidt.

Es sencillo verificar que $\langle (a,b,c), (x,y,z)\rangle =4ax+3by+2cz$ es un producto interior en $\mathbb{R}^3$. Vamos a ortonormalizar la base $(1,1,1)$, $(0,1,1)$, $(0,0,1)$.

En la notación del algoritmo, tenemos entonces $v_1=(1,1,1)$, $v_2=(0,1,1)$ y $v_3=(0,0,1)$. El primer paso es tomar $e_1=\frac{v_1}{\norm{v_1}}$. La norma de $v_1$ con este producto interior es $\sqrt{4+3+2}=3$. De este modo, $e_1=\left(\frac{1}{3}, \frac{1}{3} , \frac{1}{3} \right)$.

Teniendo $e_1$, podemos definir $f_2$ con la fórmula dada:

\begin{align*}
f_2&=v_2-\langle v_2, e_1 \rangle e_1\\
&=(0,1,1)-\left(4\cdot 0\cdot \frac{1}{3}+3\cdot 1 \cdot \frac{1}{3} + 2 \cdot 1 \cdot \frac{1}{3}\right)\left(\frac{1}{3},\frac{1}{3},\frac{1}{3} \right)\\
&=(0,1,1)-\frac{5}{3} \left(\frac{1}{3},\frac{1}{3},\frac{1}{3} \right)\\
&=\left(-\frac{5}{9},\frac{4}{9},\frac{4}{9}\right).
\end{align*}

De aquí, debemos normalizar $f_2$. Su norma es $$\sqrt{ \frac{100}{81}+\frac{48}{81}+\frac{32}{81} } = \frac{\sqrt{180}}{9}=\frac{2\sqrt{5}}{3}=\frac{10}{3\sqrt{5}}.$$ De este modo, $$e_2=\left(-\frac{\sqrt{5}}{6},\frac{2\sqrt{5}}{15},\frac{2\sqrt{5}}{15}\right)$$

Teniendo $e_1$ y $e_2$, podemos definir $f_3$ con la fórmula dada:

\begin{align*}
f_3&=v_3-\langle v_3, e_1 \rangle e_1 – \langle v_3, e_2 \rangle e_2\\
&=(0,0,1)-\frac{2}{3} \left(\frac{1}{3}, \frac{1}{3} , \frac{1}{3} \right) – \frac{4\sqrt{5}}{15} \left(-\frac{\sqrt{5}}{6},\frac{2\sqrt{5}}{15},\frac{2\sqrt{5}}{15}\right)\\
&=(0,0,1)-\left(\frac{2}{9}, \frac{2}{9} , \frac{2}{9} \right)-\left(-\frac{2}{9},\frac{8}{45},\frac{8}{45}\right)\\
&=\left(0, -\frac{2}{5},\frac{3}{5}\right).
\end{align*}

De aquí, debemos normalizar $f_3$. Su norma es $$\sqrt{\frac{12}{25}+\frac{18}{25}}=\frac{\sqrt{6}}{\sqrt{5}}=\frac{6}{\sqrt{30}}.$$ De este modo, $$e_3=\left( 0, -\frac{\sqrt{30}}{15}, \frac{\sqrt{30}}{10}\right).$$

Hemos encontrado la base ortonormal buscada $e_1,e_2,e_3$.

$\square$

Más adelante…

Con esta entrada-recordatorio terminamos la segunda unidad del curso. A partir de ahora es importante que recuerdes que todo espacio euclideano tiene una base ortonormal. También es útil que recuerdes cómo se obtiene, así que asegúrate de practicar el proceso de Gram-Schmidt.

Todo lo que hemos mencionado tiene su análogo en espacios vectoriales sobre los complejos con un producto interior hermitiano. Asegúrate de entender las diferencias y de realizar los ejercicios que te permitirán entender los resultados correspondientes.

En la siguiente unidad desarrollaremos la teoría necesaria para poder enunciar y demostrar tanto el teorema espectral real, como el teorema espectral complejo.

Tarea moral

  1. Haz la demostración del teorema de Gram-Schmidt a partir del esquema comentado en la entrada. En caso de que se te dificulte, revisa los detalles en la entrada de blog correspondiente.
  2. Para verificar que todo esté en orden, verifica que los vectores $e_1,e_2,e_3$ del ejemplo en efecto son una base ortonormal con el producto interior dado.
  3. En el teorema de Gram-Schmidt, ¿es importante el orden en el que elijamos $v_1$ hasta $v_n$? ¿Cambia el conjunto resultante si cambiamos el orden? ¿Es conveniente tomar algún otro orden para simplificar las cuentas?
  4. Aplica el proceso de Gram-Schmidt a los vectores \begin{align*}(1,1,1,1)\\ (0,1,1,1)\\ (0,0,1,1)\\ (0,0,0,1)\end{align*} en $\mathbb{R}^4$ con el producto interior canónico (el producto punto).
  5. Enuncia y demuestra un teorema de Gram-Schmidt para espacios vectoriales sobre $\mathbb{C}$ con un producto interior hermitiano. Obtén el corolario correspondiente para los espacios hermitianos. Aplica este proceso a los vectores $(1+i,1+i,1+i),(0,1+i,1+i),(0,0,1+i)$ de $\mathbb{C}^3$ con el producto hermitiano canónico para obtener una base ortonormal.

Entradas relacionadas

Álgebra Lineal II: Ortogonalidad en espacios euclideanos

Introducción

Anteriormente, cuando hablamos del espacio dual de un espacio vectorial, definimos qué quería decir que una forma lineal y un vector fueran ortogonales. Esa noción de ortogonalidad nos ayudó a definir qué era un hiperplano de un espacio vectorial y a demostra que cualquier subespacio de dimensión $k$ de un espacio de dimensión $n$ podía ponerse como intersección de $n-k$ hiperplanos.

Hay otra noción de ortogonalidad en álgebra lineal que también ya discutimos en el primer curso: la ortogonalidad de parejas de vectores con respecto a un producto interior. En el primer curso vimos esta noción muy brevemente. Lo que haremos ahora es profundizar en esta noción de ortogonalidad. De hecho, gracias a las herramientas que hemos desarrollado podemos conectar ambas nociones de ortogonalidad.

Esta teoría la veremos de manera explícita en el caso real en la entrada. El caso en $\mathbb{C}$ queda esbozado en los ejercicios.

Definición de ortogonalidad

Comenzamos con las siguientes definiciones.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $b$ una forma bilineal de $V$. Diremos que dos vectores $x,y$ en $V$ son ortogonales (con respecto a $b$) si $b(x,y)=0$.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $b$ una forma bilineal de $V$. Sea $S$ un subconjunto de vectores de $V$. El conjunto ortogonal de $S$ (con respecto a $b$) consiste de todos aquellos vectores en $V$ que sean ortogonales a todos los vectores de $S$. En símbolos:

$$S^{\bot}:=\{v \in V : \forall s \in S, b(s,v)=0.$$

Es un buen ejercicio verificar que $S^\bot$ siempre es un subespacio de $V$. Finalmente, definimos la ortogonalidad de conjuntos.

Definición. Sea $V$ un espacio vectorial sobre $\mathbb{R}$ y $b$ una forma bilineal de $V$. Diremos que dos subconjuntos $S$ y $T$ son ortogonales (con respecto a $b$) si $S \subseteq T^{\bot}$.

En otras palabras, estamos pidiendo que todo vector de $S$ sea ortogonal a todo vector de $T$.

Observación. Si tenemos un espacio vectorial con producto interior $\langle \cdot, \cdot \rangle$ de norma $\norm{\cdot}$, entonces tenemos la fórmula $$\norm{x+y}^2=\norm{x}^2+2\langle x,y\rangle +\norm{y}^2.$$

De esta forma, $x$ y $y$ son ortogonales si y sólo si $$\norm{x+y}^2= \norm{x}^2+\norm{y}^2.$$ Podemos pensar esto como una generalización del teorema de Pitágoras.

Descomposición en un subespacio y su ortogonal

Comenzamos esta sección con un resultado auxiliar.

Teorema. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. Entonces $$V=W\oplus W^\bot.$$

Demostración. Sea $\langle \cdot,\cdot \rangle$ el producto interior de $V$. Para demostrar la igualdad que queremos, debemos mostrar que $W$ y $W^\bot$ están en posición de suma directa y que $V=W+W^\bot$.

Para ver que $W$ y $W^\bot$ están en posición de suma directa, basta ver que el único elemento en la intersección es el $0$. Si $x$ está en dicha intersección, entonces $\langle x, x \rangle =0$, pues por estar en $W^\bot$ debe ser ortogonal a todos los de $W$, en particular a sí mismo. Pero como tenemos un producto interior, esto implica que $x=0$.

Tomemos ahora un vector $v\in V$ cualquiera. Definamos la forma lineal $f:W\to \mathbb{R}$ tal que $f(u)=\langle u, v \rangle$. Por el teorema de representación de Riesz aplicado al espacio vectorial $V$ y a su forma lineal $f$, tenemos que existe un (único) vector $x$ en $W$ tal que $f(u)=\langle u, x \rangle$ para cualquier $u$ en $W$.

Definamos $y=v-x$ y veamos que está en $W^\bot$. En efecto, para cualquier $u$ en $W$ tenemos:

\begin{align*}
\langle u, y\rangle &= \langle u, v-x \rangle\\
&=\langle u, v \rangle – \langle u , x \rangle\\
&=f(u)-f(u)\\
&=0.
\end{align*}

De esta manera, podemos escribir $v=x+y$ con $x\in W$ y $y\in W^\bot$.

$\square$

En particular, el teorema anterior nos dice que la unión disjunta de una base de $W$ y una base de $W^\bot$ es una base de $V$. Por ello, tenemos el siguiente corolario.

Corolario. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. Entonces $$\dim{W}+\dim{W^\bot}=\dim{V}.$$

Tenemos un corolario más.

Corolario. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. Entonces $$(W^\bot)^\bot=W.$$

Demostración. Tanto $W$ como $(W^\bot)^\bot$ son subespacios de $V$. Tenemos que $W\subseteq (W^\bot)^\bot$ pues cualquier elemento de $W$ es ortogonal a cualquier elemento de $W^\bot$. Además, por el corolario anterior tenemos:

\begin{align*}
\dim{W}+\dim{W^\bot}&=\dim{V}\\
\dim{W^\bot}+\dim{(W^\bot)^\bot}&=\dim{V}.
\end{align*}

De aquí se sigue que $\dim{W} = \dim{(W^\bot)^\bot}$. Así, la igualdad que queremos de subespacios se sigue si un subespacio está contenido en otro de la misma dimensión, entonces deben de ser iguales.

$\square$

Proyecciones ortogonales

Debido al teorema anterior, podemos dar la siguiente definición.

Definición. Sea $V$ un espacio euclideano y $W$ un subespacio de $V$. La proyección ortogonal hacia $W$ es la transformación lineal $p_W:V\to W$ tal que a cada $v$ en $V$ lo manda al único vector $p_W(v)$ tal que $x-p_W(v)$ está en $W^\bot$.

Dicho en otras palabras, para encontrar a la proyección de $v$ en $W$ debemos escribirlo de la forma $v=x+y$ con $x\in W$ y $y\in W^\bot$ y entonces $p_W(v)=x$.

Distancia a subespacios

Cuando definimos la distancia entre conjuntos que tienen más de un punto, una posible forma de hacerlo es considerando los puntos más cercanos en ambos conjuntos, o en caso de no existir, el ínfimo de las distancias entre ellos. Esto da buenas propiedades para la distancia. En particular, cuando queremos definir la distancia de un punto $x$ a un conjunto $S$ hacemos lo siguiente.

Definición. Sea $V$ un espacio vectorial real con producto interior $\langle \cdot, \cdot \rangle$ de norma $\norm{\cdot}$. Sea $S$ un subconjunto de $V$ y $v$ un vector de $S$. Definimos la distancia de $v$ a $S$ como la menor posible distancia de $v$ hacia algún punto de $S$. En símbolos:

$$d(v,S):=\inf_{s\in S} d(v,s).$$

En general, puede ser complicado encontrar el punto que minimiza la distancia de un punto a un conjunto. Sin embargo, esto es más sencillo de hacer si el conjunto es un subespacio de un espacio con producto interior: se hace a través de la proyección al subespacio. Esto queda reflejado en el siguiente resultado.

Proposición. Sea $V$ un espacio euclideano con producto interior $\langle \cdot, \cdot \rangle$ de norma $\norm{\cdot}$. Sea $W$ un subespacio de $V$ y sea $v$ un vector en $V$. Entonces $$d(v,W)=\norm{v-p_W(v)}.$$

Más aún, $p_W(v)$ es el único punto en $W$ para el cual se alcanza la distancia mínima.

Demostración. Por el teorema de descomposición en un subespacio y su ortogonal, sabemos que podemos escribir $v=x+y$ con $x$ en $W$ y con $y$ en $W^\bot$.

Tomemos cualquier elemento $w$ en $W$. Tenemos que $x-w$ está en $W$ y que $y$ está en $W^\bot$. Así, usando el teorema de Pitágoras tenemos que:

\begin{align*}
\norm{v-w}^2&=\norm{y+(x-w)}^2\\
&=\norm{y}^2+\norm{x-w}^2\\
&\geq \norm{y}^2\\
&=\norm{v-x}^2.
\end{align*}

Esto muestra que $\norm{v-w}\geq \norm{v-x}$. Como $x\in W$, esto muestra que la distancia de $v$ a $W$ en efecto se alcanza con $x=p_W(v)$, pues cualquier otra distancia es mayor o igual.

La igualdad en la cadena anterior de alcanza si y sólo si $\norm{x-w}^2=0$, lo cual sucede si y sólo si $x=w$, como queríamos.

$\square$

Más adelante…

En la siguiente entrada recordaremos varias de las ventajas que tiene contar con una base de un espacio vectorial en la que cualesquiera dos vectores sean ortogonales entre sí. Y en la entrada después de esa, recordaremos algunas hipótesis bajo las cuales podemos garantizar encontrar una de esas bases.

Tarea moral

  1. Resuelve los siguientes ejercicios:
    1. Sea $\mathbb{R}^3$ con el producto interno canónico y $W=\{(0,0,a_3) : a_3 \in \mathbb{R} \}$. Encuentra a $W^{\bot}$ y define la proyección ortogonal $p_W$ hacia $W$.
    2. Encuentra el vector en $\text{Span}((1,2,1), (-1,3,-4))$ que sea el más cercano (respecto a la norma euclidiana) al vector $(-1,1,1)$.
  2. Sea $V$ un espacio euclidiano y $T : V \to V $ una transformación lineal tal que $T^2=T$. Prueba que T es una proyección ortogonal si y solo si para cualesquiera $x$ y $y$ en $V$ se tiene que $$\langle T(x),y\rangle =\langle x,T(y)\rangle.$$
  3. Resuelve los siguientes ejercicios:
    1. Demuestra que una proyección ortogonal reduce la norma, es decir, que si $T$ es una proyección ortogonal, entonces $\norm{T(v)}\leq \norm{v}$.
    2. Prueba que una proyección ortogonal únicamente puede tener como eigenvalores a $0$ ó a $1$.
  4. Demuestra que la composición de dos proyecciones ortogonales no necesariamente es una proyección ortogonal.
  5. En el teorema de descomposición, ¿es necesaria la hipótesis de tener un producto interior? ¿Qué sucede si sólo tenemos una forma bilineal, simétrica y positiva?

Entradas relacionadas

Teoría de los conjuntos I: Funciones (parte II)

Introducción

En esta sección hablaremos acerca de algunas propiedades de la imagen y la imagen inversa de un conjunto bajo una función, dichas propiedades hablan de como se comportan estos conjuntos con respecto a la unión, la intersección y la diferencia.

Propiedades

Teorema: Sean $X$ y $Y$ conjuntos y sea $f:X\to Y$ una función. Sean $X_1,X_2\subseteq X$ y $Y_1, Y_2\subseteq Y$. Entonces se cumplen las siguientes propiedades:

  1. Si $X_1\subseteq X_2$, entonces $f[X_1]\subseteq f[X_2]$,
  2. $f[X_1\cup X_2]=f[X_1]\cup f[X_2]$,
  3. $f[X_1\cap X_2]\subseteq f[X_1]\cap f[X_2]$,
  4. $f[X_1]\setminus f[X_2]\subseteq f[X_1\setminus X_2]$,
  5. Si $Y_1\subseteq Y_2$, entonces $f^{-1}[Y_1]\subseteq f^{-1}[Y_2]$,
  6. $f^{-1}[Y_1\cup Y_2]=f^{-1}[Y_1]\cup f[Y_2]$,

Demostración:

1) Supongamos que $X_1\subseteq X_2$ y veamos que $f[X_1]\subseteq f[X_2]$.
Sea $y\in f[X_1]$, entonces existe $x\in X_1$ tal que $f(x)=y$. Dado que $X_1\subseteq X_2$, entonces existe $x\in X_2$ tal que $f(x)=y$, esto es $y\in f[X_2]$.
Por lo tanto, $f[X_1]\subseteq f[X_2]$.

2) Veamos que $f[X_1\cup X_2]=f[X_1]\cup f[X_2]$.

$\subseteq$] Sea $y\in f[X_1\cup X_2]$, entonces existe $x\in X_1\cup X_2$ tal que $f(x)= y$. Entonces existe $x\in X_1$ o $x\in X_2$ tal que $f(x)=y$.
Si $x\in X_1$ tal que $f(x)=y$ entonces $y\in f[X_1]$ y por lo tanto $y\in f[X_1]\cup f[X_2]$.
Si $x\in X_2$ tal que $f(x)=y$ entonces $y\in f[X_2]$ y por lo tanto $y\in f[X_1]\cup f[X_2]$.
Por lo tanto, $f[X_1\cup X_2]\subseteq f[X_1]\cup f[X_2]$.

$\supseteq$] Sea $y\in f[X_1]\cup f[X_2]$, entonces $y\in f[X_1]$ o $y\in f[X_2]$.

Si $y\in f[X_1]$, entonces existe $x\in X_1$ tal que $f(x)=y$. Luego, como $X_1\subseteq X_1\cup X_2$, tenemos que $x\in X_1\cup X_2$. Por lo tanto, existe $x\in X_1\cup X_2$ tal que $f(x)=y$, esto es $y\in f[X_1\cup X_2]$.

Si $y\in f[X_2]$, entonces existe $x\in X_2$ tal que $f(x)=y$. Luego, como $X_2\subseteq X_1\cup X_2$, tenemos que $x\in X_1\cup X_2$. Por lo tanto, existe $x\in X_1\cup X_2$ tal que $f(x)=y$, esto es $y\in f[X_1\cup X_2]$.

Por lo tanto, $f[X_1]\cup f[X_2]\subseteq f[X_1\cup X_2]$.

De las contenciones que demostramos tenemos que $f[X_1]\cup f[X_2]=f[X_1\cup X_2]$.

3) Ahora veamos que $f[X_1\cap X_2]\subseteq f[X_1]\cap f[X_2]$.

Sea $y\in f[X_1\cap X_2]$, entonces existe $x\in X_1\cap X_2$ tal que $f(x)= y$. Entonces existe $x\in X_1$ y $x\in X_2$ tal que $f(x)=y$.

Entonces existe $x\in X_1$ tal que $f(x)=y$ y existe $x\in X_2$ tal que $f(x)=y$, de donde $y\in f[X_1]$ y $y\in f[X_2]$. Por lo tanto, $y\in f[X_1]\cap f[X_2]$.

Así, $f[X_1\cap X_2]\subseteq f[X_1]\cap f[X_2]$.

4) A continuación mostraremos que $f[X_1]\setminus f[X_2]\subseteq f[X_1\setminus X_2]$.

Sea $y\in f[X_1]\setminus f[X_2]$, entonces $y\in f[X_1]$ y $y\notin f[X_2]$.

Dado que $y\in f[X_1]$, entonces existe $x\in X_1$ tal que $f(x)=y$. Luego, como $y\notin f[X_2]$ entonces para cualquier $a\in X_2$, $f(a)\not=y$. Resulta que $x\notin X_2$ pues de lo contrario $f(x)\not=y$ lo cual no puede ocurrir.

Por lo tanto, existe $x\in X_1\setminus X_2$ tal que $f(x)=y$, esto es, $y\in f[X_1\setminus X_2]$.

5) Supongamos que $Y_1\subseteq Y_2$ y veamos que $f^{-1}[Y_1]\subseteq f^{-1}[Y_2]$.
Sea $x\in f^{-1}[Y_1]$, entonces existe $y\in Y_1$ tal que $f(x)=y$. Dado que $Y_1\subseteq Y_2$, entonces existe $y\in Y_2$ tal que $f(x)=y$, esto es $x\in f^{-1}[Y_2]$.
Por lo tanto, $f^{-1}[Y_1]\subseteq f^{-1}[Y_2]$.

6) Finalmente veamos que $f^{-1}[Y_1\cup Y_2]=f^{-1}[Y_1]\cup f^{-1}[Y_2]$.

Sea $x\in f^{-1}[Y_1\cup Y_2]$, entonces existe $y\in Y_1\cup Y_2$ tal que $f(x)=y$. Luego, como $y\in Y_1\cup Y_2$ se tiene que $y\in Y_1$ o $y\in Y_2$.

Si $y\in Y_1$, entonces existe $y\in Y_1$ tal que $f(x)=y$, es decir, $x\in f^{-1}[Y_1]$. Por lo tanto $x\in f^{-1}[Y_1]\cup f^{-1}[Y_2]$.

Si $y\in Y_2$, entonces existe $y\in Y_2$ tal que $f(x)=y$, es decir, $x\in f^{-1}[Y_2]$. Por lo tanto $x\in f^{-1}[Y_1]\cup f^{-1}[Y_2]$.

$\square$

¿Por qué $f[X_1\cap X_2]\not=f[X_1]\cap f[X_2]$?

Ya vimos que $f[X_1\cap X_2]\subseteq f[X_1]\cap f[X_2]$, por lo que al igual que con la unión podríamos pensar que se da la igualdad entre los conjuntos. Sin embargo, vamos a ver que $f[X_1]\cap f[X_2]\not\subseteq f[X_1\cap X_2]$.

Con el siguiente ejemplo mostraremos que no siempre es posible que $f[X_1]\cap f[X_2]\not\subseteq f[X_1\cap X_2]$.

Ejemplo:

Sean $X=\set{0,1,2}$ y $Y=\set{1,2,3}$ conjuntos y sea $f:X\to Y$ una función dada por el conjunto $f(x)=2$ Sean $X_1=\set{0,1}$ y $X_2=\set{2}$ subconjuntos de $X$.

Por un lado tenemos que $X_1\cap X_2=\set{0,1}\cap \set{2}=\emptyset$, por lo que $f[X_1\cap X_2]=f[\emptyset]= \emptyset$.

Por otro lado, $f[X_1]=f[\set{0,1}]=\set{2}$ y $f[X_2]=f[\set{2}]=\set{2}$. Así, $f[X_1]\cap f[X_2]=\set{2}$.

Por lo tanto, $f[X_1]\cap f[X_2]\not\subseteq f[X_1\cap X_2]$.

$\square$

¿Por qué $f[X_1\setminus X_2]\not=f[X_1]\setminus f[X_2]$?

Ya vimos que $f[X_1]\setminus f[X_2]\subseteq f[X_1\setminus X_2]$, pero va a resultar que la contención de regreso no es posible, es decir, $f[X_1\setminus X_2]\not\subseteq f[X_1]\setminus f[X_2]$.

Con el siguiente ejemplo mostraremos que no siempre es posible que $f[X_1\setminus X_2]\not\subseteq f[X_1]\setminus f[X_2]$.

Ejemplo:

Sean $X=\set{0,1,2}$ y $Y=\set{1,2,3}$ conjuntos y sea $f:X\to Y$ una función dada por el conjunto $f(x)=2$ Sean $X_1=\set{0,1}$ y $X_2=\set{1,2}$ subconjuntos de $X$.

Por un lado tenemos que $X_1\setminus X_2=\set{0,1}\setminus \set{1,2}=\set{0}$, por lo que $f[X_1\setminus X_2]=f[\set{0}]= \set{2}$.

Por otro lado, $f[X_1]=f[\set{0,1}]=\set{2}$ y $f[X_2]=f[\set{1,2}]=\set{2}$. Así, $f[X_1]\setminus f[X_2]=\emptyset$.

Por lo tanto, $f[X_1\setminus X_2]\not\subseteq f[X_1]\setminus f[X_2]$.

$\square$

Composición de funciones

Definición: Sean $f:X\to Y$ y $g:Y\to Z$ funciones. Definimos a la composición de $f$ con $g$ como la función $g\circ f:X\to Z$ dada por $g\circ f(x)= g(f(x))$ para cualquier $x\in X$.

Teorema: Si $f:X\to Y$ y $g:Y\to Z$ son funciones, entonces $g\circ f:X\to Z$ es función.

En la sección de composición de relaciones vimos que si $f$ y $g$ son relaciones, entonces $g\circ f$ es relación, por lo que resta ver que si $(a,b)\in g\circ f$ y $(a,c)\in g\circ f$, entonces $b=c$.

Supongamos que $(a,b)\in g\circ f$ y $(a,c)\in g\circ f$, esto es $b=g(f(a))$ y $c=g(f(a))$ y por lo tanto, $b=c$.

$\square$

Ejemplo:

Sea $f:\set{1,2}\to \set{2,4}$ y $g:\set{2,4}\to \set{3,5}$ funciones dadas por $f(x)= 2x$ y $g(x)=x+1$ respectivamente. Entonces $g\circ f:\set{1,2}\to \set{3,5}$ está dada por:

$g\circ f(x)=g(f(x))=g(2x)=2x+1$

Por lo que,

  • $g\circ f(1)=2(1)+1=2+1=3$,
  • $g\circ f(2)= 2(2)+1=4+1=5$.

De modo que los elementos de $g\circ f$ son $(1,3)$ y $(2,5)$.

$\square$

Tarea moral

a) Demuestra que si $X$ y $Y$ son conjuntos y $f:X\to Y$ una función. Sean $X_1\subseteq X$ y $Y_1, Y_2\subseteq Y$. Entonces se cumplen las siguientes propiedades:

  1. $f^{-1}[Y_1\cap Y_2]=f^{-1}[Y_1]\cap f[Y_2]$,
  2. $f^{-1}[Y_1\setminus Y_2]=f^{-1}[Y_1]\setminus f[Y_2]$,
  3. $X_1\subseteq f^{-1}[f[X_1]]$,
  4. $f[f^{-1}[B_1]]\subseteq B_1$.

b) Demuestra que la composición de funciones es asociativa.

Más adelante

La siguiente sección estará dedicada a funciones inyectivas y sobreyectivas. Este tema será de gran importancia pues en muchas ocasiones tendremos que verificar si se satisfacen estas propiedades.

Enlaces

Álgebra Superior I: Introducción a funciones