Archivo de la etiqueta: subespacios

Álgebra Lineal I: Problemas de espacios, subespacios y sumas directas

Por Julio Sampietro

Introducción

En esta entrada resolvemos más problemas para reforzar y aclarar los conceptos vistos anteriormente. Específicamente, resolvemos problemas acerca de espacios vectoriales, subespacios vectoriales y sumas directas.

Problemas resueltos

Problema 1. Muestra que el conjunto de las funciones continuas $f:[0,1]\to \mathbb{R}$ tales que $f\left(\frac{1}{2}\right)=0$ con las operaciones usuales es un espacio vectorial.

Solución: Primero observamos que nuestras operaciones están bien definidas: sabemos que la suma de funciones continuas es continua y si $f$ es continua y $\lambda\in \mathbb{R}$ es un escalar, entonces $\lambda f$ es continua. Más aún, si $f\left(\frac{1}{2}\right)=0$ y $g\left(\frac{1}{2}\right)=0$, entonces $(f+g) \left( \frac{1}{2}\right) =f\left( \frac{1}{2}\right) + g\left( \frac{1}{2}\right)=0+0=0$ y $\lambda f\left(\frac{1}{2}\right)=\lambda \cdot 0 =0$. En otras palabras, estos argumentos muestran que el conjunto es cerrado bajo las operaciones propuestas.

Ahora veamos que se cumplen los axiomas de espacio vectorial. Recuerda que para mostrar la igualdad de dos funciones, basta con mostrar que son iguales al evaluarlas en cada uno de los elementos de su dominio. En las siguientes demostraciones, $x$ es un real arbitrario en $[0,1]$

  1. Si $f,g,h$ son parte de nuestro conjunto, entonces
    \begin{align*}
    \left(f+(g+h)\right)(x)&= f(x)+(g+h)(x)\\ &= f(x)+g(x)+h(x) \\ &= (f+g)(x) +h(x)\\ &= ((f+g)+h)(x).
    \end{align*}
    Aquí estamos usando la asociatividad de la suma en $\mathbb{R}$
  2. Si $f,g$ son como en las condiciones, dado que la suma en números reales es conmutativa, $(f+g)(x)= f(x)+g(x)= g(x)+f(x)=(g+f)(x)$.
  3. La función constante $0$ es un neutro para la suma. Sí está en el conjunto pues la función $0$ en cualquier número (en particular en $\frac{1}{2}$) tiene evaluación $0$.
  4. Dada $f$ continua que se anula en $\frac{1}{2}$, $-f$ también es continua y se anula en $\frac{1}{2}$ y $f+(-f)= (-f)+f=0$.
  5. Si $a,b\in \mathbb{R}$ entonces $a(bf)(x)= a(bf(x))= (ab)f(x)$, por la asociatividad del producto en $\mathbb{R}$.
  6. Es claro que la constante $1$ satisface que $1\cdot f=f$, pues $1$ es una identidad para el producto en $\mathbb{R}$.
  7. $(a+b)f(x)= af(x)+bf(x)$, por la distributividad de la suma en $\mathbb{R}$
  8. $a\cdot (f+g)(x) = a\cdot (f(x)+g(x))= a\cdot f(x)+a\cdot g(x)$, también por la distributividad de la suma en $\mathbb{R}$.

Observa como las propiedades se heredan de las propiedades de los números reales: En cada punto usamos que las operaciones se definen puntualmente, luego aplicamos las propiedades para los números reales, y luego concluimos el resultado (como por ejemplo, en la prueba de la conmutatividad).

$\square$

Problema 2. Muestra que ninguno de los siguientes es un subespacio vectorial de $\mathbb{R}^3$.

  1. El conjunto $U$ de los vectores $x=(x_1, x_2, x_3)$ tales que $x_1^2+x_2^2+x_3^2=1$.
  2. El conjunto $V$ de todos los vectores en $\mathbb{R}^3$ con números enteros por coordenadas.
  3. El conjunto $W$ de todos los vectores en $\mathbb{R}^3$ que tienen al menos una coordenada igual a cero.

Solución:

  1. Notamos que el conjunto $U$ no es cerrado bajo sumas: En efecto, el vector $(1,0,0)\in U$, pues $1^2+0^2+0^2=1$, así como $(-1,0,0)\in U$, pues $(-1)^2+0^2+0^2=1$. Sin embargo su suma es $(0,0,0)$, que no es un elemento de $U$.
  2. Mientras que $V$ si es cerrado bajo sumas, no es cerrado bajo producto por escalares. Por ejemplo, $(2,8,1)\in V$, sin embargo $\frac{1}{2} (2,8,1)= \left(1,4,\frac{1}{2}\right)\notin V$, pues la última coordenada no es un número entero.
  3. El conjunto si es cerrado bajo producto por escalares, pero no bajo sumas: Tomando $(1,1,0)$ y $(0,0,1)$ en $W$, tenemos que $(1,1,0)+(0,0,1)=(1,1,1)\notin W$.

$\square$

Problema 3. Sea $V$ el conjunto de todas las funciones $f:\mathbb{R}\to \mathbb{R}$ dos veces diferenciables (es decir, que tienen segunda derivada) que cumplen para todo $x\in \mathbb{R}$:

\begin{align*}
f»(x)+x^2 f'(x)-3f(x)=0.
\end{align*}

¿Es $V$ un subespacio de las funciones de $\mathbb{R}$ en $\mathbb{R}$ ?

Solución: En efecto, podemos verificar que $V$ cumple las condiciones de subespacio:

  1. Observamos que la función $f\equiv 0$ es dos veces diferenciable y satisface
    \begin{align*}
    f»(x)+x^2 f'(x)-3f(x)=0+x^2 \cdot 0 -3\cdot 0=0.
    \end{align*}
    Es decir $0\in V$. Esto muestra que $V$ es no vacío.
  2. Sean $f,g\in V$. Sabemos que entonces $f+g$ también es dos veces diferenciable (por ejemplo, de un curso de cálculo). Además
    \begin{align*}
    &(f+g)»(x)+x^2 (f+g)'(x)-3(f+g)(x)\\ & = f»(x)+g»(x)+x^2 f'(x)+x^2 g'(x)-3f(x)-3g(x)\\& = f»(x)+x^2f(x)-3f(x)+ g»(x)+x^2g(x)-3g(x)\\& =0+0=0.
    \end{align*}
    Así $f+g\in V$.
  3. Finalmente sea $f\in V$ y sea $\lambda \in \mathbb{R}$ un escalar. Sabemos que $\lambda f$ es dos veces diferenciable, y además
    \begin{align*}
    &\left(\lambda f\right)»(x)+x^2\left(\lambda f\right)(x)-3(\lambda f)(x)\\ &= \lambda f»(x)+\lambda x^2 f'(x)-\lambda 3f(x)\\ &= \lambda (f»(x)+x^2f'(x)-3f(x))\\ &= \lambda \cdot 0 =0.
    \end{align*}
    Luego $\lambda f\in V$.

$\square$

El ejemplo anterior es crucial para la intuición de tu formación matemática posterior. En él aparece una ecuación diferencial lineal homogénea. La moraleja es que «las soluciones a una ecuación diferencial lineal homogénea son un subespacio vectorial». En este curso no nos enfocaremos en cómo resolver estas ecuaciones, pues esto corresponde a un curso del tema. Sin embargo, lo que aprendas de álgebra lineal te ayudará mucho para cuando llegues a ese punto.

Problema 4. Sea $V$ el espacio de todas las funciones de $\mathbb{R}$ en $\mathbb{R}$ y sea $W$ el subconjunto de $V$ formado por todas las funciones $f$ tales que $f(0)+f(1)=0$.

  1. Verifica que $W$ es un subespacio de $V$.
  2. Encuentra un subespacio $S$ de $W$ tal que $V=W\oplus S$.

Solución:

  1. Verificamos los axiomas de subespacio vectorial:
    1. Tenemos que $0\in W$, pues $0(0)+0(1)=0+0=0$. Entonces $W$ no es vacío.
    2. Si $f,g\in W$ entonces $(f+g)(0)+(f+g)(1)= f(1)+f(0)+g(1)+g(0)=0+0=0$.
    3. Si $f\in W$ y $\lambda \in \mathbb{R}$ entonces $\lambda f(0)+\lambda f(1)= \lambda(f(0)+f(1))=\lambda \cdot 0=0$.
  2. Proponemos $S$ como el subespacio de todas las funciones $h$ tales que $h(x)=ax$ con $a\in \mathbb{R}$. Verifiquemos que $V=W\oplus S$.
    1. Si $F\in W\cap S$ entonces $F(0)+F(1)=0$, es decir $F(0)=-F(1)$, pero como $F(x)=ax$ para algún $a\in \mathbb{R}$ entonces $F(0)=0=F(1)=a$. Luego $F(x)=0\cdot x=0$.
    2. Dada $f\in V$, definimos
      \begin{align*}
      \hat{f}(x)= f(x)-(f(0)+f(1))x.
      \end{align*}
      Observamos que $\hat{f}\in W$, pues
      \begin{align*}
      \hat{f}(0)+\hat{f}(1)= f(0)+f(1)-f(0)-f(1)=0.
      \end{align*}
      Además es claro que
      \begin{align*}
      f(x)&= f(x)-(f(0)+f(1))x+(f(0)+f(1))x\\&= \hat{f}(x)+\left(f(0)+f(1)\right)x
      \end{align*}
      donde el sumando de la derecha es de la forma $a\cdot x$. Así $S+W=V$.

$\triangle$

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

Sea $A$ un conjunto no vacío. Sea $\mathcal{P}(A)$ el conjunto de todos los subconjuntos de $A$. Definimos las siguientes operaciones:
\begin{align*}
X+Y= X\Delta Y,\hspace{5mm} 1\cdot X=X,\hspace{5mm} 0\cdot X= \emptyset,\end{align*}
dónde $\Delta$ denota la operación de diferencia simétrica. Demuestra que así definido, $\mathcal{P}(A)$ es un espacio vectorial sobre el campo de dos elementos $\mathbb{F}_2$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Determinantes en sistemas de ecuaciones lineales y regla de Cramer

Por Leonardo Ignacio Martínez Sandoval

Introducción

Con la teoría que hemos desarrollado acerca de espacios vectoriales, de determinantes y con las herramientas que hemos adquirido para calcularlos, podemos volver a visitar el tema de sistemas de ecuaciones lineales y verlo desde una perspectiva más completa. Los determinantes en sistemas de ecuaciones lineales nos sirven para varias cosas.

Por un lado, sirven para encontrar el rango de una matriz. El rango está relacionado con la dimensión del espacio de soluciones a un sistema lineal de ecuaciones. Esto es parte del contenido del importante teorema de Rouché-Capelli que enunciaremos y demostraremos.

Por otro lado, cuando tenemos sistemas lineales con matriz asociada cuadrada e invertible, podemos usar determinantes para encontrar las soluciones. A esto se le conoce como las fórmulas de Cramer o la regla de Cramer. También enunciaremos y demostraremos esto. La regla de Cramer es parcialmente útil en términos prácticos, pues para sistemas concretos conviene más usar reducción gaussiana. Sin embargo, es muy importante en términos teóricos, cuando se quieren probar propiedades de las soluciones a un sistema de ecuaciones.

Rango de una matriz y determinantes

Recuerda que el rango de una matriz $A$ en $M_{m,n}(F)$ es, por definición, la dimensión del espacio vectorial que es la imagen de la transformación $X\mapsto AX$ de $F^n\to F^m$. Anteriormente, mostramos que esto coincide con la dimensión del espacio vectorial generado por los vectores columna de $A$. Como el rango de una matriz coincide con su transpuesta, entonces también es la dimensión del espacio vectorial generado por los vectores fila de $A$.

Lo que veremos ahora es que podemos determinar el rango de una matriz $A$ calculando algunos determinantes de matrices pequeñas asociadas a $A$. Una submatriz de $A$ es una matriz que se obtiene de eliminar algunas filas o columnas de $A$.

Teorema. Sea $A$ una matriz en $M_{m,n}(F)$. El rango de $A$ es igual al tamaño de la submatriz cuadrada más grande de $A$ que sea invertible.

Demostración. Llamemos $C_1,\ldots,C_n$ a las columnas de $A$. Sabemos que $$r=\dim \text{span}(C_1,\ldots,C_n).$$

Mostraremos primero que hay una submatriz cuadrada de tamaño $r$. Por el lema de Steinitz, podemos escoger $r$ enteros $1\leq i_1<\ldots<i_r\leq n$ tal que las columnas $C_{i_1},\ldots,C_{i_r}$ de $A$ cumplen $$\text{span}(C_1,\ldots,C_n)=\text{span}(C_{i_1},\ldots,C_{i_r}).$$ Así, la matriz $B$ hecha por columnas $C_{i_1},\ldots,C_{i_r}$ está en $M_{m,r}(F)$ y es de rango $r$.

Ahora podemos calcular el rango de $B$ por filas. Si $F_1,\ldots,F_m$ son las filas de $B$, tenemos que $$r=\dim \text{span}(F_1,\ldots,F_m).$$ De nuevo, por el lema de Steinitz, existen enteros $1\leq j_1<\ldots<j_r\leq m$ tales que $$\text{span}(F_1,\ldots,F_m)=\text{span}(F_{i_1},\ldots,F_{i_r}).$$ De esta forma, la matriz $C$ hecha por las filas $F_{j_1},\ldots,F_{j_r}$ está en $M_r(F)$ y es de rango $r$. Por lo tanto, $C$ es una matriz cuadrada de tamaño $r$ y es invertible.

Esta matriz $C$ es una submatriz de $A$ pues se obtiene al eliminar de $A$ todas las columnas en posiciones distintas a $i_1,\ldots,i_r$ y todas las filas en posiciones distintas a $j_1,\ldots,j_r$. Esto muestra una parte de lo que queremos.

Ahora mostraremos que si $B$ es una submatriz de $A$ cuadrada e invertible de tamaño $d$, entonces $d\leq r$. En efecto, tomemos una $B$ así. Sus columnas son linealmente independientes. Si $i_1<\ldots<i_n$ corresponden a los índices de las columnas de $A$ que se preservan al pasar a $B$, entonces las columnas $C_{i_1},\ldots,C_{i_d}$ de $A$ son linealmente independientes, ya que si hubiera una combinación no trivial de ellas igual a cero, entonces la habría de las columnas de $B$, lo cual sería una contradicción a que son linealmente independientes.

De esta forma,
\begin{align*}
d&=\dim \text{span}(C_{i_1},\ldots,C_{i_d})\\
&\leq \dim \text{span} (C_1,\ldots,C_d)\\
&=r,
\end{align*}

que es la desigualdad que nos faltaba para terminar la prueba.

$\square$

Ejemplo. Supongamos que queremos encontrar el rango de la siguiente matriz en $M_{3,5}(\mathbb{R})$: $$A=\begin{pmatrix}4 & 5 & -4 & 7 & 2\\ 0 & -3 & -1 & 0 & 9\\ 0 & -5 & 0 & 9 & -3 \end{pmatrix}.$$

Por propiedades de rango que vimos anteriormente, ya sabemos que su rango es a lo más el mínimo de sus dimensiones, así que su rango es como mucho $\min(3,5)=3$.

Por otro lado, notemos que si eliminamos la segunda y cuarta columnas, entonces obtenemos la submatriz cuadrada $$\begin{pmatrix} 4 & -4 & 2\\ 0 & -1 & 9\\ 0 & 0 & -3\end{pmatrix}.$$ Esta es una matriz triangular superior, así que su determinante es el producto de las diagonales, que es $4\cdot (-1)\cdot (-3)=12$.

Como el determinante no es cero, es una matriz invertible de tamaño $3$. Por la proposición anterior, el rango de $A$ debe ser entonces mayor o igual a $3$. Juntando las dos desigualdades que encontramos, el rango de $A$ debe ser igual a $3$.

$\triangle$

Estas ideas nos servirán al aplicar determinantes en sistemas de ecuaciones.

Teorema de Rouché-Capelli

Recordemos que un sistema lineal de ecuaciones con $m$ ecuaciones y $n$ incógnitas es de la forma

\begin{align*}
a_{11}x_1 + a_{12} x_2 + \ldots + a_{1n}x_n &= b_1\\
a_{21}x_1 + a_{22} x_2 + \ldots + a_{2n}x_n &= b_2\\
\vdots&\\
a_{m1}x_1 + a_{m2} x_2 + \ldots + a_{mn}x_n &= b_m,
\end{align*}

lo cual se puede reescribir en términos matriciales tomando una matriz, un vector de escalares y un vector de incógnitas así:
\begin{align*}
A&=\begin{pmatrix}a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix},\\
b&=\begin{pmatrix}b_1\\ \vdots\\ b_m\end{pmatrix} \text{ y }\; X=\begin{pmatrix}x_1\\ \vdots\\ x_n\end{pmatrix},
\end{align*} y reescribiendo el sistema como $$AX=b.$$

Si $C_1,\ldots, C_n$ son las columnas de la matriz $A$, también sabemos que $$AX=x_1C_1+\ldots + x_nC_n,$$ de modo que el sistema de ecuaciones puede ser escrito como $$x_1C_1+\ldots + x_nC_n=b.$$

Esto nos da una intuición fuerte de lo que es un sistema lineal de ecuaciones: se trata de determinar si $b$ está en el espacio generado por las columnas de $A$, y si es así, ver todas las formas en las que podemos obtenerlo.

El teorema de la sección anterior nos permite aplicar determinantes en sistemas de ecuaciones lineales mediante el siguiente resultado.

Teorema (Rouché-Capelli). Sean $A\in M_n(F)$ y $b\in F^m$. Sea $(A|b)$ la matriz en $M_{n,n+1}(F)$ obtenida de agregar a $b$ como columna hasta la derecha de la matriz $A$. Entonces:

  • El sistema lineal de ecuaciones $AX=b$ tiene al menos una solución si y sólo si $\rank(A)=\rank((A|b))$.
  • El conjunto de soluciones $\mathcal{S}_h$ al sistema homogéneo es un subespacio de $F^n$ de dimensión $n-\rank(A)$.

Demostración. Por la discusión previa, el sistema tiene una solución si y sólo si $b$ es una combinación lineal de las columnas de $A$. De esta forma, si existe una solución, entonces $\rank(A)=\rank((A|b))$, pues el espacio generado por las columnas de $A$ sería el mismo que el de las columnas de $(A|b)$.

Por otro lado, si $\rank(A)=\rank((A|b))$ es porque las columnas de $A$ y las de $(A|b)$ generan el mismo espacio, de modo que $b$ está en el espacio vectorial generado por las columnas. Esto prueba la primer parte.

Para la segunda parte, el sistema homogéneo es $AX=0$, de modo que el conjunto solución es precisamente el kernel de la transformación $T:F^n\to F^m$ tal que $X\mapsto AX$. Por el teorema de rango-nulidad, tenemos que $$\dim \mathcal{S}_h = n-\dim \text{Im}(T)=n-\text{rank}(A).$$ Esto termina la demostración.

$\square$

Como discutimos con anterioridad, ya que tenemos una solución $x_0$ para el sistema de ecuaciones $AX=b$, entonces todas las soluciones son el conjunto $$x_0+\mathcal S_h:=\{x_0 + x: x\in \mathcal S_h\}.$$ En otras palabras, cualquier solución al sistema se puede obtener sumando a $x_0$ una solución al sistema lineal homogéneo asociado.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en $\mathbb{R}$ en tres variables:
\begin{align*}
2x+3y-z=1\\
3x-y+2z=0\\
3x+10y-5z=0
\end{align*}

Afirmamos que el sistema no tiene solución. La matriz asociada es $A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix}$. Por lo que sabemos de determinantes de $3\times 3$, podemos calcular su determinante como
\begin{align*}
\begin{vmatrix}
2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5
\end{vmatrix} &= (2)(-1)(-5)+(3)(10)(-1)+(3)(3)(2)\\
&-(-1)(-1)(3)-(2)(10)(2)-(3)(3)(-5)\\
&=10-30+18-3-40+45\\
&=0.
\end{align*}

Esto muestra que $A$ no es invertible, y que por lo tanto tiene rango a lo más $2$. Como $$\begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix} = (2)(-1)-(3)(3)=-11$$ es un subdeterminante no cero de tamaño 2, entonces $A$ tiene rango $2$.

Ahora consideremos la matriz $$(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 0\end{pmatrix}.$$ Eliminemos la tercer columna. Podemos calcular al siguiente subdeterminante de $3\times 3$ por expansión de Laplace en la última columna:

\begin{align*}
\begin{vmatrix}
2 & 3 & 1\\ 3 & -1 & 0 \\ 3 & 10 & 0
\end{vmatrix} &= 1 \cdot \begin{vmatrix} 3 & -1 \\ 3 & 10 \end{vmatrix} – 0 \begin{vmatrix} 2 & 3 \\ 3 & 10 \end{vmatrix} + 0 \cdot \begin{vmatrix} 2 & 3 \\ 3 & -1 \end{vmatrix}\\
&= 1 \cdot (3\cdot 10 + 1\cdot 3)\\
&=33.
\end{align*}

De esta forma, $(A|b)$ tiene una submatriz de $3\times 3$ invertible, y por lo tanto tiene rango al menos $3$. Como tiene $3$ filas, su rango es a lo más $3$. Con esto concluimos que su rango es exactamente $3$. Conluimos que $$\text{rank} A = 2 \neq 3 = \text{rank} (A|b),$$ de modo que por el teorema de Rouché-Capelli, el sistema de ecuaciones no tiene solución.

$\triangle$

Antes de ver un ejemplo en el que el sistema sí tiene solución, pensemos qué sucede en este caso. Si la matriz $A$ es de rango $r$, por el teorema de la sección pasada podemos encontrar una submatriz cuadrada $B$ de tamaño $r$ que es invertible. Tras una permutación de las variables o de las ecuaciones, podemos suponer sin perder generalidad que corresponde a las variables $x_1,\ldots,x_r$ y a las primeras $r$ ecuaciones. De esta forma, el sistema $AX=b$ se resume en el siguiente sistema de ecuaciones equivalente:

\begin{align*}
a_{11}x_1 + a_{12} x_2 + \ldots + a_{1r}x_r &= b_1-a_{1,r+1}x_{r+1}-\ldots -a_{1,n} x_n\\
a_{21}x_1 + a_{22} x_2 + \ldots + a_{2r}x_r &= b_2-a_{2,r+1}x_{r+1}-\ldots -a_{2,n} x_n\\
\vdots\\
a_{r1}x_1 + a_{r2} x_2 + \ldots + a_{rr}x_r &= b_m-a_{r,r+1}x_{r+1}-\ldots -a_{r,n} x_n,
\end{align*}

Aquí $x_{r+1},\ldots,x_n$ son lo que antes llamábamos las variables libres y $x_1,\ldots,x_r$ son lo que llamábamos variables pivote. Como la submatriz $B$ correspondiente al lado izquierdo es invertible, para cualquier elección de las variables libres podemos encontrar una única solución para las variables pivote. Ya habíamos probado la existencia y unicidad de cierta solución. Pero de hecho, hay una forma explícita de resolver sistemas de ecuaciones correspondientes a matrices cuadradas. Esto es el contenido de la siguiente sección.

Fórmulas de Cramer para sistemas cuadrados

El siguiente teorema es otra aplicación de determinantes en sistemas de ecuaciones lineales. Nos habla de las soluciones de un sistema lineal $AX=b$ en donde $A$ es una matriz cuadrada e invertible.

Teorema (fórmulas de Cramer). Sea $A$ una matriz invertible en $M_n(F)$ y $b=(b_1,\ldots,b_n)$ un vector en $F^n$. Entonces el sistema lineal de ecuaciones $AX=b$ tiene una única solución $X=(x_1,\ldots,x_n)$ dada por $$x_i=\frac{\det A_i}{\det A},$$ en donde $A_i$ es la matriz obtenida al reemplazar la $i$-ésima columna de $A$ por el vector columna $b$.

Demostración. La existencia y unicidad de la solución ya las habíamos mostrado anteriormente, cuando vimos que la única solución está dada por $$X=(x_1,\ldots,x_n)=A^{-1}b.$$

Si $C_1,\ldots,C_n$ son las columnas de $A$, que $(x_1,\ldots,x_n)$ sea solución al sistema quiere decir que $$x_1C_1+\ldots+x_nC_n=b.$$

El determinante pensado como una función en $n$ vectores columna es $n$-lineal, de modo que usando la linealidad en la $i$-ésima entrada y que el determinantes es alternante, tenemos que:
\begin{align*}
\det A_i &= \det(C_1,\ldots,C_{i-1},b,C_{i+1},\ldots,C_n)\\
&= \det(C_1,\ldots,C_{i-1},\sum_{j=1}^n x_j C_j,C_{i+1},\ldots,C_n)\\
&=\sum_{j=1}^n x_j \det(C_1,\ldots,C_{i-1},C_j,C_{i+1},\ldots,C_n)\\
&=x_i \det(C_1,\ldots,C_{i-1},C_i,C_{i+1},\ldots,C_n)\\
&=x_i \det A
\end{align*}

Como $A$ es invertible, su determinante no es $0$, de modo que $$x_i=\frac{\det A_i}{\det A},$$ como queríamos.

$\square$

Veamos un ejemplo concreto de la aplicación de las fórmulas de Cramer.

Ejemplo. Consideremos el siguiente sistema de ecuaciones en $\mathbb{R}$ en tres variables:
\begin{align*}
2x+3y-z=1\\
3x-y+2z=0\\
3x+10y-5z=3
\end{align*}

En un ejemplo anterior vimos que la matriz asociada $A=\begin{pmatrix} 2 & 3 & -1\\ 3 & -1 & 2 \\ 3 & 10 & -5\end{pmatrix}$ tiene rango $2$. Se puede verificar que la matriz aumentada $$(A|b)=\begin{pmatrix} 2 & 3 & -1 & 1\\ 3 & -1 & 2 & 0 \\ 3 & 10 & -5 & 3 \end{pmatrix}$$ también tiene rango $2$. Por el teorema de Rouché-Capelli, debe existir una solución al sistema de ecuaciones $AX=b$, y el sistema homogéneo tiene espacio de soluciones de dimensión $3-2=1$.

Como la submatriz de las primeras dos filas y columnas es invertible por tener determinante $2(-1)-(3)(3)=-11\neq 0$, entonces el sistema de ecuaciones original es equivalente al subsistema

\begin{align*}
2x+3y=1+z\\
3x-y=-2z.
\end{align*}

Para encontrar su solución, fijamos una $z$ arbitraria. Usando la regla de Cramer, la solución al sistema

está dada por
\begin{align*}
x&=\frac{\begin{vmatrix} 1+z & 3 \\ -2z & -1 \end{vmatrix}}{-11}=\frac{1-5z}{11}\\
y&=\frac{\begin{vmatrix} 2 & 1+z \\ 3 & -2z \end{vmatrix}}{-11}=\frac{3+7z}{11}.
\end{align*}

De esta forma, las soluciones al sistema original están dadas por $$\left(\frac{1-5z}{11}, \frac{3+7z}{11},z\right)=\left(\frac{1}{11},\frac{3}{11},0\right) + z \left(-\frac{5}{11},\frac{7}{11},1\right).$$

Observa que en efecto el espacio de soluciones del sistema homogéneo es de dimensión $1$, pues está generado por el vector $$\left(-\frac{5}{11},\frac{7}{11},1\right),$$ y que todas las soluciones al sistema original son una de estas soluciones, más la solución particular $$\left(\frac{1}{11},\frac{3}{11},0\right).$$

$\square$

Para terminar, veamos un ejemplo muy sencillo de cómo usar las fórmulas de Cramer en un sistema de ecuaciones de $2\times 2$ con un parámetro $\theta$. La intepretación geométrica del siguiente sistema de ecuaciones es «encuentra el punto $(x,y)$ del plano tal que al rotarse en $\theta$ alrededor del origen, llega al punto $(a,b)$ » .

Problema. Sea $a,b,\theta$ números reales. Encuentra las soluciones $x,y$ al sistema de ecuaciones
\begin{align*}
x \cos \theta – y \sin \theta = a\\
x \sin \theta + y \cos \theta = b.
\end{align*}

Solución. La matriz asociada al sistema es $$A=\begin{pmatrix} \cos \theta & -\sin\theta \\ \sin \theta & \cos \theta\end{pmatrix}$$ que tiene determinante $$\det A = \cos ^2 \theta + \sin^2 \theta = 1.$$

De acuerdo al teorema de Cramer, las soluciones al sistema están dadas por:

\begin{align*}
x&=\frac{\begin{vmatrix}a & -\sin \theta\\ b & \cos \theta \end{vmatrix}}{\det A} = a\cos \theta + b\sin \theta\\
y&=\frac{\begin{vmatrix}\cos \theta & a \\ \sin \theta & b \end{vmatrix}}{\det A} = b\cos \theta – a\sin \theta.
\end{align*}

$\triangle$

Hay herramientas en línea que te permiten ver de manera interactiva cómo usar las fórmulas de Cramer para sistemas de ecuaciones en los reales. Una de ellas es el Cramer’s Rule Calculator de matrix RESHISH, en donde puedes ver la solución por pasos para ejemplos que tú fijes.

Más adelante…

En esta entrada volvimos a hablar de sistemas de ecuaciones lineales, pero ahora que ya sabemos determinantes, pudimos verlo con un enfoque diferente al que habíamos utilizado para abordar el tema en la primera unidad. También hablamos de la regla de Cramer, una herramienta muy poderosa cuando estamos intentando resolver sistemas de ecuaciones.

Ahora, vamos a ver cómo se usa lo que vimos en esta entrada resolviendo varios ejemplos. Después, empezaremos a abordar el tema de eigenvalores y eigenvectores.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Determina el rango de la matriz $$A=\begin{pmatrix} 2 & 0 & -1 \\ 3 & -2 & 4 \\ 5 & -2 & 3 \\ -1 & 2 & -5 \end{pmatrix}.$$
  • Para la matriz $A$ del inciso anterior, resuelve los sistemas de ecuaciones lineales $AX=\begin{pmatrix}5\\8\\3\\2\end{pmatrix}$ y $AX=\begin{pmatrix}5\\8\\13\\-3\end{pmatrix}$.
  • Verifica que la matriz aumentada en el último ejemplo en efecto tiene rango $2$.
  • Muestra que si $A$ es una matriz en $M_n(\mathbb{R})$ con entradas enteras y de determinante $1$, y $b$ es un vector en $R^n$ con entradas enteras, entonces la solución $X$ del sistema de ecuaciones $AX=b$ tiene entradas enteras.
  • ¿Cómo puedes usar la regla de Cramer para encontrar la inversa de una matriz invertible $A$?
  • Considera un sistema de ecuaciones con coeficientes en un campo $F_1$ y una extensión de campo $F_2$. Muestra que si el sistema tiene una solución en $F_2$, entonces también tiene una solución en $F_1$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Proyecciones, simetrías y subespacios estables

Por Blanca Radillo

Introducción

Anteriormente introdujimos el concepto de transformaciones lineales entre dos espacios vectoriales. Vimos diversas propiedades que toda transformación lineal debe satisfacer. Finalmente, se presentaron las definiciones de kernel e imagen. Lo que haremos ahora es hablar de algunos tipos especiales de transformaciones lineales: las proyecciones y las simetrías. Para ello, aprovecharemos lo que ya estudiamos de suma y suma directas de subespacios.

Además, hablaremos del concepto de subespacios estables. Intuitivamente, un subespacio es estable para una transformación lineal si al aplicarla en elementos del subespacio, «no nos salimos del subespacio».

Proyecciones

Hablemos de una clase fundamental de transformaciones lineales: las proyecciones sobre subespacios. Para ellas, se comienza expresando a un espacio vectorial como una suma directa $V=W_1\oplus W_2$. Recuerda que, a grandes rasgos, esto quiere decir que cada vector $v$ de $V$ se puede expresar de manera única como $v=w_1+w_2$, donde $w_1$ está en $W_1$ y $w_2$ está en $W_2$.

Definición. Sea $V$ un espacio vectorial y sean $W_1$ y $W_2$ dos subespacios de $V$ tales que $V=W_1\oplus W_2$. La proyección sobre $W_1$ es la función $\pi_1:V\rightarrow W_1$ definido como: para cada $v\in V$, se tiene que $\pi_1(v)$ es el único vector en $W_1$ tal que $v-\pi_1(v)$ está en $W_2$.

De manera similar podemos definir la proyección sobre $W_2$, llamada $\pi_2:V\rightarrow W_2$.

Hay otra forma de decir esto. Dado que $V=W_1\oplus W_2$, para todo $v\in V$ existen únicos vectores $v_1\in W_1$ y $v_2\in W_2$ tales que $v=v_1+v_2$. Entonces $\pi_1(v)=v_1$ y $\pi_2(v)=v_2$.

Ejemplo. Sea $V=\mathbb{R}^2$, y sean $W_1=\{(a,0): a\in\mathbb{R}\}$ y $W_2=\{(0,b):b\in\mathbb{R}\}$. Sabemos que $W_1$ y $W_2$ son subespacios y que $V=W_1\oplus W_2$. Entonces, si $(a,b)\in V$, se tiene que $\pi_1((a,b))=(a,0)$ y $\pi_2((a,b))=(0,b)$.

$\triangle$

Cuando hablamos de una proyección $\pi$ de un espacio vectorial $V$, sin indicar el subespacio, de manera implícita nos referimos a una función para la cual existe una descomposición $V=W_1\oplus W_2$ tal que $\pi$ es la proyección sobre $W_1$.

Problema. Muestra que la transformación lineal $\pi:M_2(\mathbb{R})\to M_2(\mathbb{R})$ tal que $$\pi\begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} a + b & 0 \\ c & 0 \end{pmatrix}$$ es una proyección.

Solución. Para resolver el problema, tenemos que mostrar que se puede escribir $M_2(\mathbb{R})=W_1\oplus W_2$, de modo que $\pi$ sea una proyección sobre $W_1$.

Proponemos $$W_1=\left\{\begin{pmatrix} r & 0 \\ s & 0\end{pmatrix}: r,s, \in \mathbb{R}\right\}$$ y $W_2$ como $$W_2=\left\{\begin{pmatrix} -r & r \\ 0 & s\end{pmatrix}: r,s, \in \mathbb{R}\right\}.$$

Si una matriz está simultánteamente en $W_1$ y $W_2$, es sencillo mostrar que únicamente puede ser la matriz cero, es decir $O_2$. Esto lo puedes verificar por tu cuenta. Además, cualquier matriz en $M_2(\mathbb{R})$ se puede escribir como suma de elementos en $W_1$ y $W_2$ como sigue: $$\begin{pmatrix} a & b \\ c & d \end{pmatrix} = \begin{pmatrix} a +b & 0 \\ c & 0 \end{pmatrix} + \begin{pmatrix} -b & b \\ 0 & d \end{pmatrix}.$$

Justo $\pi$ es la primer matriz. Esto muestra que $\pi$ es una proyección, pues es la proyección sobre $W_1$ en la descomposición $V=W_1\oplus W_2$.

$\square$

Aún no hemos mostrado que las proyecciones son transformaciones lineales. Hacemos esto a continuación.

Proposición. Sean $V$ un espacio vectorial, $W_1$ un subespacio vectorial de $V$ y $\pi:V\to W_1$ una proyección de $V$ sobre $W_1$. Entonces $\pi$ es una transformación lineal.

Demostración. Si $v,v’ \in V$ entonces $v+v’\in V$ y por definición de proyección tenemos que $\pi(v+v’)$ es el único vector en $W_{1}$ tal que:

$$(v+v’)-\pi(v+v’)\in W_{2},$$ por otra parte como $\pi(v)$ es el únco vector en $W_{1}$ tal que $v-\pi(v)\in W_{2}$ y $\pi(v’)$ es el único vector en $W_{1}$ tal que $v’-\pi(v’)\in W_{2}$ entonces $v-\pi(v)+v’-\pi(v’)\in W_{2}$ ya que $W_{2}$ es subespacio de $V$, es decir que $$(v+v’)-(\pi(v)+\pi(v’))\in W_{2}$$ y debido a que $\pi(v)+\pi(v’)\in W_{1}$, entonces tenemos la situación en la que existe un vector $\pi(v)+\pi(v’)\in W_{1}$ tal que $$(v+v’)-(\pi(v)+\pi(v’))\in W_{2},$$ pero $\pi(v+v’)$ es el único vector en $W_{1}$ tal que $(v+v’)-\pi(v+v’)\in W_{2}$, esto implica que $$\pi(v+v’)=\pi(v)+\pi(v’).$$ Así concluimos que $\pi$ abre sumas.

Para comprobar que $\pi$ saca escalares consideremos cualquier $v\in V$ y cualquier $c\in F$, tenemos que $cv\in V$ (pues $V$ es espacio vectorial), por definición de proyección tenemos que $\pi(cv)$ es el único vector en $W_{1}$ tal que $$cv-\pi(cv)\in W_{2},$$ por otra parte $\pi(v)$ es el único vector de $W_{1}$ tal que $v-\pi(v)\in W_{2}$ entonces $c(v-\pi(v))=cv-c\pi(v)\in W_{2}$. Como $c\pi(v)\in W_{1}$ tal que $cv-c\pi(v)\in W_{2}$ entonces $$\pi(cv)=c\pi(v)$$ debido a la unicidad de $\pi(cv)$, por lo que $\pi$ saca escalares. Como $\pi$ abre sumas y saca escalares concluimos que $\pi$ es una transformación lineal.

$\square$

Finalmente, notemos que $\pi(v)=v$ para todo $v\in W_1$ pero $\pi(v)=0$ si $v\in W_2$.

Simetrías

Una segunda clase importante de trasnformaciones lineales son las simetrías.

Definición. Sea una descomposición $V=W_1\oplus W_2$, con $W_1, W_2$ dos subespacios de $V$. Decimos que $s:V\rightarrow V$ es una simetría con respecto a $W_1$ a lo largo de $W_2$ si para todo $v\in V$, escrito como $v=v_1+v_2$ con $v_1\in W_1$ y $v_2 \in W_2$, tenemos que $$s(v)=v_1-v_2.$$

Al igual que con las proyecciones, no es dificil ver que las simetrías son transformaciones lineales.

Proposición. Sea $s:V\rightarrow V$ una simetría con respecto a $W_1$ a lo largo de $W_2$. Entonces, $s$ es una transformación lineal.

Demostración. Sean $v,v’ \in V$. Sean $v_1,v’_1\in W_1$ y $v_2,v’_2 \in W_2$ tales que $v=v_1+v_2$ y $v’=v’_1+v’_2$. Eso implica que $v+v’=(v_1+v’_1)+(v_2+v’_2)$ con $v_1+v’_1 \in W_1$ y $v_2+v’_2 \in W_2$. Entonces
$$s(v)+s(v’)=(v_1-v_2)+(v’_1-v’_2) =(v_1+v’_1)-(v_2+v’_2)= s(v+v’).$$
Ahora sea $a\in F$, entonces $as(v)=a(v_1-v_2)=av_1-av_2=s(av_1+av_2)=s(av)$. Por lo tanto, $s$ es una transformación lineal.

$\square$

Notemos que si $v\in W_1$, entonces $s(v)=v-0=v$, y si $v\in W_2$, entonces $s(v)=0-v=-v$.

Subespacios estables

Observemos que las proyecciones y las simetrías satisfacen que $\pi(W_1)=W_1$ y $s(W_1)=W_1$. Esta es una propiedad muy linda, pero en general, si $T:V\rightarrow V$ es una transformación lineal cualquiera y $W$ un subespacio de $V$, no siempre tenemos que $T(W)=W$, o ni siquiera que $T(W)\subset W$. Es decir, aunque tomemos un vector $w$ en $W$, puede pasar que $T(w)$ ya «esté fuera» de $W$.

Los subespacios $W$ que sí satisfacen esta última propiedad son cruciales en el estudio de este curso, y por ello, merecen un nombre especial.

Definición. Sea $V$ un espacio vectorial y $T:V\rightarrow V$ una transformación lineal. Si $W$ es un subespacio de $V$ tal que $T(W)\subset W$, decimos que $W$ es un subespacio estable bajo $T$.

En otras palabras, $W$ es estable bajo $T$ si para todo $v$ en $W$ se tiene que $T(v)$ también está en $W$. Un ejemplo trivial es la transformación identidad con cualquier subespacio $W$. Otro ejemplo trivial es que $V$ y $\{0\}$ son dos subespacios estables bajo cualquier transformación lineal $T:V\rightarrow V$. Otros ejemplos son los ya mencionados: las proyecciones y las simetrías.

En el siguiente ejemplo encontraremos todos los subespacios estables para una cierta transformación.

Ejemplo. Consideremos el mapeo $T:\mathbb{R}^2\rightarrow \mathbb{R}^2$ con $T(x,y)=(y,-x)$. Claramente $T$ es lineal. Sea $W$ un subespacio estable de $\mathbb{R}^2$ bajo $T$. Supongamos que $W$ no es ni $\mathbb{R}^2$, ni el subespacio trivial $\{ (0,0) \}$.

Veremos que no hay ningún otro subespacio estable. Procedamos por contradicción. Suponiendo que hay otro subespacio estable $W$, su dimensión tendría que ser exactamente $1$. Eso implica que $W$ está generado por un vector no cero, digamos $v=(x,y)$. Es decir, cada $w\in W$ lo podemos escribir como $w=av$ donde $a$ es un escalar. En particular $v\in W$.

Como $W$ es estable bajo $T$, entonces $T(v)\in W$, esto es $T(v)=cv$ para algún $c$. Así,
\begin{align*}
(y,-x)&=T((x,y))\\&=T(v)\\&=cv\\&=c(x,y)\\&=(cx,cy).
\end{align*} Igualando ambos extremos, obtenemos que$y=cx$ y $-x=cy$, lo cual implica que $(c^2+1)x=0$. Como $c$ es real, esto implica $x=0$ y por lo tanto $y=0$. Concluimos que $v=(0,0)$, lo cual es una contradicción.

Esto demuestra que los únicos subespacios estables bajo $T$ son $\mathbb{R}^2$ y $\{(0,0)\}$.

$\square$

El siguiente problema estudia un problema inverso. En ella se encuentran todas las transformaciones lineales que dejan fijas «todas las rectas por el vector $0$».

Problema. Sea $V$ un espacio vectorial y $T:V\rightarrow V$ una transformación lineal tal que, para todo $v\in V$, se tiene que $\text{span}(v)$ es un subespacio estable bajo $T$. Entonces existe un escalar $c\in F$ tal que $T(x)=cx$ para todo $x\in V$.

Demostración. Sea $x\in V$ un vector distinto de $0$. Si $L=\text{span}(x)$, tenemos que $T(L)\subset L$ por hipótesis. En particular $T(x)\in L$ y por lo tanto existe $c_x$ tal que $T(x)=c_x x$. Queremos probar que esa constante realmente no depende de $x$.

Sea $y\in V$. Hay dos opciones: $x,y$ son linealmente independientes o no. Supongamos primero que $x,y$ son linealmente independientes. Entonces $x+y \neq 0$ y la igualdad $T(x+y)=T(x)+T(y)$ puede ser escrita como $c_{x+y} (x+y)=c_x x+c_y y$, esto es equivalente a $(c_{x+y}-c_x)x+(c_{x+y}-c_y) y=0.$ Por independencia lineal, $c_{x+y}-c_x=c_{x+y}-c_y=0$ y por lo tanto. $c_x=c_{x+y}=c_y$.

Ahora si $x,y$ no son linealmente independientes, es porque $y=0$ (en cuyo caso cualquier $c_y$ funciona, en particular $c_x$) o bien porque $y=ax$ para algún escalar $a$ no cero. Entonces la igualdad $T(y)=T(ax)=aT(x)$ puede ser escrita como $c_y y=ac_x x=c_x y$, y esto implica que $c_y=c_x$.

En cualquier caso, hemos mostrado que para todo $y\in V$, se tiene que $c_x=c_y$. Definiendo $c=c_x$, se satisface la afirmación de la proposición.

$\square$

Las imágenes y kernels son estables

Otros ejemplos importantes de subespacios estables son las imágenes y los kernels. Esto únicamente funciona para cuando tenemos una transformación lineal de un espacio vectorial a sí mismo.

Proposición. Sea $T:V\to V$ una transformación lineal. Entonces $\ker(T)$ e $\Ima(T)$ son subespacios estables bajo $T$.

Demostración. En la entrada anterior ya vimos que $\ker(T)$ e $\Ima(T)$ son subespacios de $V$. Veamos que son estables bajo $T$.

Tomemos $v\in \ker(T)$. Tenemos que mostrar que $T(v)\in \ker(T)$. Pero esto es cierto pues $$T(T(v))=T(0)=0.$$ Así $T(\ker(T))\subset \ker(T)$ y por lo tanto $\ker(T)$ es estable bajo $T$.

Ahora tomemos $v\in \Ima(T)$. De manera inmediata, $T(v)\in \Ima(T)$. Así, $\Ima(T)$ es estable bajo $T$.

$\square$

Más adelante…

Las proyecciones y simetrías son dos ejemplos de transformaciones lineales que tienen propiedades específicas. Más adelante, cuando hablemos de geometría de espacios vectoriales y del proceso de Gram-Schmidt, veremos que las proyecciones satisfacen propiedades interesantes en términos de ciertas distancias.

La teoría de subespacios estables es muy útil a la hora de construir bases de subespacios vectoriales de manera inductiva. De hecho, los resultados en esta dirección son uno de los ingredientes que usaremos en la demostración del teorema estelar del curso: el teorema espectral.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Sea $Y$ es el subespacio $Y=\{(0,r,0): r\in \mathbb{R}\}$ de $\mathbb{R}^3$. Argumenta por qué la transformación $\pi:\mathbb{R}^3\to Y$ dada por $\pi(x,y,z)=(0,y,0)$ es una proyección sobre $Y$. Para ello tendrás que encontrar un subespacio $W$ de $\mathbb{R}^3$ tal que $\mathbb{R}^3=Y\oplus W$ y con el cual $\pi(x,y,z)$ satisface la definición.
  • Sea $X$ el subespacio $X=\{(r,0,0): r\in \mathbb{R} \}$. ¿Es posible ver a la transformación $T:\mathbb{R}^3 \to X$ dada por $T(x,y,z)=(x+y+z,0,0)$ como una proyección sobre $X$? Si tu respuesta es sí, tendrás que dar un espacio $W$ bajo el cual se satisfaga la definición. Si tu respuesta es no, tendrás que mostrar que ningún subespacio $W$ funciona.
  • En el ejemplo de la sección de subespacios estables, ¿qué sucede si trabajamos en $\mathbb{C}^2$ en vez de en $\mathbb{R}^2$? ¿Quienes serían todos los subespacios estables?
  • Sea $B=\{v_1,v_2,\ldots,v_n\}$ una base para un espacio vectorial $V$ sobre un campo $F$. Sea $V_i$ el espacio vectorial generado por $v_i$, es decir, el conjunto de vectores de la forma $cv_i$ con $c\in F$. Como $B$ es base, cada vector $v\in V$ puede escribirse de la forma $$a_1v_1+a_2v_2+\ldots+a_nv_n$$ de manera única. Muestra que para toda $i\in\{1,2,\ldots,n\}$ la función $\pi_i(v)=a_iv_i$ es una proyección sobre $V_i$.
  • Para cada entero $n$, muestra que $\mathbb{R}_n[x]$ es un subespacio de $\mathbb{R}[x]$ que es estable bajo la transformación lineal $T$ que manda a cada polinomio $p(x)$ a su derivada $T(p(x))=p'(x)$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»