Archivo del Autor: Leonardo Ignacio Martínez Sandoval

Acerca de Leonardo Ignacio Martínez Sandoval

Hola. Soy Leonardo Martínez. Soy Profesor de Tiempo Completo en la Facultad de Ciencias de la UNAM. Hice un doctorado en Matemáticas en la UNAM, un postdoc en Israel y uno en Francia. Además, me gusta colaborar con proyectos de difusión de las matemáticas como la Olimpiada Mexicana de Matemáticas.

Álgebra Lineal I: Espacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la primer unidad de este curso de álgebra lineal estudiamos a profundidad al conjunto $F^n$ con sus operaciones de suma y multiplicación por escalar. Luego, hablamos de las matrices en $M_{m,n}(F)$ y vimos cómo pensarlas como transformaciones lineales. Les dimos una operación de producto que en términos de transformaciones lineales se puede pensar como la composición. Luego, hablamos de la forma escalonada reducida de una matriz y cómo llevar cualquier matriz a esta forma usando reducción gaussiana. Esto nos permitió resolver sistemas de ecuaciones lineales homogéneos y no homogeneos, así como encontrar inversas de matrices. Las habilidades desarrolladas en la primer parte del curso serán de mucha utilidad para la segunda, en donde hablaremos de espacios vectoriales.

En esta entrada definiremos el concepto de espacio vectorial y vectores. Para hacer esto, tomaremos como motivación el espacio $F^n$, que ya conocemos bien. Sin embargo, hay muchos otros ejemplos de objetos matemáticos que satisfacen la definición que daremos. Hablaremos de algunos de ellos.

En el transcurso de la unidad también hablaremos de otros conceptos básicos, incluido el de subespacio. Hablaremos de conjuntos linealmente independientes, de generadores y de bases. Esto nos llevará a establecer una teoría de la dimensión de un espacio vectorial. Las bases son de fundamental importancia pues en el caso de dimensión finita, nos permitirán pensar a cualquier espacio vectorial «como si fuera $F^n$ «. Más adelante precisaremos en qué sentido es esto.

Después, veremos cómo pasar de un espacio vectorial a otro mediante transformaciones lineales. Veremos que las transformaciones entre espacios vectoriales de dimensión finita las podemos pensar prácticamente como matrices, siempre y cuando hayamos elegido una base para cada espacio involucrado. Para ver que estamos haciendo todo bien, debemos verificar que hay una forma sencilla de cambiar esta matriz si usamos una base distinta, y por ello estudiaremos a las matrices de cambio de base.

Esta fuerte relación que existe entre transformaciones lineales y y matrices nos permitirá llevar información de un contexto a otro. Además, nos permitirá definir el concepto de rango para una matriz (y transformación vectorial). Hasta ahora, sólo hemos distinguido entre matrices invertibles y no invertibles. Las matrices invertibles corresponden a transformaciones lineales que «guardan toda la información». El concepto de rango nos permitirá entender de manera más precisa cuánta información guardan las transformaciones lineales no invertibles.

Recordando a $F^n$

Antes de definir el concepto de espacio vectorial en toda su generalidad, recordemos algunas de las cosas que suceden con $F^n$. De hecho, puedes pensar en algo mucho más concreto como $\mathbb{R}^4$.

Como recordatorio, comenzamos tomando un campo $F$ y dijimos que, para fines prácticos, podemos pensar que se trata de $\mathbb{R}$ y $\mathbb{C}$. A los elementos de $F$ les llamamos escalares.

Luego, consideramos todas las $n$-adas de elementos de $F$ y a cada una de ellas le llamamos un vector. A $F^n$ le pusimos una operación de suma, que tomaba dos vectores en $F^n$ y nos daba otro. Además, le pusimos una operación de producto por escalar, la cual tomaba un escalar en $F$ y un vector en $F^n$ y nos daba como resultado un vector. Para hacer estas operaciones procedíamos entrada a entrada.

Sin embargo, hay varias propiedades que demostramos para la suma y producto por escalar, para las cuales ya no es necesario hablar de las entradas de los vectores. Mostramos que todo lo siguiente pasa:

  1. (Asociatividad de la suma) Para cualesquiera vectores $u,v,w$ en $F^n$ se cumple que $(u+v)+w=u+(v+w)$.
  2. (Conmutatividad de la suma) Para cualesquiera vectores $u,v$ en $F^n$ se cumple que $u+v=v+u$.
  3. (Identidad para la suma) Existe un vector $0$ en $F^n$ tal que $u+0=u=0+u$.
  4. (Inversos para la suma) Para cualquier vector $u$ en $F^n$ existe un vector $v$ en $F^n$ tal que $u+v=0=v+u$.
  5. (Distributividad para la suma escalar) Para cualesquiera escalares $a,b$ en $F$ y cualquier vector $v$ en $F^n$ se cumple que $(a+b)v=av+bv$.
  6. (Distributividad para la suma vectorial) Para cualquier escalar $a$ en $F$ y cualesquiera vectores $v,w$ en $F^n$ se cumple que $a(v+w)=av+aw$.
  7. (Identidad de producto escalar) Para la identidad multiplicativa $1$ del campo $F$ y cualquier vector $v$ en $F^n$ se cumple que $1v=v$.
  8. (Compatibilidad de producto escalar) Para cualesquiera dos escalares $a,b$ en $F$ y cualquier vector $v$ en $F^n$ se cumple que $(ab)v=a(bv)$.

Los primeros cuatro puntos son equivalentes a decir que la operación suma en $F^n$ es un grupo conmutativo. Resulta que hay varios objetos matemáticos que satisfacen todas estas ocho propiedades o axiomas de espacio vectorial, y cuando esto pasa hay muchas consecuencias útiles que podemos deducir. La esencia del álgebra lineal precisamente consiste en deducir todo lo posible en estructuras que tienen las ocho propiedades anteriores. Estas estructuras son tan especiales, que tienen su propio nombre: espacio vectorial.

Definición de espacio vectorial

Estamos listos para la definición crucial del curso.

Definición. Sea $F$ un campo. Un espacio vectorial sobre el campo $F$ es un conjunto $V$ con operaciones de suma y producto por escalar, que denotaremos por \begin{align*}
+:& V\times V \to V \quad \text{y}\\
\cdot:& F\times V \to V,
\end{align*}

para las cuales se cumplen las ocho propiedades de la sección anterior. En otras palabras:

  • El conjunto $V$ es un grupo conmutativo con la suma.
  • Se tiene asociatividad para la suma escalar y la suma vectorial
  • Se tiene identidad y compatibilidad de la mulltiplicación escalar.

A los elementos de $F$ les llamamos escalares. A los elementos de $F^n$ les llamamos vectores. Para hacer restas, las definimos como $u-v=u+(-v)$, donde $-v$ es el inverso aditivo de $v$ con la suma vectorial. Usualmente omitiremos el signo de producto escalar, así que escribiremos $av$ en vez de $a\cdot v$ para $a$ escalar y $v$ vector.

La definición da la impresión de que hay que verificar muchas cosas. De manera estricta, esto es cierto. Sin embargo, de manera intuitiva hay que pensar que a grandes rasgos los espacios vectoriales son estructuras en donde podemos sumar elementos entre sí y multiplicar vectores por escalares (externos) sin que sea muy complicado.

Como ya mencionamos, el conjunto $F^n$ con las operaciones de suma y multiplicación por escalar que se hacen entrada por entrada es un espacio vectorial sobre $F$. En lo que resta de la entrada, hablaremos de otros ejemplos de espacios vectoriales que nos encontraremos frecuentemente.

Espacios vectoriales de matrices

Otros ejemplos de espacios vectoriales con los que ya nos encontramos son los espacios de matrices. Dado un campo $F$ y enteros positivos $m$ y $n$, el conjunto de matrices en $M_{m,n}(F)$ es un espacio vectorial en donde la suma se hace entrada a entrada y la multiplicación escalar también.

¿Qué es lo que tenemos que hacer para mostrar que en efecto esto es un espacio vectorial? Se tendrían que verificar las 8 condiciones en la definición de espacio vectorial. Esto lo hicimos desde la primer entrada del curso, en el primer teorema de la sección «Operaciones de vectores y matrices». Vuelve a leer ese teorema y verifica que en efecto se enuncian todas las propiedades necesarias.

Aquí hay que tener cuidado entonces con los términos que se usan. Si estamos hablando del espacio vectorial $F^n$, las matrices no forman parte de él, y las matrices no son vectores. Sin embargo, si estamos hablando del espacio vectorial $M_{m,n}(F)$, entonces las matrices son sus elementos, y en este contexto las matrices sí serían vectores.

Ejemplo. Sea $\mathbb{F}_2$ el campo con $2$ elementos. Consideremos $M_{2}(\mathbb{F}_2)$. Este es un espacio vectorial. Tiene $16$ vectores de la forma $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$, en donde cada entrada es $0$ o $1$. La suma y la multiplicación por escalar se hacen entrada a entrada y con las reglas de $\mathbb{F}_2$. Por ejemplo, tenemos $$\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}.$$

$\triangle$

Espacios vectoriales de funciones

Ahora veremos algunos ejemplos de espacios vectoriales cuyos elementos son funciones. Esto puede parecer algo abstracto, pero en unos momentos veremos algunos ejemplos concretos que nos pueden ayudar a entender mejor.

Sea $F$ un campo y consideremos cualquier conjunto $X$. Consideremos el conjunto $V$ de todas las posibles funciones de $X$ a $F$. A este conjunto queremos ponerle operaciones de suma y de multiplicación por escalar.

Para definir la suma, tomemos dos funciones que van de $X$ a $F$, digamos $f:X\to F$ y $g:X\to F$. Definiremos a la función $f+g$ como la función que a cada $x$ en $X$ lo manda a $f(x)+g(x)$. Aquí estamos usando la suma del campo $F$. En símbolos, $(f+g):X\to F$ tiene regla de asignación $$(f+g)(x)=f(x)+g(x).$$

Para definir el producto por escalar, tomamos una función $f:X\to F$ y un escalar $c$ en el campo $F$. La función $cf$ será la función $cf:X\to F$ con regla de asignación $$(cf)(x)=cf(x)$$ para todo $x$ en $X$.

Resulta que el conjunto $V$ de funciones de $X$ a $F$ con estas operaciones de suma y producto, es un espacio vectorial. Podemos probar, por ejemplo, la asociatividad de la suma. Para ello, la primer cosa que necesitamos mostrar es la asociatividad de la suma. Es decir, que si tenemos $f:X\to F$, $g:X\to F$ y $h:X\to F$, entonces $$(f+g)+h = f+ (g+h).$$

Esta es una igualdad de funciones. Para que sea cierta, tenemos que verificarla en todo el dominio, así que debemos mostrar que para todo $x$ en $X$ tenemos que $$((f+g)+h)(x)=(f+(g+h))(x).$$

Para demostrar esto, usemos la definición de suma de funciones y la asociatividad de la suma del campo $F$. Con ello, podemos realizar la siguiente cadena de igualdades:

\begin{align*}
((f+g)+h)(x)&=(f+g)(x)+h(x)\\
&=(f(x)+g(x)) + h(x) \\
&=f(x) + (g(x)+h(x)) \\
&=f(x) + (g+h)(x)\\
&=(f+(g+h))(x).
\end{align*}

Así, la suma en $V$ es asociativa. El resto de las propiedades se pueden demostrar con la misma receta:

  • Se enuncia la igualdad de funciones que se quiere mostrar.
  • Para que dicha igualdad sea cierta, se tiene que dar en cada elemento del dominio, así que se evalúa en cierta $x$.
  • Se prueba la igualdad usando las definiciones de suma y producto por escalar, y las propiedades de campo de $F$.

Ejemplo. El ejemplo anterior es muy abstracto, pues $X$ puede ser cualquier cosa. Sin embargo, hay muchos espacios de funciones con los cuales se trabaja constantemente. Por ejemplo, si el campo es el conjunto $\mathbb{R}$ de reales y $X$ es el intervalo $[0,1]$, entonces simplemente estamos hablando de las funciones que van de $[0,1]$ a los reales.

Si tomamos $f:[0,1]\to \mathbb{R}$ y $g:[0,1]\to \mathbb{R}$ dadas por \begin{align*}f(x)&= \sin x – \cos x\\ g(x) &= \cos x + x^2,\end{align*} entonces su suma simplemente es la función $f+g:[0,1]\to \mathbb{R}$ definida por $(f+g)(x)=\sin x + x^2$. Si tomamos, por ejemplo, el escalar $2$, entonces la función $2f:[0,1]\to \mathbb{R}$ no es nada más que aquella dada por
$$(2f)(x)= 2\sin x – 2\cos x.$$

Así como usamos el intervalo $[0,1]$, pudimos también haber usado al intervalo $[-2,2)$, al $(-5,\infty]$, o a cualquier otro.

$\triangle$

Espacios vectoriales de polinomios

Otro ejemplo de espacios vectoriales que nos encontraremos frecuentemente son los espacios de polinomios. Si no recuerdas con precisión cómo se construyen los polinomios y sus operaciones, te recomendamos repasar este tema con material disponible aquí en el blog.

Dado un campo $F$ y un entero positivo $n$ usaremos $F[x]$ para referirnos a todos los polinomios con coeficientes en $F$ y usaremos $F_n[x]$ para referirnos a aquellos polinomios con coeficientes en $F$ y grado a lo más $n$. Aunque el polinomio cero no tiene grado, también lo incluiremos en $F_n[x]$.

Ejemplo. Si $F$ es $\mathbb{C}$, el campo de los números complejos, entonces todos los siguientes son polinomios en $\mathbb{C}[x]$: \begin{align*}p(x)&=(2+i)x^6 + (1+i),\\ q(x)&=3x^2+2x+1,\\ r(x)&=5x^7+(1-3i)x^5-1.\end{align*}

Tanto $p(x)$ como $q(x)$ están en $\mathbb{C}_6[x]$, pues su grado es a lo más $6$. Sin embargo, $r(x)$ no está en $\mathbb{C}_6[x]$ pues su grado es $7$.

El polinomio $q(x)$ también es un elemento de $\mathbb{R}[x]$, pues tiene coeficientes reales. Pero no es un elemento de $\mathbb{R}_1[x]$ pues su grado es demasiado grande.

$\triangle$

Recuerda que para sumar polinomios se tienen que sumar los coeficientes de grados correspondientes. Al hacer multiplicación por escalar se tienen que multiplicar cada uno de los coeficientes. De esta forma, si $f(x)=x^2+1$ y $g(x)=x^3+\frac{x^2}{2}-3x-1$, entonces $$(f+g)(x)=x^3+\frac{3x^2}{2}-3x,$$ y $$(6g)(x)=6x^3+3x^2-18x-6.$$

Resulta que $F[x]$ con la suma de polinomios y con el producto escalar es un espacio vectorial. Puedes verificar cada uno de los axiomas por tu cuenta.

Observa que la suma de dos polinomios de grado a lo más $n$ tiene grado a lo más $n$, pues no se introducen términos con grado mayor que $n$. Del mismo modo, si tenemos un polinomio con grado a lo más $n$ y lo multiplicamos por un escalar, entonces su grado no aumenta. De esta forma, podemos pensar a estas operaciones como sigue:
\begin{align*}
+:& F_n[x] \times F_n[x] \to F_n[x]\\
\cdot: & F\times F_n[x] \to F_n[x].
\end{align*}

De esta forma, $F_n[x]$ con la suma de polinomios y producto escalar de polinomios también es un espacio vectorial.

Más adelante…

Ya dimos la definición de espacio vectorial y vimos varios ejemplos. Dentro de algunas entradas veremos como conseguir muchos más espacios vectoriales.

En el último ejemplo pasa algo curioso: el espacio $F_n[x]$ es un subconjunto del espacio $F[x]$ y además es un espacio vectorial con las mismas operaciones que $F[x]$. Este es un fenómeno muy importante en álgebra lineal. Decimos que $F_n[x]$ es un subespacio de $F[x]$. En la siguiente entrada definiremos en general qué es un subespacio de un espacio vectorial y veremos algunas propiedades que tienen los subespacios.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • A partir de los axiomas de espacio vectorial, muestra lo siguiente para un espacio vectorial $V$:
    • La identidad de la suma vectorial es única, es decir, que si existe otro elemento $e$ en $V$ tal que $u+e=u=e+u$ para todo $u$ en $V$, entonces $e=0$.
    • Que si $0$ es la identidad aditiva del campo $F$ y $v$ es cualquier vector en $V$, entonces $0v$ es la identidad de la suma vectorial. En símbolos, $0v=0$, donde el primer $0$ es el de $F$ y el segundo el de $V$.
    • Se vale la regla de cancelación para la suma vectorial, es decir, que si $u,v,w$ son vectores en $V$ y $u+v=u+w$, entonces $v=w$.
    • Se vale la regla de cancelación para el producto escalar, es decir, que si $a$ es un escalar no cero del campo $F$ y $u,v$ son vectores de $V$ para los cuales $au=av$, entonces $u=v$.
    • Que el inverso aditivo de un vector $v$ para la suma vectorial en $V$ es precisamente $(-1)v$, es decir, el resultado de hacer la multiplicación escalar de $v$ con el inverso aditivo del $1$ del campo $F$.
  • Sea $V$ un espacio vectorial sobre $\mathbb{R}$. Sean $u$, $v$ y $w$ vectores en $V$. Justifica la siguiente igualdad enunciando de manera explícita todos los axiomas de espacio vectorial que uses $$u+5v-3w+2u-8v= -3(w+v-u).$$
  • Termina de demostrar que en efecto los espacios de funciones con la suma y producto escalar que dimos son espacios de funciones.
  • Enlista todos los polinomios de $(\mathbb{F}_2)_3[x]$. A continuación hay algunos: $$0, x+1, x^2+x, x^3+1.$$ Para cada uno de ellos, encuentra quien es su inverso aditivo para la suma vectorial de $(\mathbb{F}_2)_3[x]$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Introducción al curso, vectores y matrices

Por Leonardo Ignacio Martínez Sandoval

Introducción

Esta es la primer entrada correspondiente a las notas del curso Álgebra Lineal I. En esta serie de entradas, cubriremos todo el temario correspondiente al plan de estudios de la materia en la Facultad de Ciencias de la UNAM. Las notas están basadas fuertemente en el libro Essential Lineal Algebra with Applications de Titu Andreescu.

El curso se trata, muy a grandes rasgos, de definir espacios vectoriales y estudiar muchas de sus propiedades. Un espacio vectorial con el que tal vez estés familiarizado es $\mathbb{R}^n$, donde sus elementos son vectores con $n$ entradas. En él se pueden hacer sumas entrada a entrada, por ejemplo, si $n=3$ una suma sería

\begin{align*}
(5,-1,2)+(1,4,9)=(6,3,11).
\end{align*}

También se puede multiplicar un vector por un número real, haciéndolo entrada a entrada, por ejemplo,

\begin{align*}
3(1,5,-2,6)=(3,15,-6,18).
\end{align*}

El álgebra lineal estudia espacios vectoriales más generales que simplemente $\mathbb{R}^n$. Como veremos más adelante, hay muchos objetos matemáticos en los que se puede definir una suma y un producto escalar. Algunos ejemplos son los polinomios, ciertas familias de funciones y sucesiones. La ventaja de estudiar estos espacios desde el punto de vista del álgebra lineal es que todas las propiedades que probemos «en general», se valdrán para todos y cada uno de estos ejemplos.

Lo que haremos en la primer unidad del curso es entender muy a profundidad a $F^n$, una generalización de $\mathbb{R}^n$ en la que usamos un campo arbitrario $F$. También, entenderemos a las matrices en $M_{m,n}(F)$, que son arreglos rectangulares con entradas en $F$. La unidad culmina con estudiar sistemas de ecuaciones lineales y el método de reducción Gaussiana.

Más adelante veremos que estudiar estos conceptos primero es muy buena idea pues los espacios vectoriales más generales tienen muchas de las propiedades de $F^n$, y podemos entender a ciertas transformaciones entre ellos al entender a $M_{m,n}(F)$.

Breve comentario sobre campos

En este curso no nos enfocaremos en estudiar a profundidad las propiedades que tienen los campos como estructuras algebraicas. De manera pragmática, pensaremos que un campo $F$ consiste de elementos que se pueden sumar y multiplicar bajo propiedades bonitas:

  • La suma y el producto son asociativas, conmutativas, tienen neutro (que llamaremos $0$ y $1$ respectivamente y tienen inversos (i.e. se vale «restar» y «dividir»)
  • La suma y producto satisfacen la regla distributiva

De hecho, de manera muy práctica, únicamente usaremos a los campos $\mathbb{Q}$ de racionales, $\mathbb{R}$ de reales, $\mathbb{C}$ de complejos y $\mathbb{F}_2$, el campo de dos elementos $0$ y $1$. Este último sólo lo usaremos para observar que hay algunas sutilezas cuando usamos campos con una cantidad finita de elementos.

Para todos estos campos, supondremos que sabes cómo se suman y multiplican elementos. Si necesitas dar un repaso a estos temas, puedes echarle un ojo a las entradas del curso Álgebra Superior II, que también están aquí en el blog.

Nociones iniciales de álgebra lineal: escalares, vectores y matrices

Quizás te has encontrado con vectores y matrices en otros cursos. Por ejemplo, en geometría analítica es usual identificar a un vector $(x,y)$ con un punto en el plano cartesiano, o bien con una «flecha» que va del origen a ese punto. En álgebra lineal nos olvidaremos de esta interpretación por mucho tiempo. Será hasta unidades posteriores que tocaremos el tema de geometría de espacios vectoriales. Por el momento, sólo nos importan los vectores desde el punto de vista algebraico.

Tomemos un campo $F$. A los elementos de $F$ les llamaremos escalares. Para un entero positivo $n$, un vector $X$ en $F^n$ consiste de un arreglo de $n$ entradas $a_1,a_2,\ldots,a_n$ que pueden estar dispuestas en un vector fila $$X=(a_1, a_2,\ldots, a_n),$$ o bien un vector columna $$X=\begin{pmatrix}a_1 \\ a_2 \\ \vdots \\ a_n\end{pmatrix}.$$

Para $i=1,\ldots,n$, a $a_i$ le llamamos la $i$-ésima coordenada o $i$-ésima entrada de $X$.

Como vectores, puedes pensar que el vector fila y el vector columna correspondientes son el mismo. Abajo veremos en qué sentido tenemos que pensarlos como diferentes. Aunque como vectores sean los mismos, los vectores columna tienen varias ventajas conceptuales en álgebra lineal.

Ejemplo 1. El vector $$X=\left(\frac{1}{2}, -1, \frac{2}{3}, 4\right).$$ tiene cuatro entradas, y todas ellas son números racionales. Por lo tanto, es un vector en $\mathbb{Q}^4$. Su primer entrada es $\frac{1}{2}$. Está escrito como vector fila, pero podríamos escribirlo también como vector columna: $$\begin{pmatrix} \frac{1}{2} \\ -1 \\ \frac{2}{3} \\ 4 \end{pmatrix}.$$

El vector $$Y=\left(\pi, \frac{3}{4}, 5, 6, \sqrt{2}\right)$$ es un vector fila en $\mathbb{R}^5$, pero no en $\mathbb{Q}^5$, pues no todas sus entradas son racionales. A $Y$ también lo podemos pensar como un vector en $\mathbb{C}$.

$\triangle$

Una matriz en $M_{m,n}(F)$ es un arreglo rectangular de elementos en $F$ dispuestos en $m$ filas y $n$ columnas como sigue:

$$A=\begin{pmatrix}
a_{11} & a_{12} & a_{13} & \cdots & a_{1n}\\
a_{21} & a_{22} & a_{23} & \cdots & a_{2n}\\
\vdots & & \ddots & \vdots \\
a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn}
\end{pmatrix}.$$

Al escalar $a_{ij}$ le llamamos la entrada $(i,j)$ de $A$.

Para cada $i=1,\ldots,m$, definimos a la $i$-ésima fila de $A$ como el vector fila $$L_i=(a_{i1},a_{i2},\ldots,a_{in}),$$ y para cada $j=1,2,\ldots,n$ definimos a la $j$-ésima columna de $A$ como el vector columna $$C_j=\begin{pmatrix} a_{1j} \\ a_{2j} \\ \vdots \\ a_{mj}\end{pmatrix}.$$

Veamos algunas aclaraciones de notación. Cuando $m=n$, las matrices en $M_{m,n}(F)$ tienen la misma cantidad de filas que de columnas. En este caso simplemente usamos la notación $M_{n}(F)$ para ahorrarnos una letra, y si una matriz está en $M_{n}(F)$, le llamamos una matriz cuadrada. También, en ocasiones expresamos a una matriz en forma compacta diciendo cuántas filas y columnas tiene y usando la notación $A=[a_{ij}]$.

Ejemplo 2. Consideremos la matriz $A$ en $M_3(\mathbb{R})$ dada por $A=[a_{ij}]=[i+2j]$. Si queremos poner a $A$ de manera explícita, simplemente usamos la fórmula en cada una de sus entradas:

\begin{align*}
A=\begin{pmatrix}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23}\\
a_{31} & a_{32} & a_{33}\\
\end{pmatrix}&=\begin{pmatrix}
1+2\cdot 1 & 1+2\cdot 2 & 1+2\cdot 3\\
2+2\cdot 1 & 2+2\cdot 2 & 2+2\cdot 3\\
3+2\cdot 1 & 3+2\cdot 2 & 3+2\cdot 3\\
\end{pmatrix}\\
&=\begin{pmatrix}
3 & 5 & 7\\
4 & 6 & 8\\
5 & 7 & 9\\
\end{pmatrix}
\end{align*}

Esta es una matriz cuadrada. Sin embargo, la matriz $B$ en $M_{3,2}(\mathbb{R})$ con la misma regla $B=[b_{ij}]=[i+2j]$ no es una matriz cuadrada pues es

\begin{align*}
B=\begin{pmatrix}
a_{11} & a_{12} \\
a_{21} & a_{22} \\
a_{31} & a_{32} \\
\end{pmatrix}&=\begin{pmatrix}
1+2\cdot 1 & 1+2\cdot 2\\
2+2\cdot 1 & 2+2\cdot 2\\
3+2\cdot 1 & 3+2\cdot 2\\
\end{pmatrix}\\
&=\begin{pmatrix}
3 & 5 \\
4 & 6 \\
5 & 7 \\
\end{pmatrix},
\end{align*}

la cual es una matriz con $3$ filas y $2$ columnas.

$\triangle$

Cualquier vector fila en $F^n$ lo podemos pensar como una matriz en $M_{1n}(F)$ y cualquier vector columna en $F^n$ lo podemos pensar como una matriz en $M_{n1}(F)$. En este sentido estos dos vectores sí serían distintos. Usualmente será claro si se necesita o no hacer la distinción.

Para que dos vectores o dos matrices sean iguales, tienen que serlo coordenada a coordenada.

Vectores y matrices especiales

Al vector en $F^n$ con todas sus entradas iguales al cero del campo $F$ le llamamos el vector cero y lo denotamos con $0$. El contexto nos ayuda a decidir si estamos hablando del escalar cero (el neutro aditivo del campo $F$) o del vector cero.

De manera similar, a la matriz en $M_{m,n}$ con todas sus entradas iguales al cero del campo $F$ le llamamos la matriz cero y la denotamos con $O_{m,n}$. Si $m=n$, la llamamos simplemente $O_n$.

Otra matriz especial que nos encontraremos frecuentemente es la matriz identidad. Para cada $n$, es la matriz $I_n$ en $M_n(F)$ tal que cada entrada de la forma $a_{ii}$ es igual a uno (el neutro multiplicativo de $F$) y el resto de sus entradas son iguales a $0$.

Cuando estamos trabajando en $M_n(F)$, es decir, con matrices cuadradas, hay otras familias de matrices que nos encontraremos frecuentemente. Una matriz $A=[a_{ij}]$ en $M_{n}(F)$:

  • Es diagonal si cuando $i\neq j$, entonces $a_{ij}=0$.
  • Es triangular superior si cuando $i>j$, entonces $a_{ij}=0$.
  • Y es triangular inferior si cuando $i<j$ entonces $a_{ij}=0$.

A las entradas de la forma $a_{ii}$ se les conoce como las entradas de la diagonal principal de la matriz. En otras palabras, $A$ es diagonal cuando sus únicas entradas no cero están en la diagonal principal. Es triangular superior cuando sus entradas por debajo de la diagonal principal son iguales a cero. Y de manera similar, es triangular inferior cuando sus entradas por encima de la diagonal principal son iguales a cero.

Ejemplo. La matriz $O_{3,2}$ de $M_{3,2}(\mathbb{Q})$ es la siguiente

$$O_{3,2}=\begin{pmatrix}
0 & 0 \\ 0& 0 \\ 0 & 0 \\
\end{pmatrix}$$

La matriz $I_4$ de $M_{4}(F)$ es la siguiente

$$I_4=\begin{pmatrix}
1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0\\ 0 & 0 & 0 & 1
\end{pmatrix}.$$

Esta matriz identidad es diagonal, triangular superior y triangular inferior. Una matriz diagonal distinta a la identidad podría ser la siguiente matriz en $M_3(\mathbb{Q})$:

$$\begin{pmatrix}
1 & 0 & 0 \\ 0 & -\frac{1}{2} & 0 \\ 0 & 0 & \frac{1}{3} \\
\end{pmatrix}.$$

Una matriz que es triangular superior, pero que no es diagonal (ni triangular inferior), podría ser la siguiente matriz en $M_4(\mathbb{R})$:

$$\begin{pmatrix}
1 & \sqrt{2} & 2 & \sqrt{5}\\ 0 & 1 & \sqrt{3} & 0\\ 0& 0 & 1 & \sqrt{2}\\ 0 & 0 & 0 & 1
\end{pmatrix}.$$

$\triangle$

Operaciones de vectores y matrices

Si tenemos dos matrices $A=[a_{ij}]$ y $B=[b_{ij}]$ en $M_{m,n}(F)$, entonces podemos definir a la matriz suma $A+B$ como la matriz cuyas entradas son $[a_{ij}+b_{ij}]$, es decir, se realiza la suma (del campo $F$) entrada por entrada.

Ejemplo 1. Si queremos sumar a las matrices $A$ y $B$ en $M_{4}(\mathbb{R})$ dadas por $$A=\begin{pmatrix}
1 & \sqrt{2} & 2 & \sqrt{5}\\ 0 & 1 & \sqrt{3} & 2\\ 0& 0 & 1 & \sqrt{2}\\ 0 & 0 & 0 & 1
\end{pmatrix}.$$

y $$B=\begin{pmatrix}
1 & 1 & -1 & -3\\ 0 & 1 & 1 & -2\\ 0& 0 & 1 & 1\\ 0 & 0 & 0 & 1
\end{pmatrix},$$

entonces hacemos la suma entrada por entrada para obtener:

$$A+B=\begin{pmatrix}
2 & 1+\sqrt{2} & 1 & -3+\sqrt{5}\\ 0 & 2 & 1+\sqrt{3} & 0\\ 0 & 0 & 2 & 1+\sqrt{2}\\ 0 & 0 & 0 & 2
\end{pmatrix}.$$

$\triangle$

Es muy importante que las dos matrices tengan la misma cantidad de filas y renglones. Insistiendo: si no coinciden la cantidad de filas o de columnas, entonces las matrices no se pueden sumar.

Si tenemos una matriz $A=[a_{ij}]$ en $M_{m,n}(F)$ y un escalar $c$ en $F$, podemos definir el producto escalar de $A$ por $c$ como la matriz $cA=[ca_{ij}]$, es decir, aquella que se obtiene al multiplicar cada una de las entradas de $A$ por el escalar $c$ (usando la multiplicación del campo $F$).

Ejemplo 2. Al tomar la siguiente matriz en $M_{2}(\mathbb{C})$ $$A=\begin{pmatrix} 1 & i \\ -i & 1 \end{pmatrix}$$ y el escalar $i$ en $\mathbb{C}$, se tiene que $$iA=\begin{pmatrix} i\cdot 1 &i\cdot i \\ i\cdot (-i) & i\cdot 1\end{pmatrix} = \begin{pmatrix} i & -1 \\ 1 & i \end{pmatrix}.$$

$\triangle$

Dada una matriz $A$, a la matriz $(-1)A$ le llamamos simplemente $-A$, y definimos $A-B:=A+(-B)$.

Como todo vector en $F^n$ se puede pensar como una matriz, estas operaciones también se pueden definir para vectores para obtener la suma de vectores y el producto escalar en vectores.

En álgebra lineal frecuentemente hablaremos de escalares, vectores y matrices simultáneamente. Cada que veas una una variable es importante que te preguntes de cuál de estos tipos de objeto es. También, cada que veas una operación (por ejemplo, una suma), es importante preguntarte si es una suma de escalares, vectores o matrices.

Muchas de las buenas propiedades de las operaciones de suma y producto en el campo $F$ también se cumplen para estas definiciones de suma y producto escalar de vectores y matrices.

Teorema. Sean $A,B,C$ matrices en $M_{m,n}(F)$ y $\alpha,\beta,\gamma$ escalares en $F$. Entonces la suma de matrices:

  • Es asociativa: $(A+B)+C = A+(B+C)$
  • Es conmutativa: $A+B=B+A$
  • Tiene neutro: $A+O_{m,n}=A=O_{m,n}+A$
  • Tiene inversos: $A+(-A)=O_{m,n}=(-A)+A$

Además,

  • La suma de escalares y el producto escalar se distribuyen: $(\alpha+\beta)A=\alpha A + \beta A$
  • La suma de matrices y el producto escalar se distribuyen: $\alpha(A+B)=\alpha A + \alpha B$
  • El producto escalar es homogéneo: $\alpha(\beta A) = (\alpha \beta) A$
  • El $1$ es neutral para el producto escalar: $1A = A$

Un teorema análogo se vale al cambiar matrices por vectores. La demostración de este teorema se sigue directamente de las propiedades del campo $F$. La notación de entradas nos ayuda mucha a escribir una demostración sin tener que escribir demasiadas entradas una por una. Veamos, como ejemplo, la demostración de la primera propiedad.

Demostración. Tomemos matrices $A=[a_{ij}]$, $B=[b_{ij}]$ y $C=[c_{ij}]$ en $M_{m,n}(F)$. Para mostrar que $$(A+B)+C=A+(B+C),$$ tenemos que mostrar que la entrada $(i,j)$ del lado izquierdo es igual a la entrada $(i,j)$ del lado derecho para cada $i=1,\ldots,m$ y $j=1,\ldots,n$.

Por definición de suma, $A+B=[a_{ij}]+[b_{ij}]=[a_{ij}+b_{ij}]$. Por ello, y de nuevo por definicón de suma, $$(A+B)+C=[(a_{ij}+b_{ij})+c_{ij}].$$ De manera similar, $$A+(B+C)=[a_{ij}+(b_{ij}+c_{ij})].$$

Pero en $F$ la suma es asociativa, de modo que $$(a_{ij}+b_{ij})+c_{ij}=a_{ij}+(b_{ij}+c_{ij}).$$

Con esto hemos demostrado que $(A+B)+C$ y $A+(B+C)$ son iguales entrada a entrada, y por lo tanto son iguales como matrices.

$\square$

La receta para demostrar el resto de las propiedades es la misma:

  1. Usar la definición de suma o producto por escalares para saber cómo es la entrada $(i,j)$ del lado izquierdo y del lado derecho.
  2. Usar las propiedades del campo $F$ para concluir que las entradas son iguales.
  3. Concluir que las matrices son iguales.

Para practicar las definiciones y esta técnica, la demostración del resto de las propiedades queda como tarea moral. A partir de ahora usaremos todas estas propiedades frecuentemente, así que es importante que las tengas en cuenta.

Base canónica de vectores y matrices

Cuando estamos trabajando en $F^n$, al vector $e_i$ tal que su $i$-ésima entrada es $1$ y el resto son $0$ lo llamamos el $i$-ésimo vector de la base canónica. Al conjunto de vectores $\{e_1,\ldots,e_n\}$ le llamamos la base canónica de $F^n$.

De manera similar, cuando estamos trabajando en $M_{m,n}(F)$, para cada $i=1,\ldots,m$ y $j=1,\ldots,n$, la matriz $E_{ij}$ tal que su entrada $(i,j)$ es $1$ y todas las otras entradas son cero se le conoce como la matriz $(i,j)$ de la base canónica. Al conjunto de todas estas matrices $E_{ij}$ le llamamos la base canónica de $M_{m,n}(F)$.

Ejemplo 1. El vector $e_2$ de $F^3$ es $(0,1,0)$. Ten cuidado, pues este es distinto al vector $e_2$ de $F^5$, que es $(0,1,0,0,0)$.

La matriz $E_{12}$ de $M_{2,3}(\mathbb{R})$ es $$\begin{pmatrix} 0 & 1 & 0\\ 0 & 0 & 0 \end{pmatrix}.$$

$\triangle$

Más adelante veremos el concepto de base en general, cuando hablemos de espacios vectoriales. Por el momento, la intuición para álgebra lineal es que una base es un conjunto que nos ayuda a generar elementos que nos interesan mediante sumas y productos escalares. Los siguientes resultados dan una intuición inicial de este fenómeno.

Teorema. Todo vector $X$ en $F^n$ se puede escribir de manera única de la forma $$X=x_1e_1+x_2e_2+\ldots+x_ne_n,$$ en donde $x_1,\ldots,x_n$ son escalares en $F$ y $\{e_1,\ldots,e_n\}$ es la base canónica.

Demostración. Si $X$ es un vector en $F^n$, entonces es de la forma $X=(x_1,x_2,\ldots,x_n)$. Afirmamos que las coordenadas de $X$ son los $x_i$ buscados.

En efecto, tomemos una $i=1,\ldots,n$. Como $e_i$ tiene $1$ en la $i$-ésima entrada y $0$ en el resto, entonces $x_ie_i$ es el vector con $x_i$ en la $i$-ésima entrada y $0$ en el resto. De esta forma, sumando entrada a entrada, tenemos

\begin{align*}
x_1e_1+x_2e_2+\ldots+x_ne_n&=\begin{pmatrix} x_1 \\ 0 \\ 0 \\ \vdots \\ 0 \end{pmatrix} + \begin{pmatrix} 0 \\ x_2 \\ 0 \\ \vdots \\ 0 \end{pmatrix} + \ldots + \begin{pmatrix} 0\\ 0 \\ 0 \\ \vdots \\ x_n \end{pmatrix}\\
&=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \end{pmatrix}=X.
\end{align*}

Esto muestra la existencia.

Para demostrar la unicidad, un argumento análogo muestra que si tenemos otros escalares $y_1,\ldots,y_n$ que cumplan, entonces:

$$\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \end{pmatrix}=X=y_1e_1+\ldots+y_ne_n=\begin{pmatrix} y_1 \\ y_2 \\ y_3 \\ \vdots \\ y_n \end{pmatrix},$$

de modo que $x_i=y_i$ para todo $i=1,\ldots,n$.

$\square$

Tenemos un resultado análogo para matrices.

Teorema. Toda matriz $A$ en $M_{m,n}(F)$ se puede escribir de manera única de la forma $$A=\sum_{i=1}^m \sum_{j=1}^n x_{ij} E_{ij},$$ en donde para $i=1,\ldots,m$ y $j=1,\ldots,n$, se tiene que $x_{ij}$ son escalares en $F$ y $E_{ij}$ son las matrices de la base canónica.

La demostración es muy similar a la del teorema anterior y como práctica queda como tarea moral.

Ejemplo 2. La matriz $$A=\begin{pmatrix} 2 & 0\\ 0 & -1 \\ 3 & 5 \end{pmatrix}$$ en $M_{3,2}(\mathbb{C})$ se expresa de manera única en términos de la base canónica como $$A=2E_{11}-1E_{22}+3E_{31}+5E_{32}.$$

$\square$

Más adelante…

En esta entrada dimos una breve introducción al álgebra lineal. Ya definimos la suma y el producto escalar para vectores y matrices. En la siguiente entrada hablaremos de otro producto que sucede en álgebra lineal: la de una matriz en $M_{m,n}(F)$ por un vector en $F^n$. Veremos que esta multiplicación nos permite pensar a una matriz $A$ como una función $\varphi_A:F^n\to F^m$ con ciertas propiedades especiales.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Explica por qué no puedes sumar la matriz $I_5$ con la matriz $O_4$.
  • Muestra que la suma de dos matrices diagonales es diagonal. Haz lo mismo para matrices triangulares superiores y para matrices triangulares inferiores.
  • Termina de demostrar el teorema de propiedades de las operaciones de suma y producto escalar.
  • Explica por qué si una matriz es simultáneamente triangular superior y triangular inferior, entonces es diagonal.
  • Expresa a la siguiente matriz como combinación lineal de matrices de la base canónica:
    $$\begin{pmatrix}
    2 & \frac{1}{2} & 0 & 1\\
    3 & -3 & 3 & -3\\
    7 & -8 & -1 & 0
    \end{pmatrix}.$$
  • Demuestra el teorema de representación de matrices en términos de la base canónica.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM».

Álgebra Lineal I: Problemas de sistemas de ecuaciones e inversas de matrices

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada resolveremos problemas relacionados con el uso del método de reducción gaussiana para resolver sistemas de ecuaciones y encontrar inversas de matrices.

Problemas resueltos

Problema 1. Sea $A$ una matriz de tamaño $m\times n$ y sean $b$ y $c$ dos vectores en $\mathbb{R}^{m}$ tales que $AX=b$ tiene una única solución y el sistema $AX=c$ no tiene solución. Explica por qué tiene que ser cierto que $m>n$.

Solución. Dado que el sistema $AX=b$ es consistente, usando el teorema de existencia y unicidad podemos concluir que

  1. $\left(A’\vert b’\right)$ no tiene pivotes en la última columna,
  2. $A’$ tiene pivotes en todas sus columnas.

Sin embargo, sabemos que el sistema $AX=c$ no tiene solución. Otra vez por el teorema de existencia y unicidad, esto nos implica que $\left(A’\vert c’\right)$ tiene un pivote en la última columna. Sin embargo, ya sabíamos que $A’$ tiene pivotes en todas sus columnas, pero aún así hay espacio en $\left(A’\vert c’\right)$ para un pivote más, es decir, nos sobra espacio hasta abajo por lo que necesariamente tenemos al menos un renglón más que el número de columnas. Es decir $m\geq n+1$, y por lo tanto $m>n$.

$\triangle$

Problema 2. Determina si existen reales $w$, $x$, $y$ y $z$ tales que las matrices $$
\begin{pmatrix} x & 2\\ y & 1 \end{pmatrix}$$ y $$\begin{pmatrix} 5 & -2 \\ z & w \end{pmatrix}$$ sean inversas la una de la otra.

Solución. En una entrada anterior mostramos que para que dos matrices cuadradas $A$ y $B$ del mismo tamaño sean inversas, basta con mostrar que $AB=I$. De esta forma, haciendo el producto tenemos que el enunciado es equivalente a

\begin{align*}
\begin{pmatrix} 5x+2z & -2x+2w \\ 5y+z & -2y+w \end{pmatrix}
=\begin{pmatrix} 1 & 0 \\ 0 & 1\end{pmatrix}.
\end{align*}

Es decir, tenemos un sistema lineal

\begin{align*}
\begin{cases}
5x+2z&=1\\
-2x+2w&=0\\
5y+z&=0\\
-2y+w&=1.
\end{cases}
\end{align*}

Este es un sistema lineal de la forma $AX=b$, donde $$A=\begin{pmatrix} 5 & 0 & 2 & 0 \\ -2 & 0 & 0 & 2 \\ 0 & 5 & 1 & 0 \\ 0 & -2 & 0 & 1 \end{pmatrix}$$ y $$b=\begin{pmatrix} 1 \\ 0 \\ 0 \\ 1 \end{pmatrix}.$$

Para determinar si tiene solución, aplicamos reducción gaussiana a la matriz $(A|b)$. En los siguientes pasos estamos aplicando una o más operaciones elementales.

\begin{align*}
&\begin{pmatrix}
5 & 0 & 2 & 0 & 1 \\ -2 & 0 & 0 & 2 & 0 \\ 0 & 5 & 1 & 0 & 0 \\ 0 & -2 & 0 & 1 & 1 \end{pmatrix}\\
\to &\begin{pmatrix}
1 & 0 & \frac{2}{5} & 0 & \frac{1}{5} \\ -2 & 0 & 0 & 2 & 0 \\ 0 & 5 & 1 & 0 & 0 \\ 0 & -2 & 0 & 1 & 1 \end{pmatrix}\\
\to & \begin{pmatrix}
1 & 0 & \frac{2}{5} & 0 & \frac{1}{5} \\ 0 & 0 & \frac{4}{5} & 2 & \frac{2}{5} \\ 0 & 5 & 1 & 0 & 0 \\ 0 & -2 & 0 & 1 & 1 \end{pmatrix}\\
\to & \begin{pmatrix}
1 & 0 & \frac{2}{5} & 0 & \frac{1}{5} \\ 0 & 1 & \frac{1}{5} & 0 & 0 \\ 0 & 0 & \frac{4}{5} & 2 & \frac{2}{5} \\ 0 & -2 & 0 & 1 & 1 \end{pmatrix} \\
\to & \begin{pmatrix}
1 & 0 & \frac{2}{5} & 0 & \frac{1}{5} \\ 0 & 1 & \frac{1}{5} & 0 & 0 \\ 0 & 0 & \frac{4}{5} & 2 & \frac{2}{5} \\ 0 & 0 & \frac{2}{5} & 1 & 1 \end{pmatrix} \\
\to & \begin{pmatrix}
1 & 0 & \frac{2}{5} & 0 & \frac{1}{5} \\ 0 & 1 & \frac{1}{5} & 0 & 0 \\ 0 & 0 & 1 & \frac{5}{2} & \frac{1}{2} \\ 0 & 0 & \frac{2}{5} & 1 & 1 \end{pmatrix}\\
\to & \begin{pmatrix}
1 & 0 & 0 & -1 & 0 \\ 0 & 1 & 0 & -\frac{1}{2} & -\frac{1}{10} \\ 0 & 0 & 1 & \frac{5}{2} & \frac{1}{2} \\ 0 & 0 & 0 & 0 & \frac{4}{5} \end{pmatrix}\\
\to & \begin{pmatrix}
1 & 0 & 0 & -1 & 0 \\ 0 & 1 & 0 & -\frac{1}{2} & 0 \\ 0 & 0 & 1 & \frac{5}{2} & 0 \\ 0 & 0 & 0 & 0 & 1 \end{pmatrix}
\end{align*}

Ya encontramos la forma escalonada reducida $(A’|b’)$ de $(A|b)$. La última columna de $(A’|b’)$ tiene un pivote (el de la última fila). De esta forma, el sistema de ecuaciones no tiene solución.

$\triangle$

En la práctica, se pueden usar herramientas tecnológicas para para resolver algunos problemas numéricos concretos. Sin embargo, es importante tener un sólido conocimiento teórico para saber cómo aprovecharlas.

Problema 3. Determina si las siguientes matrices son invertibles. En caso de serlo, encuentra la inversa. \begin{align*}
A&=\begin{pmatrix} -1 & 1 & 3 \\ 0 & 1 & 5 \\ 7 & 3 & 2 \end{pmatrix}\\
B&=\begin{pmatrix}1 & 5 & -1 & 2 \\ -1 & 3 & 1 & 2 \\ 3 & 4 & 1 & -2 \\ -15 & 9 & -1 & 22 \end{pmatrix}.
\end{align*}

Solución. Usando la calculadora de forma escalonada reducida de eMathHelp, obtenemos que la forma escalonada reducida de $A$ y $B$ son, respectivamente

\begin{align*}
A_{red}&=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\\
B_{red}&=\begin{pmatrix}1 & 0 & 0 & -\frac{9}{8}\\ 0 & 1 & 0 & \frac{1}{2} \\ 0 & 0 & 1 & -\frac{5}{8} \\ 0 & 0 & 0 & 0 \end{pmatrix}.
\end{align*}

Por uno de nuestros teoremas de caracterización, para que una matriz cuadrada sea invertible debe de suceder que su forma escalonada reducida sea la identidad. Esto nos dice que $A$ sí es invertible, pero $B$ no.

Para encontrar la inversa de $A$, consideramos la matriz extendida $(A|I_3)$, y a ella le aplicamos reducción gaussiana. Usamos de nuevo la calculadora de eMathHelp para obtener

\begin{align*}
(A_{red}|X)=
\begin{pmatrix}
1 & 0 & 0 & -\frac{13}{27} & \frac{7}{27} & \frac{2}{27} \\
0 & 1 & 0 & \frac{35}{27} & – \frac{23}{27} & \frac{5}{27} \\
0 & 0 & 1 & -\frac{7}{27} & \frac{10}{27} & – \frac{1}{27}
\end{pmatrix}.
\end{align*}

De aquí obtenemos que la inversa de $A$ es \begin{align*}A^{-1}=\begin{pmatrix} -\frac{13}{27} & \frac{7}{27} & \frac{2}{27} \\ \frac{35}{27} & – \frac{23}{27} & \frac{5}{27} \\ -\frac{7}{27} & \frac{10}{27} & – \frac{1}{27}\end{pmatrix}.\end{align*}

$\triangle$

Finalmente, hay algunos problemas en los que no es posible aplicar herramientas digitales, o por lo menos no es directo cómo hacerlo. Esto sucede, por ejemplo, cuando en un problema las dimensiones o entradas de una matriz son variables.

Problema 4. Sea $a$ un número real. Determina la inversa de la siguiente matriz en $M_{n}(\mathbb{R})$: $$A=\begin{pmatrix} 1 & 0 & 0 & \cdots & 0 & 0 \\ a & 1 & 0 & \cdots & 0 & 0 \\ a^2 & a & 1 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ a^{n-2} & a^{n-3} & a^{n-4} & \cdots & 1 & 0 \\
a^{n-1} & a^{n-2} & a^{n-3} & \cdots & a & 1 \end{pmatrix}.$$

Solución. Recordemos que para obtener la inversa de una matriz cuadrada $A$, si es que existe, se puede aplicar a la matriz identidad las mismas operaciones elementales que se le apliquen a $A$ para llevarla a forma escalonada reducida.

¿Qué operaciones necesitamos hacer para llevar a $A$ a su forma escalonada reducida? La esquina $(1,1)$ ya es un pivote, y con transvecciones de factores $-a, -a^2,\ldots, -a^{n-1}$ podemos hacer $0$ al resto de las entradas en la columna $1$.

Tras esto, la entrada $(2,2)$ es ahora pivote de la segunda fila, y con transvecciones de factores $-a,-a^2,\ldots, -a^{n-2}$ podemos hacer $0$ al resto de las entradas en la columna $2$. Siguiendo este procedimiento, llevamos a $A$ a su forma escalonada reducida. Esto puede demostrar formalmente usando inducción.

Ahora veamos qué sucede si aplicamos estas mismas operaciones a la matriz identidad. Si aplicamos las mismas operaciones que arreglan la primer columna de $A$, pero a la matriz identidad, obtenemos

$$\begin{pmatrix} 1 & 0 & 0 & \cdots & 0 & 0 \\ -a & 1 & 0 & \cdots & 0 & 0 \\ -a^2 & 0 & 1 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ -a^{n-2} & 0 & 0 & \cdots & 1 & 0 \\
-a^{n-1} & 0 & 0 & \cdots & 0 & 1 \end{pmatrix}.$$

Si ahora aplicamos las operaciones que arreglan la segunda columna de $A$, obtenemos

$$\begin{pmatrix} 1 & 0 & 0 & \cdots & 0 & 0 \\ -a & 1 & 0 & \cdots & 0 & 0 \\ 0 & -a & 1 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & -a^{n-3} & 0 & \cdots & 1 & 0 \\
0 & -a^{n-2} & 0 & \cdots & 0 & 1 \end{pmatrix}.$$

Continuando de esta manera, en cada columna sólo nos quedará un $1$ y un $-a$. Esto puede probarse formalmente de manera inductiva. Al final, obtenemos la matriz

$$B=\begin{pmatrix} 1 & 0 & 0 & \cdots & 0 & 0 \\ -a & 1 & 0 & \cdots & 0 & 0 \\ 0 & -a & 1 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \cdots & 1 & 0 \\
0 & 0 & 0 & \cdots & -a & 1 \end{pmatrix},$$

en donde la diagonal principal consiste de puros unos, y la diagonal debajo de ella consiste de puras entradas $-a$.

Hay dos formas de proceder para dar una demostración formal que esta matriz encontrada es la inversa de $A$. La primera es completar las demostraciones inductivas que mencionamos. La segunda es tomar lo que hicimos arriba como una exploración del problema y ahora realizar de manera explícita el producto $AB$ o el producto $BA$.

$\triangle$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Seis herramientas fundamentales para concursos matemáticos en tiempos de pandemia

Por Leonardo Ignacio Martínez Sandoval

La Olimpiada Mexicana de Matemáticas (OMM) se organiza en varios niveles: estatal, nacional y participación en concursos internacionales. Los estudiantes comienzan con la etapa estatal, en donde realizan varios exámenes y además se les prepara mediante entrenamientos. Después de repetir esto algunas veces, algunos estudiantes son elegidos para ir al Concurso Nacional de la OMM, para el cual se preparan adicionalmente.

A grandes rasgos, la forma en la que se organiza una olimpiada estatal se ve así:

En la parte de arriba se ve el flujo de los estudiantes. En la parte de abajo se ven varias actividades que realizan los comités estatales.

En esta época de la pandemia de COVID19, es muy importante encontrar alternativas para realizar muchas de estas actividades de manera digital. La idea de esta entrada de blog es ser un mini-curso introductorio a material y tecnologías de educación a distancia que pueden ser usadas para realizar estas actividades. Si bien está pensada originalmente como una entrada para ayudar a la organización de los concursos estatales de la OMM, el contenido puede:

  • Ser de utilidad incluso cuando salgamos de la pandemia, para tener más alcance.
  • Apoyar a otros concursos de otras ciencias, y otros países, a encontrar alternativas.

Para cada tecnología también hay un video, para ver cada uno de los recursos más en acción. El video introductorio es el siguiente.

Página de la Olimpiada Mexicana de Matemáticas

La página de la Olimpiada Mexicana de Matemáticas es uno de los mejores lugares para encontrar material de entrenamiento gratuito, de calidad, de acceso libre y con soluciones. Además, en esta página están disponibles en versión digital todos los números de la revista Tzaloa, que tiene otro tanto de material.

Otras cosas que se pueden encontrar en la página son los datos de contacto de los organizadores, resultados históricos de México en las olimpiadas internacionales y un sistema para pedir libros de la serie Cuadernos de Olimpiada.

La página de la OMM es http://www.ommenlinea.org. En el siguiente video se exploran con más detalle las distintas secciones.

El blog de Leo

El blog de Leo es precisamente esta página, en donde está esta entrada de blog. Forma parte de los recursos que propongo pues aquí en el blog hay también bastante material para preparar a olímpicos y entrenadores de la Olimpiada. Algunas secciones que pueden ser de utilidad son:

En el siguiente video se explora el blog más a detalle.

Facebook

La red social más popular es Facebook, y una de sus misiones es conectar a las personas. Se puede aprovechar todo el potencial que tienen sus herramientas para dar difusión a los concursos de matemáticas, para estar en contacto con los concursantes y para entrar en contacto con otras comunidades.

Dentro de Facebook, los dos lugares más indicados para ir y estar cerca de la comunidad olímpica matemática de México son:

  • La página de FB de la OMM: Página oficial, manejada por el Comité. Ahí se sube información de eventos, se publican resultados a nivel nacional y se informa de la participación de México en concursos internacionales.
  • El grupo Insommnia: El ambiente es más relajado. Es un grupo extraoficial, pero con una comunidad enorme de olímpicos y ex-olímpicos. Hay chistes, problemas propuestos, videos, discusiones de mejora del proyecto, mini-exámenes, etc.

Cada Comité Estatal puede aprovechar que en Facebook se pueden hacer grupos privados para estar en contacto con organizadores, papás o concursantes.

Hablo más de Facebook y su papel en concursos matemáticos en el siguiente video.

Overleaf

LaTeX es un lenguaje para escribir matemáticas y que se produzca un documento en el cual las matemáticas se vean bonito. Con él se pueden hacer exámenes selectivos, notas de entrenamiento e incluso libros.

Típicamente, para usar LaTeX en una computadora es necesario instalar una distribución y un editor. Overleaf es una página de internet en la cual se puede escribir y compliar LaTeX sin necesidad de instalar nada adicional.

Una ventaja de Overleaf es que lo que se trabaja se queda en la nube, así que se puede acceder a los documentos desde cualqueir computadora con internet. Esto tiene la desventaja de que se necesita tener internet, pero es fácilmente arreglable ya que, de ser necesario, se pueden bajar a una computadora todos los archivos fuente.

Otra ventaja de Overleaf es que se puede hacer colaboración simultánea en un mismo documento. Esto es muy útil para cuando se tiene que escribir matemáticas con otras personas: al hacer notas, escribir artículos de investigación y textos más grandes como libros o tesis.

En el siguiente video hablo más acerca de Overleaf.

Moodle

Un LMS es una plataforma que tiene todo lo que necesita un curso a distancia: herramientas para hacer exámenes, definir actividades, calendarizar, contactar a estudiantes, etc. Uno de los LMS más importantes y de más uso en la docencia a distancia es Moodle.

La principal dificultad con usar Moodle reside en que es necesario descargar un software e instalarlo en un servidor. Esto puede ser muy difícil para alguien que no conoce del tema. Sin embargo, una vez que Moodle queda instalado, es muy facil de usar para profesores y estudiantes (o en este contexto, delegados, entrenadores y concursantes).

El tipo de cosas que se pueden hacer en Moodle incluyen:

  • Tener un sistema de registro de nuevos concursantes
  • Subir notas
  • Subir mini-libros
  • Crear exámenes con límites de tiempo
  • Crear actividades de aprendizaje
  • Hacer cuestionarios
  • Tener foros personalizados

En el siguiente video hablo más a detalle de algunas de estas cosas.

Zoom, Hangouts y otras plataformas de videollamada

Finalmente, me gustaría platicar un poco acerca de opciones para tener videollamadas hoy en día. Sobre todo, me gustaría enfocarme en Zoom y en Hangouts. Ambas son buenas opciones para tener llamadas con grupos de varias personas.

Zoom agarró mucha popularidad en esta época de pandemia, y tiene sentido. Es una herramienta fácil de usar y de instalar que permite:

  • Armar reuniones con muchas personas
  • Compartir la pantalla con los asistentes (por ejemplo, puede servir para dar entrenamientos)
  • Programar reuniones y avisar a los participantes
  • Tener mecanismos de participación por chat, reacciones de «levantar la mano» o «aplaudir»

La versión gratuita de Zoom tiene algunas limitaciones, como que sólo se puede usar por 40 minutos de manera simultánea. La versión de paga permite hacer varias cosas como dividir a un grupo en sub-grupos.

Google Hangouts es una herramienta muy similar. También permite reuniones con muchas personas y compartir la pantalla. Se integra mejor con todo el ecosistema de Google y puede ser muy útil para quienes ya tengan una cuenta ahí.

En el siguiente video hablo de estas y un par de opciones más.

Reflexión final

Esta entrada fue un mini-curso al material y las tecnologías que se pueden usar para seguir organizando concursos matemáticos a distancia. El material que se presentó toma en mente el flujo de participantes en un modelo básico del concurso. También toma en cuenta el tipo de tecnología que podría necesitar un comité organizador local para hacer todas las actividades que se necesitan.

Hay una hipótesis muy fuerte que estamos haciendo: que los organizadores y participantes tienen acceso estable y bueno a internet. Al realizar actividades que aprovechen la tecnología hay que tener en cuenta que esta hipótesis es posible que no se cumpla. Puede suceder que:

  • Haya personas sin acceso a internet
  • Haya personas con acceso sólo con datos, para quienes ver videos es impermisiblemente caro
  • Haya personas con computadora y acceso a internet en su casa, pero de los cuales no puedan disponer
  • Haya personas con todos los recursos tecnológicos, pero viviendo muchas dificultades debido a la pandemia.

Así como muchos otros aspectos de la docencia, es importante tener empatía en el aspecto digital.

Seminario de Resolución de Problemas: Polinomios asociados a matrices y el teorema de Cayley-Hamilton

Por Leonardo Ignacio Martínez Sandoval

Introducción

Para terminar esta serie de entradas de álgebra lineal, y con ello el curso de resolución de problemas, hablaremos de polinomios especiales asociados a una matriz: el polinomio mínimo y el polinomio característico. Después, hablaremos del teorema de Cayley-Hamilton, que a grandes rasgos dice que una matriz se anula en su polinomio característico.

Estos resultados forman parte fundamental de la teoría que se aprende en un curso de álgebra lineal. En resolución de problemas, ayudan mucho para entender a los eigenvalores de una matriz, y expresiones polinomiales de matrices.

Polinomio mínimo de una matriz

Podemos evaluar un polinomio en una matriz cuadrada de acuerdo a la siguiente definición.

Definición. Si $A$ es una matriz de $n\times n$ con entradas reales y $p(x)$ es un polinomio en $\mathbb{R}[x]$ de la forma $$p(x)=a_0+a_1x+a_2x^2+\ldots+a_nx^n,$$ definimos a la matriz $p(A)$ como la matriz $$a_0I_n+a_1A+a_2A^2+\ldots+a_nA^n.$$

De manera análoga se puede dar una definición cuando las entradas de la matriz, o los coeficientes del polinomio, son números complejos.

Cuando una matriz está diagonalizada, digamos $A=P^{-1}DP$ con $P$ invertible y $D$ diagonal, entonces evaluar polinomios en $A$ es sencillo. Se tiene que $p(A)=P^{-1} p(D) P$, y si las entradas en la diagonal principal de $D$ son $d_1,\ldots,d_n$, entonces $p(D)$ es diagonal con entradas en la diagonal principal iguales a $p(d_1),\ldots,p(d_n)$.

Dada una matriz $A$, habrá algunos polinomios $p(x)$ en $\mathbb{R}[x]$ para los cuales $p(A)=0$. Si $p(x)$ es uno de estos, entonces cualquier eigenvalor de $A$ debe ser raíz de $p(x)$. Veamos un problema de la International Mathematics Competition de 2011 que usa esto. Es el Problema 2 del día 1.

Problema. Determina si existe una matriz $A$ de $3\times 3$ con entradas reales tal que su traza es cero y $A^2+ {^tA} = I_3$.

Sugerencia pre-solución. Busca un polinomio $p(x)$ tal que $p(A)=0$.

Solución. La respuesta es que no existe dicha matriz. Procedamos por contradicción. Si existiera, podríamos transponer la identidad dada para obtener que
\begin{align*}
A&=I _3- {^t(A^2)}\\
&=I_3-({^tA})^2\\
&=I_3-(I_3 – A^2)^2\\
&=2A^2 – A^4.
\end{align*}

De aquí, tendríamos que $A^4-2A^2+A = 0$, de modo que cualquier eigenvalor de $A$ debe ser una raíz del polinomio $$p(x)=x^4-2x^2+x=x(x-1)(x^2+x-1),$$

es decir, debe ser alguno de los números $$0,1,\frac{-1+\sqrt{5}}{2}, \frac{-1-\sqrt{5}}{2}.$$

Los eigenvalores de $A^2$ son los cuadrados de los eigenvalores de $A$, así que son algunos de los números $$0,1,\frac{3+\sqrt{5}}{2}, \frac{3-\sqrt{5}}{2}.$$

Como la traza de $A$ es $0$, la suma de sus tres eigenvalores (con multiplicidades), debe ser $0$. Como la traza de $A^2$ es la de $I_3-{ ^tA}$, que es $3$, entonces la suma de los eigenvalores de $A$ al cuadrado (con multiplicidades), debe ser $0$. Un sencillo análisis de casos muestra que esto no es posible.

$\square$

De entre los polinomios que se anulan en $A$, hay uno especial. El polinomio mínimo de una matriz $A$ con entradas reales es el polinomio mónico $\mu_A(x)$ de menor grado tal que $\mu_A(A)=O_n$, donde $O_n$ es la matriz de $n\times n$ con puros ceros. Este polinomio siempre es de grado menor o igual a $n$.

Una propiedad fundamental del polinomio mínimo de una matriz es que es mínimo no sólo en un sentido de grado, sino también de divisibilidad.

Teorema. Sea $A$ una matriz de $n\times n$ con entradas reales. Entonces para cualquier polinomio $p(x)$ en $\mathbb{R}[x]$ tal que $p(A)=O_n$, se tiene que $\mu_A(x)$ divide a $p(x)$ en $\mathbb{R}[x]$.

Veamos cómo se puede usar este resultado.

Problema. La matriz $A$ de $2\times 2$ con entradas reales cumple que $$A^3-A^2+A=O_2.$$ Determina los posibles valores que puede tener $A^2-A$.

Sugerencia pre-solución. Encuentra las posibles opciones que puede tener el polinomio mínimo de $A$ y haz un análisis de casos con respecto a esto.

Solución. La matriz $A$ se anula en el polinomio $$p(x)=x^3-x^2+x=x(x^2-x+1),$$ en donde $x^2-x+1$ tiene discriminante negativo y por lo tanto es irreducible.

El polinomio mínimo $\mu_A(x)$ debe ser un divisor de $p(x)$. Además, es de grado a lo más $2$. Esto nos deja con las siguientes opciones:

  • $\mu_A(x)=x$, de donde $A=O_2$, y por lo tanto $A^2=O_2$. De aquí, $A^2-A=O_2$.
  • $\mu_A(x)=x^2-x+1$. En este caso, tenemos que $A^2-A+I_2=0$. Así, $A^2-A=-I_2$.

Para mostrar que ambas opciones son posibles, en el primer caso usamos $A=O_2$ y en el segundo caso usamos $$A=\begin{pmatrix} 0 & -1 \\ 1 & 1 \end{pmatrix}.$$

$\square$

Polinomio característico de una matriz

El polinomio característico de una matriz $A$ de $n\times n$ se define como $$\chi_A(x)=\det(xI_n – A).$$

Teorema. El polinomio característico de una matriz $A$ cumple que:

  • Es un polinomio mónico en $x$ de grado $n$.
  • El coeficiente del término de grado $n-1$ es la traza de $A$.
  • El coeficiente libre es $\chi_A(0)=(-1)^n\det(A)$.
  • Es igual al polinomio característico de cualquier matriz similar a $A$.

Para ver ejemplos de cómo obtener el polinomio característico y cómo usar sus propiedades, hacemos referencia a la siguiente entrada:

Propiedades del polinomio característico

En particular, para fines de este curso, es importante leer los ejemplos y problemas resueltos de esa entrada.

El teorema de Cayley-Hamilton y una demostración con densidad

Finalmente, hablaremos de uno de los resultados fundamentales en álgebra lineal.

Teorema (Cayley-Hamilton). Si $A$ es una matriz de $n\times n$ con entradas en $\mathbb{C}$ y $\chi_A(x)$ es su polinomio característico, entonces $$\chi_A(A)=O_n.$$

En realidad el teorema de Cayley-Hamilton es válido para matrices más generales. Daremos un esbozo de demostración sólo para matrices con entradas complejas pues eso nos permite introducir una técnica de perturbaciones.

Esbozo de demostración. Vamos a hacer la técnica de la bola de nieve, construyendo familias poco a poco más grandes de matrices que satisfacen el teorema.

Si $A$ es una matriz diagonal, las entradas en su diagonal son sus eigenvalores $\lambda_1,\ldots, \lambda_n$. Por la discusión al inicio de esta entrada, $\chi_A(A)$ es diagonal con entradas $\chi_A(\lambda_1),\ldots,\chi_A(\lambda_n)$, y como los eigenvalores son raíces del polinomio característico, entonces todos estos valores son $0$, y por lo tanto $\chi_A(A)=0$.

Si $A$ es diagonalizable, digamos, de la forma $A=P^{-1} D P$, entonces $A$ y $D$ tienen el mismo polinomio característico. Por la discusión al inicio de la entrada, y por el caso anterior:
\begin{align*}
\chi_A(A) &= \chi_D(A)\\
&= \chi_D(P^{-1} D P)\\
&=P^{-1}\chi_D(D) P\\
&=P^{-1}O_n P \\
&=O_n.
\end{align*}

Si $A$ tiene todos sus eigenvalores distintos, se puede mostrar que $A$ es diagonalizable. Ahora viene la idea clave del argumento de continuidad.

Pensemos al espacio métrico de matrices de $n\times n$. Afirmamos que las matrices con eigenvalores todos distintos son densas en este espacio métrico. Para ello, tomemos una matriz $A$. En efecto, como estamos trabajando en $\mathbb{C}$, existe una matriz invertible $P$ tal que $P^{-1}A P$ es triangular. Como $P$ es invertible, define una transformación continua. Los eigenvalores de $P^{-1} A P$ son sus entradas en la diagonal, y podemos perturbarlos tan poquito como queramos para hacer que todos sean distintos.

De esta forma, existe una sucesión de matrices $A_k$, todas ellas diagonalizables, tales que $A_k \to A$ conforme $k\to \infty$. El resultado se sigue entonces de las siguientes observaciones:

  • Los coeficientes del polinomio característico de una matriz dependen continuamente de sus entradas.
  • Las entradas de potencias de una matriz dependen continuamente de sus entradas.
  • Así, la función $\chi_{M}(M)$ es continua en la matriz variable $M$.

Concluimos como sigue $\chi_{A_k}(A_k)=0$, por ser cada una de las matrices $A_k$ diagonalizables. Por la continuidad de $\chi_{M}(M)$, tenemos que
\begin{align*}
\chi_A(A)&=\lim_{k\to \infty} \chi_{A_k}(A_k)\\
&= \lim_{k\to \infty} O_n \\
&= O_n.
\end{align*}

$\square$

Terminamos esta entrada con un problema que usa el teorema de Cayley-Hamilton.

Problema. Muestra que para cualesquiera matrices $X,Y,Z$ de $2\times 2$ con entradas reales se cumple que
\begin{align*}
&ZXYXY + ZYXYX + XYYXZ + YXXYZ\\
= &XYXYZ + YXYXZ + ZXYYX + ZYXXY.
\end{align*}

Sugerencia pre-solución. Muestra que las matrices reales de $2\times 2$ de traza cero conmutan con cualquier matriz de $2\times 2$.

Solución. Si $A$ es una matriz de $2\times 2$ de traza cero, su polinomio característico es
\begin{align*}
\chi_A(x)&=x^2 – \text{tr}(A) x + \det(A)\\
&=x^2 + \det(A).
\end{align*}

Por el teorema de Cayley-Hamilton, se satisface entonces que $A^2=-\det(A) I_2$, así que $A^2$ es un múltiplo de la identidad, y por lo tanto conmuta con cualquier matriz de $2\times 2$.

La identidad que queremos mostrar se puede reescribir como $$Z(XY-YX)^2 = (XY-YX)^2Z.$$

La traza de $XY$ es igual a la traza de $YX$, y como la traza es una transformación lineal, tenemos que $$\text{tr}(XY-YX)= \text{tr}(XY)-\text{tr}(YX)=0.$$ El problema se termina aplicando la discusión de arriba a la matriz $$A=XY-YX.$$

$\square$

Más problemas

Puedes encontrar más problemas relacionados con el polinomio mínimo, el polinomio característico y el teorema de Cayley-Hamilton en la Sección 8.2, 8.4 y 8.5 del libro Essential Linear Algebra de Titu Andreescu. También hay más problemas relacionados con el teorema de Cayley-Hamilton en el Capítulo 4 del libro Mathematical Bridges de Andreescu, Mortici y Tetiva.