Archivo del Autor: Leo

Leo

Acerca de Leo

Hola. Soy Leonardo Martínez. Soy Profesor de Tiempo Completo en la Facultad de Ciencias de la UNAM. Hice un doctorado en Matemáticas en la UNAM, un postdoc en Israel y uno en Francia. Además, me gusta colaborar con proyectos de difusión de las matemáticas como la Olimpiada Mexicana de Matemáticas.

Álgebra Lineal I: Problemas de combinaciones lineales, generadores e independientes

Introducción

En entradas anteriores ya hablamos de combinaciones lineales, de conjuntos generadores y de conjuntos independientes. Lo que haremos aquí es resolver problemas para reforzar el contenido de estos temas.

Problemas resueltos

Problema. Demuestra que el polinomio p(x)=x^2+x+1 no puede ser escrito en el espacio vectorial \mathbb{R}[x] como una combinación lineal de los polinomios

    \begin{align*} p_1(x)=x^2-x\\ p_2(x) = x^2-1\\ p_3(x) = x-1.\end{align*}

Solución. Para resolver este problema, podemos plantearlo en términos de sistemas de ecuaciones. Supongamos que existen reales a, b y c tales que

    \[p(x)=ap_1(x)+bp_2(x)+cp_3(x).\]

Desarrollando la expresión, tendríamos que

    \begin{align*}x^2+x+1 &= a(x^2-x)+b(x^2-1)+c(x-1)\\&= (a+b)x^2+(-a+c)x+(-b-c),\end{align*}

de donde igualando coeficientes de términos del mismo grado, obtenemos el siguiente sistema de ecuaciones:

    \[\begin{cases}a+b & = 1\\ -a + c &= 1 \\ -b-c &= 1.\end{cases}\]

Para mostrar que este sistema de ecuaciones no tiene solución, le aplicaremos reducción gaussiana a la siguiente matriz extendida:

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ -1 & 0 & 1 & 1 \\ 0 & -1 & -1 & 1 \end{pmatrix}.\]

Tras la transvección R_2+R_1, obtenemos

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & -1 & -1 & 1 \end{pmatrix}.\]

Tras la transvección R_3+R_2, obtenemos

    \[\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & 0 & 0 & 3 \end{pmatrix}.\]

De aquí se ve que la forma escalonada reducida tendrá un pivote en la última columna. Por el teorema de existencia y unicidad el sistema original no tiene solución.

\square

En el problema anterior usamos un argumento de reducción gaussiana para mostrar que el sistema no tiene solución. Este es un método general que funciona en muchas ocasiones. Una solución más sencilla para ver que el sistema del problema no tiene solución es que al sumar las tres ecuaciones se obtiene 0=3.

Problema. Sea n un entero positivo. Sea W el subconjunto de vectores en \mathbb{R}^n cuya suma de entradas es igual a 0. Sea Z el espacio generado por el vector (1,1,\ldots,1) de \mathbb{R}^n. Determina si es cierto que

    \[\mathbb{R}^n=W\oplus Z.\]

Solución. El espacio Z está generado por todas las combinaciones lineales que se pueden hacer con el vector v=(1,1,\ldots,1). Como sólo es un vector, las combinaciones lineales son de la forma av con a en \mathbb{R}, de modo que Z es precisamente

    \[Z=\{(a,a,\ldots,a): a\in\mathbb{R}\}.\]

Para obtener la igualdad

    \[\mathbb{R}^n=W\oplus Z,\]

tienen que pasar las siguientes dos cosas (aquí estamos usando un resultado de la entrada de suma y suma directa de subespacios):

  • W\cap Z = \{0\}
  • W+Z=\mathbb{R}^n

Veamos qué sucede con un vector v en W\cap Z. Como está en Z, debe ser de la forma v=(a,a,\ldots,a). Como está en W, la suma de sus entradas debe ser igual a 0. En otras palabras, 0=a+a+\ldots+a=na. Como n es un entero positivo, esta igualdad implica que a=0. De aquí obtenemos que v=(0,0,\ldots,0), y por lo tanto W\cap Z = \{0\}.

Veamos ahora si se cumple la igualdad \mathbb{R}^n=W+Z. Por supuesto, se tiene que W+Z\subseteq \mathbb{R}^n, pues los elementos de W y Z son vectores en \mathbb{R}^n. Para que la igualdad \mathbb{R}^n\subseteq W+Z se cumpla, tiene que pasar que cualquier vector v=(x_1,\ldots,x_n) en \mathbb{R}^n se pueda escribir como suma de un vector w uno con suma de entradas 0 y un vector z con todas sus entradas iguales. Veamos que esto siempre se puede hacer.

Para hacerlo, sea S=x_1+\ldots+x_n la suma de las entradas del vector v. Consideremos al vector w=\left(x_1-\frac{S}{n},\ldots, x_n-\frac{S}{n} \right) y al vector z=\left(\frac{S}{n},\ldots,\frac{S}{n}).

Por un lado, z está en Z, pues todas sus entradas son iguales. Por otro lado, la suma de las entradas de w es

    \begin{align*}\left(x_1-\frac{S}{n}\right)+\ldots + \left(x_n-\frac{S}{n}\right)&=(x_1+\ldots+x_n)-n\cdot \frac{S}{n}\\ &= S-S=0,\end{align*}

lo cual muestra que w está en W. Finalmente, notemos que la igualdad w+z=v se puede comprobar haciendo la suma entrada a entrada. Con esto mostramos que cualquier vector de V es suma de vectores en W y Z y por lo tanto concluimos la igualdad \mathbb{R}^n=W\oplus Z.

\square

En el problema anterior puede parecer algo mágico la propuesta de vectores w y z. ¿Qué es lo que motiva la elección de \frac{S}{n}? Una forma de enfrentar los problemas de este estilo es utilizar la heurística de trabajar hacia atrás. Sabemos que el vector w debe tener todas sus entradas iguales a cierto número a y queremos que z=v-w tenga suma de entradas igual a 0. La suma de las entradas de v-w es

    \[(x_1-a)+\ldots+(x_n-a)= S -na.\]

La elección de a=\frac{S}{n} está motivada en que queremos que esto sea cero.

Problema. Considera las siguientes tres matrices en M_2(\mathbb{C}):

    \begin{align*} A&= \begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix}\\B&= \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}\\C&= \begin{pmatrix} i & -7  \\ 12 & 7 \end{pmatrix}.\end{align*}

Demuestra que A, B y C son matrices linealmente dependientes. Da una combinación lineal no trivial de ellas que sea igual a 0.

Solución. Para mostrar que son linealmente dependientes, basta dar la combinación lineal no trivial buscada. Buscamos entonces a,b,c números complejos no cero tales que aA+bB+cC=O_2, la matriz cero en M_2(\mathbb{C}). Para que se de esta igualdad, es necesario que suceda entrada a entrada. Tenemos entonces el siguiente sistema de ecuaciones:

    \[\begin{cases}-i a + 2i b + ic &= 0\\-3a + b -7c &=0\\2a + 3b + 12c &= 0\\3a -b +7c &=0.\end{cases}\]

En este sistema de ecuaciones tenemos números complejos, pero se resuelve exactamente de la misma manera que en el caso real. Para ello, llevamos la matriz correspondiente al sistema a su forma escalonada reducida. Comenzamos dividiendo el primer renglón por -i y aplicando transvecciones para hacer el resto de las entradas de la columna iguales a 0. Luego intercambiamos la tercera y cuarta filas.

    \begin{align*}&\begin{pmatrix}-i & 2i & i \\-3 & 1 & -7 \\2 & 3 & 12 \\3 & -1 & 7\end{pmatrix}\\\to&\begin{pmatrix}1 & -2 & -1 \\0 & -5 & -10 \\0 & 7 & 14 \\0 & 5 & 10\end{pmatrix}\end{align*}

Ahora reescalamos con factor -\frac{1}{5} la segunda fila y hacemos transvecciones para hacer igual a cero el resto de entradas de la columna 2:

    \begin{align*}&\begin{pmatrix}1 & 0& 3 \\0 & 1 & 2 \\0 & 0 & 0 \\0 & 0 & 0\end{pmatrix}\end{align*}

Con esto llegamos a la forma escalonada reducida de la matriz. De acuerdo al procedimiento que discutimos en la entrada de sistemas lineales homogéneos, concluimos que las variables a y b son pivote y la variable c es libre. Para poner a a y b en términos de c, usamos la primera y segunda ecuaciones. Nos queda

    \begin{align*} a &= -3c \\ b &= -2c. \end{align*}

En resumen, concluimos que para cualqueir número complejo c en \mathbb{C} se tiene la combinación lineal

    \[-3c\begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix} - 2c \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}  + c\begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.\]

Una posible combinación lineal no trivial se obtiene tomando c=1.

\square

En el problema anterior bastaba encontrar una combinación lineal no trivial para acabar el ejercicio. Por supuesto, esto también se puede hacer por prueba y error. Sin embargo, la solución que dimos da una manera sistemática de resolver problemas de este estilo.

Problema. Consideremos el espacio vectorial V de funciones f:\mathbb{R}\to \mathbb{R}. Para cada real a en (0,\infty), definimos a la función f_a\in V dada por

    \[f_a(x)=e^{ax}.\]

Tomemos reales distintos 0<a_1<a_2<\ldots<a_n. Supongamos que existe una combinación lineal de las funciones f_{a_1},\ldots,f_{a_n} que es igual a 0, es decir, que existen reales \alpha_1,\ldots,\alpha_n tales que

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0\]

para todo real x\geq 0.

Muestra que \alpha_1=\ldots=\alpha_n=0. Concluye que la familia (f_a)_{a\in \mathbb{R}} es linealmente independiente en V.

Solución. Procedemos por inducción sobre n. Para n=1, si tenemos la igualdad \alpha e^{ax}=0 para toda x, entonces \alpha=0, pues e^{ax} siempre es un número positivo. Supongamos ahora que sabemos el resultado para cada que elijamos n-1 reales cualesquiera. Probaremos el resultado para n reales cualesquiera.

Supongamos que tenemos la combinación lineal

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0\]

para todo real x\geq 0.

Dividamos esta igualdad que tenemos entre e^{a_nx}:

    \[\alpha_1 e^{(a_1-a_n)x} + \alpha_2e^{(a_2-a_n)x} + \ldots + \alpha_{n-1}e^{(a_{n-1}-a_n)x}+\alpha_n = 0.\]

¿Qué sucede cuando hacemos x\to \infty? Cada uno de los sumandos de la forma \alpha_i e^{(a_i-a_n)x} se hace cero, pues a_i<a_n y entonces el exponente es negativo y se va a -\infty. De esta forma, queda la igualdad \alpha_n=0. Así, nuestra combinación lineal se ve ahora de la forma

    \[\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_{n-1} e^{a_{n-1}x} = 0.\]

Por la hipótesis inductiva, \alpha_1=\ldots=\alpha_{n-1}=0. Como también ya demostramos \alpha_n=0, hemos terminado el paso inductivo.

Concluimos que la familia (infinita) (f_a)_{a\in \mathbb{R}} es linealmente independiente en V pues cualquier subconjunto finito de ella es linealmente independiente.

\square

El problema anterior muestra que la razón por la cual ciertos objetos son linealmente independientes puede deberse a una propiedad analítica o de cálculo. A veces dependiendo del contexto en el que estemos, hay que usar herramientas de ese contexto para probar afirmaciones de álgebra lineal.

Entradas relacionadas

Álgebra Lineal I: Subespacios vectoriales

Introducción

En la entrada anterior dimos la definición de espacio vectorial y vimos varios ejemplos de espacios vectoriales. Ahora hablaremos de subespacios vectoriales o simplemente, subespacios. A grandes rasgos, podemos pensar a un subespacio como un subconjunto de un espacio vectorial V que también es un espacio vectorial con las mismas operaciones de V.

Definición de subespacios vectoriales y primeras consecuencias

Definición. Sea V un espacio vectorial sobre un campo F. Un subespacio vectorial de V, o simplemente un subespacio de V, es un subconjunto no vacío W de V cerrado bajo las operaciones de suma vectorial y multiplicación escalar de V. En otras palabras, W es un subespacio de V si se cumplen las siguientes dos propiedades:

  1. (Cerradura de la suma vectorial) Para cualesquiera u y v elementos de W, se cumple que u+v está en W.
  2. (Cerradura de la multiplicación por escalar) Para cualquier escalar c en F y vector v en W se cumple que cv está en W.

En la entrada anterior ya vimos un ejemplo. Si tenemos un campo F y nos fijamos el espacio vectorial F[x] de polinomios, entonces para cualquier entero n el subconjunto F_n[x] de F[x] de polinomios de grado a lo más n es cerrado bajo la suma de polinomios y bajo el producto escalar. De esta forma, F_n[x] es un subespacio de F[x]. Más abajo veremos muchos ejemplos de subespacios, pero primero nos enfocaremos en algunas consecuencias de la definición.

Observación. Se cumple todo lo siguiente:

  1. Si W es un subespacio de un espacio vectorial V, entonces W debe tener al vector 0 de V (es decir, la identidad aditiva de la suma vectorial). Esto se debe a que W es no vacío, así que tiene por lo menos un elemento v. Si tomamos al 0 de F y usamos la propiedad (2) de subespacio con 0 y v obtenemos que 0v=0 está en W.
  2. Si W es un subespacio de un espacio vectorial V y v está en W, entonces -v también. Esto se debe a que por la propiedad (2) de subespacio tenemos que (-1)v=-v está en W.
  3. Si V es un espacio vectorial sobre F y W es un subespacio de V, entonces W también es un espacio vectorial sobre F con las mismas operaciones que V. Por un lado, el neutro e inversos aditivos existen por los dos incisos anteriores. Para el resto de las propiedades, se usa que se cumplen para elementos de V y por lo tanto también para los de W (pues es un subconjunto).
  4. Si W_1 y W_2 son dos subespacios de un espacio vectorial V, entonces la intersección W_1\cap W_2 también lo es.

\square

La primera propiedad nos puede ayudar en algunas ocasiones (no siempre) a darnos cuenta rápidamente si un subconjunto no es subespacio vectorial: si no tiene al vector 0, entonces no es subespacio.

La tercera propiedad tiene una consecuencia práctica muy importante: para mostrar que algo es un espacio vectorial, basta con mostrar que es un subespacio de algo que ya sabemos que es un espacio vectorial.

Problema. Muestra que \mathcal{C}[0,1], el conjunto de funciones continuas de [0,1] a \mathbb{R}, es un espacio vectorial sobre \mathbb{R} con las operaciones de suma de funciones y multiplicación por escalar.

Solución. En la entrada anterior vimos que el conjunto V de funciones de [0,1] a los reales es un espacio vectorial sobre \mathbb{R} con las operaciones de suma de funciones y multiplicación escalar. El conjunto \mathcal{C}[0,1] es un subconjunto de V.

Por argumentos de cálculo, la suma de dos funciones continuas es una función continua. Así mismo, al multiplicar una función continua por un real obtenemos de nuevo una función continua. De esta forma, \mathcal{C}[0,1] es un subespacio de V.

Por la observación (3) de la discusión previa, obtenemos que \mathcal{C}[0,1] es un espacio vectorial sobre \mathbb{R} con las operaciones de suma de funciones y multiplicación por escalar.

\square

Definiciones alternativas de subespacios vectoriales

Algunos textos manejan definiciones ligeramente distintas a la que nosotros dimos. Sin embargo, todas ellas son equivalentes.

Proposición. Sea V un espacio vectorial sobre el campo F y W un subconjunto de V. Los siguientes enunciados son equivalentes.

  1. W es un subespacio de V de acuerdo a nuestra definición.
  2. Para cualesquiera vectores u y v en W y escalares a y b en F, se tiene que au+bv está en W.
  3. Para cualesquiera vectores u y v en W y cualquier escalar c en F se tiene que cu+v está en W.

Demostración. (1) implica (2). Supongamos que W es un subespacio de V. Tomemos vectores u,v en W y escalares a,b en F. Como W es cerrado bajo producto escalar, se tiene que au está en W. De manera similar, bv está en W. Como W es cerrado bajo sumas, se tiene que au+bv está en W.

(2) implica (3). Supontamos que W satisface (2) y tomemos u,v en W y cualquier escalar c en F. Tomando a=c y b=1 en (2), tenemos que cu+1v=cu+v está en W.

(3) implica (1). Supongamos que W satisface (3). Hay que ver que W es cerrado bajo sumas y producto escalar. Si tomamos u y v en W y al escalar c=1 de F, por (3) obtenemos que cu+v=1u+v=u+v está en W, lo cual muestra la cerradura de la suma. Si tomamos cualquier escalar c y al vector w=0, entonces por (3) se tiene que cu+w=cu+0=cu está en W. Esto muestra la cerradura bajo producto escalar.

\square

La consecuencia práctica de la proposición anterior es que basta verificar (2) o (3) para garantizar que W es un subespacio.

Problema. Considera V el espacio vectorial de matrices en M_n(F). Muestra que el subconjunto W de matrices simétricas forman un subespacio de V.

Solución. Lo demostraremos probando el punto (3) de la proposición. Sea c un escalar en F y sean A y B matrices en W, es decir, tales que ^tA=A y ^tB = B. Debemos mostrar que cA+B está en W, es decir, que ^t(cA+B)=cA+B. Usando propiedades de la transpuesta y la hipótesis sobre A y B tenemos que:

    \[^t(cA+B) = c \ ^tA+ \ ^tB = cA + B.\]

Con esto termina la demostración.

\square

Más ejemplos de subespacios vectoriales

A continuación presentamos más ejemplos de subespacios vectoriales. En cada ejemplo damos un espacio vectorial y un subconjunto W. Para cada uno de los casos, piensa por qué la suma de dos elementos de W es de nuevo un elemento de W y por qué el producto de un escalar por un elemento de W es un elemento de W. También puedes usar la última proposición para probar ambas cosas simultáneamente.

  • Si tomamos M_2(\mathbb{R}), el subconjunto W de matrices que cumplen que la suma de entradas en su diagonal principal es igual a 0 es un subespacio.
  • En el espacio vectorial F^4, el subconjunto W de vectores cuya primera y tercer entrada son iguales a 0 forman un subespacio.
  • Las funciones acotadas del intervalo [-3, 3] a \mathbb{R} forman un subconjunto W que es un subespacio de las funciones del intervalo [-3,3] a \mathbb{R}.
  • El subconjunto W de vectores (x,y,z) de \mathbb{R}^3 tales que

        \[\begin{cases}x+y+z &= 0\\ x+ 2y + 3z &= 0 \end{cases}\]

    es un subespacio de \mathbb{R}^3.
  • Si tomamos W=\mathbb{R}_3[x], entonces este es un subespacio de \mathbb{R}_4[x].
  • Si tomamos W=\mathbb{R}_4[x], entonces este es un subespacio de \mathbb{R}_5[x].
  • El subconjunto W de funciones diferenciables de [0,10] a \mathbb{R} tales que su derivada evaluada en 7 es igual a 0 es un subespacio del espacio de funciones continuas de [0,10] a \mathbb{R}.
  • Las matrices triangulares superiores de M_n(F) forman un subespacio W del espacio M_n(F). Las matrices triangulares inferiores también. Como la intersección de estos subespacios es el conjunto de matrices diagonales, obtenemos que las matrices diagonales también son un subespacio (aunque claro, esto también se puede probar directamente de la definición).

Ejemplos de subconjuntos que no son subespacios vectoriales

Aunque ya vimos muchos ejemplos de subespacios, resulta que en realidad es un poco raro que un subconjunto de un espacio vectorial sea un subespacio. Los ejemplos de subconjuntos que no son subespacios vectoriales abundan. Veamos algunos y qué tipo de cosas pueden salir mal.

  • El subconjunto W=\{(x,y,z): x^2+y^2+z^2=1\} no es un subespacio de \mathbb{R}^3. Podemos dar el siguiente argumento: ya demostramos que un subespacio debe tener al vector cero. En este caso, W debería tener a (0,0,0) para ser subespacio. Pero 0^2+0^2+0^2=0\neq 1. Así, (0,0,0) no está en W y por lo tanto W no es subespacio.
  • Alternativamente, en el ejemplo anterior podemos ver que (1,0,0) está en W, pero 2(1,0,0)=(2,0,0) no.
  • El subconjunto W=\{(0,0), (1,2), (-1,2)\} de \mathbb{R}^2 no es un subespacio, pues (1,2) está en W. Tomando u=(1,2) y v=(1,2), vemos que W no es cerrado bajo sumas pues (1,2)+(1,2)=(2,4) no está en W.
  • Las matrices del subconjunto GL_n(F) de M_n(F), es decir, las matrices invertibles, no conforman un subespacio. Por un lado, ya vimos que el neutro aditivo de la suma debe estar en un subespacio, pero la matriz O_n no es invertible, así que no está en GL_n(F).
  • El subconjunto W de funciones f:[-3,3]\to \mathbb{R} diferenciables tales que su derivada en 0 es igual a 2 no es un subespacio de las funciones continuas de [-3,3] a \mathbb{R}. Hay muchas formas de verlo. Podemos darnos cuenta que f(x)=x^2+2x es una de las funciones en W pues f'(x)=2x+2 y f'(0)=2. Sin embargo, 3f no está en W.
  • El subconjunto W de polinomios de \mathbb{R}[x] con coeficientes no negativos no es un subespacio de \mathbb{R}[x]. El polinomio 0 sí está en W y la suma de cualesquiera dos elementos de W está en W. Sin embargo, falla la multiplicación escalar pues x está en W, pero (-1)x=-x no.
  • La unión del eje X, el eje Y y el eje Z de \mathbb{R}^3 es un subconjunto W de \mathbb{R}^3 que no es un subespacio. Cualquier producto escalar queda dentro de W, pero la suma no es cerrada.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Demuestra que los siguientes conjuntos W son subespacios del espacio vectorial indicado.
    • El subconjunto W de vectores (w,x,y,z) de \mathbb{C}^4 tales que w+x+y+z=0.
    • La colección W de funciones continuas f:[0,1]\to \mathbb{R} tales que \int_0^1 f(x) \, dx = 0 es un subespacio del espacio de funciones de [0,1] a \mathbb{R}.
    • W=\left\{\begin{pmatrix} a+b & b\\ -b & c+b \end{pmatrix}: a,b,c \in \mathbb{R} \right\} es un subespacio de las matrices en M_2(\mathbb{R}).
  • Demuestra que los siguientes conjuntos W no son subespacios del espacio vectorial indicado.
    • El subconjunto W de vectores (x,y) de \mathbb{R}^2 tales que xy\geq 0 no es un subespacio de \mathbb{R}^2.
    • El subconjunto W de matrices en M_{3,2}(F) cuyo producto de todas las entradas es igual a 0 no es un subespacio de M_{3,2}
    • Cuando W es un subconjunto finito y con al menos dos polinomios con coeficientes complejos y de grado a lo más 3, es imposible que sea un subespacio de \mathbb{C}_3[x].
  • Sea V un espacio vectorial y n un entero positivo. Demuestra que si W_1, W_2, \ldots, W_n son subespacios de V, entonces la intersección

        \[W_1 \cap W_2 \cap \ldots \cap W_n\]

    también lo es.
  • Escribe por completo la demostración de que cualquier subespacio de un espacio vectorial es también un espacio vectorial con las mismas operaciones.
  • Demuestra que si V es un espacio vectorial, W es un subespacio de V y U es un subespacio de W, entonces U es un subespacio de V.

Más adelante…

En esta entrada definimos el concepto de subespacio de un espacio vectorial. En la siguiente hablaremos de algunas operaciones que se les puede hacer a los subespacios vectoriales para “combinarlos” y obtener más subespacios. Una operación muy imporante es la de suma de subespacios, que puede tener dos o más sumandos. La operación de suma de subespacios es particularmente especial cuando los subespacios están en posición de suma directa. Para irte dando una idea de qué quiere decir esto, dos subespacios están en posición de suma directa si su único elemento en común es el vector 0. El caso general de más subespacios se enuncia de forma distinta y también lo veremos en la siguiente entrada.

Entradas relacionadas

Álgebra Lineal I: Espacios vectoriales

Introducción

En la primer unidad de este curso de álgebra lineal estudiamos a profundidad al conjunto F^n con sus operaciones de suma y multiplicación por escalar. Luego, hablamos de las matrices en M_{m,n}(F) y vimos cómo pensarlas como transformaciones lineales. Les dimos una operación de producto que en términos de transformaciones lineales se puede pensar como la composición. Luego, hablamos de la forma escalonada reducida de una matriz y cómo llevar cualquier matriz a esta forma usando reducción gaussiana. Esto nos permitió resolver sistemas de ecuaciones lineales homogéneos y no homogeneos, así como encontrar inversas de matrices. Las habilidades desarrolladas en la primer parte del curso serán de mucha utilidad para la segunda, en donde hablaremos de espacios vectoriales.

En esta entrada definiremos el concepto de espacio vectorial y vectores. Para hacer esto, tomaremos como motivación el espacio F^n, que ya conocemos bien. Sin embargo, hay muchos otros ejemplos de objetos matemáticos que satisfacen la definición que daremos. Hablaremos de algunos de ellos.

En el transcurso de la unidad también hablaremos de otros conceptós básicos, como la de subespacio. Hablaremos de conjuntos linealmente independientes, de generadores y de bases. Esto nos llevará a establecer una teoría de la dimensión de un espacio vectorial. Las bases son de fundamental importancia pues en el caso de dimensión finita, nos permitirán pensar a cualquier espacio vectorial “como si fuera F^n “. Más adelante precisaremos en qué sentido es esto.

Después, veremos cómo pasar de un espacio vectorial a otro mediante transformaciones lineales. Veremos que las transformaciones entre espacios vectoriales de dimensión finita las podemos pensar prácticamente como matrices, siempre y cuando hayamos elegido una base para cada espacio involucrado. Para ver que estamos haciendo todo bien, debemos verificar que hay una forma sencilla de cambiar esta matriz si usamos una base distinta, y por ello estudiaremos a las matrices de cambio de base.

Esta fuerte relación que existe entre transformaciones lineales y y matrices nos permitirá llevar información de un contexto a otro. Además, nos permitirá definir el concepto de rango para una matriz (y transformación vectorial). Hasta ahora, sólo hemos distinguido entre matrices invertibles y no invertibles. Las matrices invertibles corresponden a transformaciones lineales que “guardan toda la información”. El concepto de rango nos permitirá entender de manera más precisa cuánta información guardan las transformaciones lineales no invertibles.

Recordando a F^n

Antes de definir el concepto de espacio vectorial en toda su generalidad, recordemos algunas de las cosas que suceden con F^n. De hecho, puedes pensar en algo mucho más concreto como \mathbb{R}^4.

Como recordatorio, comenzamos tomando un campo F y dijimos que, para fines prácticos, podemos pensar que se trata de \mathbb{R} y \mathbb{C}. A los elementos de F les llamamos escalares.

Luego, consideramos todas las n-adas de elementos de F y a cada una de ellas le llamamos un vector. A F^n le pusimos una operación de suma, que tomaba dos vectores en F^n y nos daba otro. Además, le pusimos una operación de producto por escalar, la cual tomaba un escalar en F y un vector en F^n y nos daba como resultado un vector. Para hacer estas operaciones procedíamos entrada a entrada.

Sin embargo, hay varias propiedades que demostramos para la suma y producto por escalar, para las cuales ya no es necesario hablar de las entradas de los vectores. Mostramos que todo lo siguiente pasa:

  1. (Asociatividad de la suma) Para cualesquiera vectores u,v,w en F^n se cumple que (u+v)+w=u+(v+w).
  2. (Conmutatividad de la suma) Para cualesquiera vectores u,v en F^n se cumple que u+v=v+u.
  3. (Identidad para la suma) Existe un vector 0 en F^n tal que u+0=u=0+u.
  4. (Inversos para la suma) Para cualquier vector u en F^n existe un vector v en F^n tal que u+v=0=v+u.
  5. (Distributividad para la suma escalar) Para cualesquiera escalares a,b en F y cualquier vector v en F^n se cumple que (a+b)v=av+bv.
  6. (Distributividad para la suma vectorial) Para cualquier escalar a en F y cualesquiera vectores v,w en F^n se cumple que a(v+w)=av+aw.
  7. (Identidad de producto escalar) Para la identidad multiplicativa 1 del campo F y cualquier vector v en F^n se cumple que 1v=v.
  8. (Compatibilidad de producto escalar) Para cualesquiera dos escalares a,b en F y cualquier vector v en F^n se cumple que (ab)v=a(bv).

Los primeros cuatro puntos son equivalentes a decir que la operación suma en F^n es un grupo conmutativo. Resulta que hay varios objetos matemáticos que satisfacen todas estas ocho propiedades o axiomas de espacio vectorial, y cuando esto pasa hay muchas consecuencias útiles que podemos deducir. La esencia del álgebra lineal precisamente consiste en deducir todo lo posible en estructuras que tienen las ocho propiedades anteriores. Estas estructuras son tan especiales, que tienen su propio nombre: espacio vectorial.

Definición de espacio vectorial

Estamos listos para la definición crucial del curso.

Definición. Sea F un campo. Un espacio vectorial sobre el campo F es un conjunto V con operaciones de suma y producto por escalar, que denotaremos por

    \begin{align*}+:& V\times V \to V \quad \text{y}\\\cdot:& F\times V \to V,\end{align*}

para las cuales se cumplen las ocho propiedades de la sección anterior. En otras palabras:

  • El conjunto V es un grupo conmutativo con la suma
  • Se tiene asociatividad para la suma escalar y la suma vectorial
  • Se tiene identidad y compatibilidad de la mulltiplicación escalar.

A los elementos de F les llamamos escalares. A los elementos de F^n les llamamos vectores. Para hacer restas, las definimos como u-v=u+(-v), donde -v es el inverso aditivo de v con la suma vectorial. Usualmente omitiremos el signo de producto escalar, así que escribiremos av en vez de a\cdot v para a escalar y v vector.

La definición da la impresión de que hay que verificar muchas cosas. De manera estricta, esto es cierto. Sin embargo, de manera intuitiva hay que pensar que a grandes rasgos los espacios vectoriales son estructuras en donde podemos sumar elementos entre sí y multiplicar vectores por escalares (externos) sin que sea muy complicado.

Como ya mencionamos, el conjunto F^n con las operaciones de suma y multiplicación por escalar que se hacen entrada por entrada es un espacio vectorial sobre F. En lo que resta de la entrada, hablaremos de otros ejemplos de espacios vectoriales que nos encontraremos frecuentemente.

Espacios vectoriales de matrices

Otros ejemplos de espacios vectoriales con los que ya nos encontramos son los espacios de matrices. Dado un campo F y enteros positivos m y n, el conjunto de matrices en M_{m,n}(F) es un espacio vectorial en donde la suma se hace entrada a entrada y la multiplicación escalar también.

¿Qué es lo que tenemos que hacer para mostrar que en efecto esto es un espacio vectorial? Se tendrían que verificar las 8 condiciones en la definición de espacio vectorial. Esto lo hicimos desde la primer entrada del curso, en el primer teorema de la sección “Operaciones de vectores y matrices”. Vuelve a leer ese teorema y verifica que en efecto se enuncian todas las propiedades necesarias.

Aquí hay que tener cuidado entonces con los términos que se usan. Si estamos hablando del espacio vectorial F^n, las matrices no forman parte de él, y las matrices no son vectores. Sin embargo, si estamos hablando del espacio vectorial M_{m,n}(F), entonces las matrices son sus elementos, y en este contexto las matrices sí serían vectores.

Ejemplo. Sea \mathbb{F}_2 el campo con 2 elementos. Consideremos M_{2}(\mathbb{F}_2). Este es un espacio vectorial. Tiene 16 vectores de la forma \begin{pmatrix} a & b \\ c & d \end{pmatrix}, en donde cada entrada es 0 o 1. La suma y la multiplicación por escalar se hacen entrada a entrada y con las reglas de \mathbb{F}_2. Por ejemplo, tenemos

    \[\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} + \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}.\]

\square

Espacios vectoriales de funciones

Ahora veremos algunos ejemplos de espacios vectoriales cuyos elementos son funciones. Esto puede parecer algo abstracto, pero en unos momentos veremos algunos ejemplos concretos que nos pueden ayudar a entender mejor.

Sea F un campo y consideremos cualquier conjunto X. Consideremos el conjunto V de todas las posibles funciones de X a F. A este conjunto queremos ponerle operaciones de suma y de multiplicación por escalar.

Para definir la suma, tomemos dos funciones que van de X a F, digamos f:X\to F y g:X\to F. Definiremos a la función f+g como la función que a cada x en X lo manda a f(x)+g(x). Aquí estamos usando la suma del campo F. En símbolos, (f+g):X\to F tiene regla de asignación

    \[(f+g)(x)=f(x)+g(x).\]

Para definir el producto por escalar, tomamos una función f:X\to F y un escalar c en el campo F. La función cf será la función cf:X\to F con regla de asignación

    \[(cf)(x)=cf(x)\]

para todo x en X.

Resulta que el conjunto V de funciones de X a F con estas operaciones de suma y producto, es un espacio vectorial. Podemos probar, por ejemplo, la asociatividad de la suma. Para ello, la primer cosa que necesitamos mostrar es la asociatividad de la suma. Es decir, que si tenemos f:X\to F, g:X\to F y h:X\to F, entonces

    \[(f+g)+h = f+ (g+h).\]

Esta es una igualdad de funciones. Para que sea cierta, tenemos que verificarla en todo el dominio, así que debemos mostrar que para todo x en X tenemos que

    \[((f+g)+h)(x)=(f+(g+h))(x).\]

Para demostrar esto, usemos la definición de suma de funciones y la asociatividad de la suma del campo F. Con ello, podemos realizar la siguiente cadena de igualdades:

    \begin{align*}((f+g)+h)(x)&=(f+g)(x)+h(x)\\&=(f(x)+g(x)) + h(x) \\&=f(x) + (g(x)+h(x)) \\&=f(x) + (g+h)(x)\\&=(f+(g+h))(x).\end{align*}

Así, la suma en V es asociativa. El resto de las propiedades se pueden demostrar con la misma receta:

  • Se enuncia la igualdad de funciones que se quiere mostrar.
  • Para que dicha igualdad sea cierta, se tiene que dar en cada elemento del dominio, así que se evalúa en cierta x.
  • Se prueba la igualdad usando las definiciones de suma y producto por escalar, y las propiedades de campo de F.

Ejemplo. El ejemplo anterior es muy abstracto, pues X puede ser cualquier cosa. Sin embargo, hay muchos espacios de funciones con los cuales se trabaja constantemente. Por ejemplo, si el campo es el conjunto \mathbb{R} de reales y X es el intervalo [0,1], entonces simplemente estamos hablando de las funciones que van de [0,1] a los reales.

Si tomamos f:[0,1]\to \mathbb{R} y g:[0,1]\to \mathbb{R} dadas por

    \begin{align*}f(x)&= \sin x - \cos x\\ g(x) &= \cos x + x^2,\end{align*}

entonces su suma simplemente es la función f+g:[0,1]\to \mathbb{R} definida por (f+g)(x)=\sin x + x^2. Si tomamos, por ejemplo, el escalar 2, entonces la función 2f:[0,1]\to \mathbb{R} no es nada más que aquella dada por

    \[(2f)(x)= 2\sin x - 2\cos x.\]

Así como usamos el intervalo [0,1], pudimos también haber usado al intervalo [-2,2), al (-5,\infty], o a cualquier otro.

\square

Espacios vectoriales de polinomios

Otro ejemplo de espacios vectoriales que nos encontraremos frecuentemente son los espacios de polinomios. Si no recuerdas con precisión cómo se construyen los polinomios y sus operaciones, te recomendamos repasar este tema con material disponible aquí en el blog.

Dado un campo F y un entero positivo n usaremos F[x] para referirnos a todos los polinomios con coeficientes en F y usaremos F_n[x] para referirnos a aquellos polinomios con coeficientes en F y grado a lo más n. Aunque el polinomio cero no tiene grado, también lo incluiremos en F_n[x].

Ejemplo. Si F es \mathbb{C}, el campo de los números complejos, entonces todos los siguientes son polinomios en \mathbb{C}[x]:

    \begin{align*}p(x)&=(2+i)x^6 + (1+i),\\ q(x)&=3x^2+2x+1,\\ r(x)&=5x^7+(1-3i)x^5-1.\end{align*}

Tanto p(x) como q(x) están en \mathbb{C}_6[x], pues su grado es a lo más 6. Sin embargo, r(x) no está en \mathbb{C}_6[x] pues su grado es 7.

El polinomio q(x) también es un elemento de \mathbb{R}[x], pues tiene coeficientes reales. Pero no es un elemento de \mathbb{R}_1[x] pues su grado es demasiado grande.

\square

Recuerda que para sumar polinomios se tienen que sumar los coeficientes de grados correspondientes. Al hacer multiplicación por escalar se tienen que multiplicar cada uno de los coeficientes. De esta forma, si f(x)=x^2+1 y g(x)=x^3+\frac{x^2}{2}-3x-1, entonces

    \[(f+g)(x)=x^3+\frac{3x^2}{2}-3x,\]

y

    \[(6g)(x)=6x^3+3x^2-18x-6.\]

Resulta que F[x] con la suma de polinomios y con el producto escalar es un espacio vectorial. Puedes verificar cada uno de los axiomas por tu cuenta.

Observa que la suma de dos polinomios de grado a lo más n tiene grado a lo más n, pues no se introducen términos con grado mayor que n. Del mismo modo, si tenemos un polinomio con grado a lo más n y lo multiplicamos por un escalar, entonces su grado no aumenta. De esta forma, podemos pensar a estas operaciones como sigue:

    \begin{align*}+:& F_n[x] \times F_n[x] \to F_n[x]\\\cdot: & F\times F_n[x] \to F_n[x].\end{align*}

De esta forma, F_n[x] con la suma de polinomios y producto escalar de polinomios también es un espacio vectorial.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • A partir de los axiomas de espacio vectorial, muestra lo siguiente para un espacio vectorial V:
    • La identidad de la suma vectorial es única, es decir, que si existe otro elemento e en V tal que u+e=u=e+u para todo u en V, entonces e=0.
    • Que si 0 es la identidad aditiva del campo F y v es cualquier vector en V, entonces 0v es la identidad de la suma vectorial. En símbolos, 0v=0, donde el primer 0 es el de F y el segundo el de V.
    • Se vale la regla de cancelación para la suma vectorial, es decir, que si u,v,w son vectores en V y u+v=u+w, entonces v=w.
    • Se vale la regla de cancelación para el producto escalar, es decir, que si a es un escalar no cero del campo F y u,v son vectores de V para los cuales au=av, entonces u=v.
    • Que el inverso aditivo de un vector v para la suma vectorial en V es precisamente (-1)v, es decir, el resultado de hacer la multiplicación escalar de v con el inverso aditivo del 1 del campo F.
  • Sea V un espacio vectorial sobre \mathbb{R}. Sean u, v y w vectores en V. Justifica la siguiente igualdad enunciando de manera explícita todos los axiomas de espacio vectorial que uses

        \[u+5v-3w+2u-8v= -3(w+v-u).\]

  • Termina de demostrar que en efecto los espacios de funciones con la suma y producto escalar que dimos son espacios de funciones.
  • Enlista todos los polinomios de (\mathbb{F}_2)_3[x]. A continuación hay algunos:

        \[0, x+1, x^2+x, x^3+1.\]

    Para cada uno de ellos, encuentra quien es su inverso aditivo para la suma vectorial de (\mathbb{F}_2)_3[x].

Más adelante…

Ya dimos la definición de espacio vectorial y vimos varios ejemplos. Dentro de algunas entradas veremos como conseguir muchos más espacios vectoriales.

En el último ejemplo pasa algo curioso: el espacio F_n[x] es un subconjunto del espacio F[x] y además es un espacio vectorial con las mismas operaciones que F[x]. Este es un fenómeno muy importante en álgebra lineal. Decimos que F_n[x] es un subespacio de F[x]. En la siguiente entrada definiremos en general qué es un subespacio de un espacio vectorial y veremos algunas propiedades que tienen los subespacios.

Entradas relacionadas

Álgebra Lineal I: Introducción al curso, vectores y matrices

Introducción

Esta es la primer entrada correspondiente a las notas del curso Álgebra Lineal I. En esta serie de entradas, cubriremos todo el temario correspondiente al plan de estudios de la materia en la Facultad de Ciencias de la UNAM. Las notas están basadas fuertemente en el libro Essential Lineal Algebra with Applications de Titu Andreescu.

El curso se trata, muy a grandes rasgos, de definir espacios vectoriales y estudiar muchas de sus propiedades. Un espacio vectorial con el que tal vez estés familiarizado es \mathbb{R}^n, donde sus elementos son vectores con n entradas. En él se pueden hacer sumas entrada a entrada, por ejemplo, si n=3 una suma sería

    \begin{align*}(5,-1,2)+(1,4,9)=(6,3,11).\end{align*}

También se puede multiplicar un vector por un número real, haciéndolo entrada a entrada, por ejemplo,

    \begin{align*}3(1,5,-2,6)=(3,15,-6,18).\end{align*}

El álgebra lineal estudia espacios vectoriales más generales que simplemente \mathbb{R}^n. Como veremos más adelante, hay muchos objetos matemáticos en los que se puede definir una suma y un producto escalar. Algunos ejemplos son los polinomios, ciertas familias de funciones y sucesiones. La ventaja de estudiar estos espacios desde el punto de vista del álgebra lineal es que todas las propiedades que probemos “en general”, se valdran para todos y cada uno de estos ejemplos.

Lo que haremos en la primer unidad del curso es entender muy a profundidad a F^n, una generalización de \mathbb{R}^n en la que usamos un campo arbitrario F. También, entenderemos a las matrices en M_{m,n}(F), que son arreglos rectangulares con entradas en F. La unidad culmina con estudiar sistemas de ecuaciones lineales y el método de reducción Gaussiana.

Más adelante veremos que estudiar estos conceptos primero es muy buena idea pues los espacios vectoriales más generales tienen muchas de las propiedades de F^n, y podemos entender a ciertas transformaciones entre ellos al entender a M_{m,n}(F).

Breve comentario sobre campos

En este curso no nos enfocaremos en estudiar a profundidad las propiedades que tienen los campos como estructuras algebraicas. De manera pragmática, pensaremos que un campo F consiste de elementos que se pueden sumar y multiplicar bajo propiedades bonitas:

  • La suma y el producto son asociativas, conmutativas, tienen neutro (que llamaremos 0 y 1 respectivamente y tienen inversos (i.e. se vale “restar” y “dividir”)
  • La suma y producto satisfacen la regla distributiva

De hecho, de manera muy práctica, únicamente usaremos a los campos \mathbb{Q} de racionales, \mathbb{R} de reales, \mathbb{C} de complejos y \mathbb{F}_2, el campo de dos elementos 0 y 1. Este último sólo lo usaremos para observar que hay algunas sutilezas cuando usamos campos con una cantidad finita de elementos.

Para todos estos campos, supondremos que sabes cómo se suman y multiplican elementos. Si necesitas dar un repaso a estos temas, puedes echarle un ojo a las entradas del curso Álgebra Superior II, que también están aquí en el blog.

Nociones iniciales de álgebra lineal: escalares, vectores y matrices

Quizás te has encontrado con vectores y matrices en otros cursos. Por ejemplo, en geometría analítica es usual identificar a un vector (x,y) con un punto en el plano cartesiano, o bien con una “flecha” que va del origen a ese punto. En álgebra lineal nos olvidaremos de esta interpretación por mucho tiempo. Será hasta unidades posterioresque tocaremos el tema de geometría de espacios vectoriales. Por el momento, sólo nos importan los vectores desde el punto de vista algebraico.

Tomemos un campo F. A los elementos de F les llamaremos escalares. Para un entero positivo n, un vector X en F^n consiste de un arreglo de n entradas a_1,a_2,\ldots,a_n que pueden estar dispuestas en un vector fila

    \[X=(a_1, a_2,\ldots, a_n),\]

o bien un vector columna

    \[X=\begin{pmatrix}a_1 \\ a_2 \\ \vdots \\ a_n\end{pmatrix}.\]

Para i=1,\ldots,n, a a_i le llamamos la i-ésima coordenada o i-ésima entrada de X.

Como vectores, puedes pensar que el vector fila y el vector columna correspondientes son el mismo. Abajo veremos en qué sentido tenemos que pensarlos como diferentes. Aunque como vectores sean los mismos, los vectores columna tienen varias ventajas conceptuales en álgebra lineal.

Ejemplo. El vector

    \[X=\left(\frac{1}{2}, -1, \frac{2}{3}, 4\right).\]

tiene cuatro entradas, y todas ellas son números racionales. Por lo tanto, es un vector en \mathbb{Q}^4. Su primer entrada es \frac{1}{2}. Está escrito como vector fila, pero podríamos escribirlo también como vector columna:

    \[\begin{pmatrix} \frac{1}{2} \\ -1 \\ \frac{2}{3} \\ 4 \end{pmatrix}.\]

El vector

    \[Y=\left(\pi, \frac{3}{4}, 5, 6, \sqrt{2}\right)\]

es un vector fila en \mathbb{R}^5, pero no en \mathbb{Q}^5, pues no todas sus entradas son racionales. A Y también lo podemos pensar como un vector en \mathbb{C}.

\square

Una matriz en M_{m,n}(F) es un arreglo rectangular de elementos en F dispuestos en m filas y n columnas como sigue:

    \[A=\begin{pmatrix}a_{11} & a_{12} & a_{13} & \cdots & a_{1n}\\a_{21} & a_{22} & a_{23} & \cdots & a_{2n}\\$\vdots & & \ddots & \vdots \\a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn}\end{pmatrix}.\]

Al escalar a_{ij} le llamamos la entrada (i,j) de A.

Para cada i=1,\ldots,m, definimos a la i-ésima fila de A como el vector fila

    \[L_i=(a_{i1},a_{i2},\ldots,a_{in}),\]

y para cada j=1,2,\ldots,n definimos a la j-ésima columna de A como el vector columna

    \[C_j=\begin{pmatrix} a_{1j} \\ a_{2j} \\ \vdots \\ a_{mj}\end{pmatrix}.\]

Veamos algunas aclaraciones de notación. Cuando m=n, las matrices en M_{m,n}(F) tienen la misma cantidad de filas que de columnas. En este caso simplemente usamos la notación M_{n}(F) para ahorrarnos una letra, y si una matriz está en M_{n}(F), le llamamos una matriz cuadrada. También, ocasiones expresamos a una matriz en forma compacta diciendo cuántas filas y columnas tiene y usando la notación A=[a_{ij}].

Ejemplo. Consideremos la matriz A en M_3(\mathbb{R}) dada por A=[a_{ij}]=[i+2j]. Si queremos poner a A de manera explícita, simplemente usamos la fórmula en cada una de sus entradas:

    \begin{align*}A=\begin{pmatrix}a_{11} & a_{12} & a_{13}\\a_{21} & a_{22} & a_{23}\\a_{31} & a_{32} & a_{33}\\\end{pmatrix}&=\begin{pmatrix}1+2\cdot 1 & 1+2\cdot 2 & 1+2\cdot 3\\2+2\cdot 1 & 2+2\cdot 2 & 2+2\cdot 3\\3+2\cdot 1 & 3+2\cdot 2 & 3+2\cdot 3\\\end{pmatrix}\\&=\begin{pmatrix}3 & 5 & 7\\4 & 6 & 8\\5 & 7 & 9\\\end{pmatrix}\end{align*}

Esta es una matriz cuadrada. Sin embargo, la matriz B en M_{3,2}(\mathbb{R}) con la misma regla B=[b_{ij}]=[i+2j] no es una matriz cuadrada pues es

    \begin{align*}B=\begin{pmatrix}a_{11} & a_{12} \\a_{21} & a_{22} \\a_{31} & a_{32} \\\end{pmatrix}&=\begin{pmatrix}1+2\cdot 1 & 1+2\cdot 2\\2+2\cdot 1 & 2+2\cdot 2\\3+2\cdot 1 & 3+2\cdot 2\\\end{pmatrix}\\&=\begin{pmatrix}3 & 5 \\4 & 6 \\5 & 7 \\\end{pmatrix},\end{align*}

la cual es una matriz con 3 filas y 2 columnas.

\square

Cualquier vector fila en F^n lo podemos pensar como una matriz en M_{1n}(F) y cualquier vector columna en F^n lo podemos pensar como una matriz en M_{n1}(F). En este sentido estos dos vectores sí serían distintos. Usualmente será claro si se necesita o no hacer la distinción.

Para que dos vectores o dos matrices sean iguales, tienen que serlo coordenada a coordenada.

Vectores y matrices especiales

Al vector en F^n con todas sus entradas iguales al cero del campo F le llamamos el vector cero y lo denotamos con 0. El contexto nos ayuda a decidir si estamos hablando del escalar cero (el neutro aditivo del campo F) o del vector cero.

De manera similar, a la matriz en M_{m,n} con todas sus entradas iguales al cero del campo F le llamamos la matriz cero y la denotamos con O_{m,n}. Si m=n, la llamamos simplemente O_n.

Otra matriz especial que nos encontraremos frecuentemente es la matriz identidad. Para cada n, es la matriz I_n en M_n(F) tal que cada entrada de la forma a_{ii} es igual a uno (el neutro multiplicativo de F) y el resto de sus entradas son iguales a 0.

Cuando estamos trabajando en M_n(F), es decir, con matrices cuadradas, hay otras familias de matrices que nos encontraremos frecuentemente. Una matriz A=[a_{ij}] en M_{n}(F):

  • Es diagonal si cuando i\neq j, entonces a_{ij}=0.
  • Es triangular superior si cuando i>j, entonces a_{ij}=0.
  • Y es triangular inferior si cuando i<j entonces a_{ij}=0.

A las entradas de la forma a_{ii} se les conoce como las entradas de la diagonal principal de la matriz. En otras palabras, A es diagonal cuando sus únicas entradas no cero están en la diagonal principal. Es triangular superior cuando sus entradas por debajo de la diagonal principal son iguales a cero. Y de manera similar, es triangular inferior cuando sus entradas por encima de la diagonal principal son iguales a cero.

Ejemplo. La matriz O_{3,2} de M_{3,2}(\mathbb{Q}) es la siguiente

    \[O_{3,2}=\begin{pmatrix}0 & 0 \\ 0& 0 \\ 0 & 0 \\\end{pmatrix}\]

La matriz I_4 de M_{4}(F) es la siguiente

    \[I_4=\begin{pmatrix}1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0\\ 0 & 0 & 0 & 1\end{pmatrix}.\]

Esta matriz identidad es diagonal, triangular superior y triangular inferior. Una matriz diagonal distinta a la identidad podría ser la siguiente matriz en M_3(\mathbb{Q}):

    \[\begin{pmatrix}1 & 0 & 0 \\ 0 & -\frac{1}{2} & 0 \\ 0 & 0 & \frac{1}{3} \\\end{pmatrix}.\]

Una matriz que es triangular superior, pero que no es diagonal (ni triangular inferior), podría ser la siguiente matriz en M_4(\mathbb{R}):

    \[\begin{pmatrix}1 & \sqrt{2} & 2 & \sqrt{5}\\ 0 & 1 & \sqrt{3} & 0\\ 0& 0 & 1 & \sqrt{2}\\ 0 & 0 & 0 & 1\end{pmatrix}.\]

\square

Operaciones de vectores y matrices

Si tenemos dos matrices A=[a_{ij}] y B=[b_{ij}] en M_{m,n}(F), entonces podemos definir a la matriz suma A+B como la matriz cuyas entradas son [a_{ij}+b_{ij}], es decir, se realiza la suma (del campo F) entrada por entrada.

Ejemplo. Si queremos sumar a las matrices A y B en M_{4}(\mathbb{R}) dadas por

    \[A=\begin{pmatrix}1 & \sqrt{2} & 2 & \sqrt{5}\\ 0 & 1 & \sqrt{3} & 2\\  0& 0 & 1 & \sqrt{2}\\ 0 & 0 & 0 & 1\end{pmatrix}.\]

y

    \[B=\begin{pmatrix}1 & 1 & -1 & -3\\ 0 & 1 & 1 & -2\\ 0& 0 & 1 & 1\\ 0 & 0 & 0 & 1\end{pmatrix},\]

entonces hacemos la suma entrada por entrada para obtener:

    \[A+B=\begin{pmatrix}2 & 1+\sqrt{2} & 1 & -3+\sqrt{5}\\ 0 & 2 & 1+\sqrt{3} & 0\\ 0 & 0 & 2 & 1+\sqrt{2}\\ 0 & 0 & 0 & 2\end{pmatrix}.\]

\square

Es muy importante que las dos matrices tengan la misma cantidad de filas y renglones. Insistiendo: si no coinciden la cantidad de filas o de columnas, entonces las matrices no se pueden sumar.

Si tenemos una matriz A=[a_{ij}] en M_{m,n}(F) y un escalar c en F, podemos definir el producto escalar de A por c como la matriz cA=[ca_{ij}], es decir, aquella que se obtiene al multiplicar cada una de las entradas de A por el escalar c (usando la multiplicación del campo F).

Ejemplo. Al tomar la siguiente matriz en M_{2}(\mathbb{C})

    \[A=\begin{pmatrix} 1 & i \\ -i & 1 \end{pmatrix}\]

y el escalar i en \mathbb{C}, se tiene que

    \[iA=\begin{pmatrix} i\cdot 1 &i\cdot i \\ i\cdot (-i) & i\cdot 1\end{pmatrix} = \begin{pmatrix} i & -1 \\ 1 & i \end{pmatrix}.\]

\square

Dada una matriz A, a la matriz (-1)A le llamamos simplemente -A, y definimos A-B:=A+(-B).

Como todo vector en F^n se puede pensar como una matriz, estas operaciones también se pueden definir para vectores para obtener la suma de vectores y la producto escalar en vectores.

En álgebra lineal frecuentemente hablaremos de escalares, vectores y matrices simultáneamente. Cada que veas una una variable es importante que te preguntes de cuál de estos tipos de objeto es. También, cada que veas una operación (por ejemplo, una suma), es importante preguntarte si es una suma de escalares, vectores o matrices.

Muchas de las buenas propiedades de las operaciones de suma y producto en el campo F también se cumplen para estas definiciones de suma y producto escalar de vectores y matrices.

Teorema. Sean A,B,C matrices en M_{m,n}(F) y \alpha,\beta,\gamma escalares en F. Entonces la suma de matrices:

  • Es asociativa: (A+B)+C = A+(B+C)
  • Es conmutativa: A+B=B+A
  • Tiene neutro: A+O_{m,n}=A=O_{m,n}+A
  • Tiene inversos: A+(-A)=O_{m,n}=(-A)+A

Además,

  • La suma de escalares y el producto escalar se distribuyen: (\alpha+\beta)A=\alpha A + \beta A
  • La suma de matrices y el producto escalar se distribuyen: \alpha(A+B)=\alpha A + \alpha B
  • El producto escalar es homogéneo: \alpha(\beta A) = (\alpha \beta) A
  • El 1 es neutral para el producto escalar: 1A = A

Un teorema análogo se vale al cambiar matrices por vectores. La demostración de este teorema se sigue directamente de las propiedades del campo F. La notación de entradas nos ayuda mucha a escribir una demostración sin tener que escribir demasiadas entradas una por una. Veamos, como ejemplo, la demostración de la primera propiedad.

Demostración. Tomemos matrices A=[a_{ij}], B=[b_{ij}] y C=[c_{ij}] en M_{m,n}(F). Para mostrar que

    \[(A+B)+C=A+(B+C),\]

tenemos que mostrar que la entrada (i,j) del lado izquierdo es igual a la entrada (i,j) del lado derecho para cada i=1,\ldots,m y j=1,\ldots,n.

Por definición de suma, A+B=[a_{ij}]+[b_{ij}]=[a_{ij}+b_{ij}]. Por ello, y de nuevo por definicón de suma,

    \[(A+B)+C=[(a_{ij}+b_{ij})+c_{ij}].\]

De manera similar,

    \[A+(B+C)=[a_{ij}+(b_{ij}+c_{ij})].\]

Pero en F la suma es asociativa, de modo que

    \[(a_{ij}+b_{ij})+c_{ij}=a_{ij}+(b_{ij}+c_{ij}).\]

Con esto hemos demostrado que (A+B)+C y A+(B+C) son iguales entrada a entrada, y por lo tanto son iguales como matrices.

\square

La receta para demostrar el resto de las propiedades es la misma:

  1. Usar la definición de suma o producto por escalares para saber cómo es la entrada (i,j) del lado izquierdo y del lado derecho.
  2. Usar las propiedades del campo F para concluir que las entradas son iguales.
  3. Concluir que las matrices son iguales.

Para practicar las definiciones y esta técnica, la demostración del resto de las propiedades queda como tarea moral. A partir de ahora usaremos todas estas propiedades frecuentemente, así que es importante que las tengas en cuenta.

Base canónica de vectores y matrices

Cuando estamos trabajando en F^n, al vector e_i tal que su i-ésima entrada es 1 y el resto son 0 lo llamamos el i-ésimo vector de la base canónica. Al conjunto de vectores \{e_1,\ldots,e_n\} le llamamos la base canónica de F^n.

De manera similar, cuando estamos trabajando en M_{m,n}(F), para cada i=1,\ldots,m y j=1,\ldots,n, la matriz E_{ij} tal que su entrada (i,j) es 1 y todas las otras entradas son cero se le conoce como la matriz (i,j) de la base canónica. Al conjunto de todas estas matrices E_{ij} le llamamos la base canónica de M_{m,n}(F).

Ejemplo. El vector e_2 de F^3 es (0,1,0). Ten cuidado, pues este es distinto al vector e_2 de F^5, que es (0,1,0,0,0).

La matriz E_{12} de M_{2,3}(\mathbb{R}) es

    \[\begin{pmatrix} 0 &  1 & 0\\ 0 & 0 & 0 \end{pmatrix}.\]

\square

Más adelante veremos el concepto de base en general, cuando hablemos de espacios vectoriales. Por el momento, la intuición para álgebra lineal es que una base es un conjunto que nos ayuda a generar elementos que nos interesan mediante sumas y productos escalares. Los siguientes resultados dan una intuición inicial de este fenómeno.

Teorema. Todo vector X en F^n se puede escribir de manera única de la forma

    \[X=x_1e_1+x_2e_2+\ldots+x_ne_n,\]

en donde x_1,\ldots,x_n son escalares en F y \{e_1,\ldots,e_n\} es la base canónica.

Demostración. Si X es un vector en F^n, entonces es de la forma X=(x_1,x_2,\ldots,x_n). Afirmamos que las coordenadas de X son los x_i buscados.

En efecto, tomemos una i=1,\ldots,n. Como e_i tiene 1 en la i-ésima entrada y 0 en el resto, entonces x_ie_i es el vector con x_i en la i-ésima entrada y 0 en el resto. De esta forma, sumando entrada a entrada, tenemos

    \begin{align*}x_1e_1+x_2e_2+\ldots+x_ne_n&=\begin{pmatrix} x_1 \\ 0 \\ 0 \\ \vdots \\ 0 \end{pmatrix} + \begin{pmatrix} 0 \\ x_2 \\ 0 \\ \vdots \\ 0 \end{pmatrix} + \ldots + \begin{pmatrix} 0\\ 0 \\ 0 \\ \vdots \\ x_n \end{pmatrix}\\&=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \end{pmatrix}=X.\end{align*}

Esto muestra la existencia.

Para demostrar la unicidad, un argumento análogo muestra que si tenemos otros escalares y_1,\ldots,y_n que cumplan, entonces:

    \[\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \end{pmatrix}=X=y_1e_1+\ldots+y_ne_n=\begin{pmatrix} y_1 \\ y_2 \\ y_3 \\ \vdots \\ y_n \end{pmatrix},\]

de modo que x_i=y_i para todo i=1,\ldots,n.

\square

Tenemos un resultado análogo para matrices.

Teorema. Toda matriz A en M_{m,n}(F) se puede escribir de manera única de la forma

    \[A=\sum_{i=1}^m \sum_{j=1}^n x_{ij} E_{ij},\]

en donde para i=1,\ldots,m y j=1,\ldots,n, se tiene que x_{ij} son escalares en F y E_{ij} son las matrices de la base canónica.

La demostración es muy similar a la del teorema anterior y como práctica queda como tarea moral.

Ejemplo. La matriz

    \[A=\begin{pmatrix} 2 & 0\\ 0 & -1 \\ 3 & 5 \end{pmatrix}\]

en M_{3,2}(\mathbb{C}) se expresa de manera única en términos de la base canónica como

    \[A=2E_{11}-1E_{22}+3E_{31}+5E_{32}.\]

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Explica por qué no puedes sumar la matriz I_5 con la matriz O_4
  • Muestra que la suma de dos matrices diagonales es diagonal. Haz lo mismo para matrices triangulares superiores y para matrices triangulares inferiores.
  • Termina de demostrar el teorema de propiedades de las operaciones de suma y producto escalar.
  • Explica por qué si una matriz es simultáneamente triangular superior y triangular inferior, entonces es diagonal.
  • Expresa a la siguiente matriz como combinación lineal de matrices de la base canónica:

        \[\begin{pmatrix}2 & \frac{1}{2} & 0 & 1\\3 & -3 & 3 & -3\\7 & -8 & -1 & 0\end{pmatrix}.\]

  • Demuestra el teorema de representación de matrices en términos de la base canónica.

Más adelante…

En esta entrada dimos una breve introducción al álgebra lineal. Ya definimos la suma y el producto escalar para vectores y matrices. En la siguiente entrada hablaremos de otro producto que sucede en álgebra lineal: la de una matriz en M_{m,n}(F) por un vector en F^n. Veremos que esta multiplicación nos permite pensar a una matriz A como una función \varphi_A:F^n\to F^m con ciertas propiedades especiales.

Entradas relacionadas

Álgebra Lineal I: Problemas de sistemas de ecuaciones e inversas de matrices

Introducción

En esta entrada resolveremos problemas relacionados con el uso del método de reducción gaussiana para resolver sistemas de ecuaciones y encontrar inversas de matrices.

Problemas resueltos

Problema. Sea A una matriz de tamaño m\times n y sean b y c dos vectores en \mathbb{R}^{m} tales que AX=b tiene una única solución y el sistema AX=c no tiene solución. Explica por qué tiene que ser cierto que m>n.

Solución. Dado que el sistema AX=b es consistente, usando el teorema de existencia y unicidad podemos concluir que

  1. \left(A'\vert b'\right) no tiene pivotes en la última columna,
  2. A' tiene pivotes en todas sus columnas.

Sin embargo, sabemos que el sistema AX=c no tiene solución. Otra vez por el teorema de existencia y unicidad, esto nos implica que \left(A'\vert c'\right) tiene un pivote en la última columna. Sin embargo, ya sabíamos que A' tiene pivotes en todas sus columnas, pero aún así hay espacio en \left(A'\vert c'\right) para un pivote más, es decir, nos sobra espacio hasta abajo por lo que necesariamente tenemos al menos un renglón más que el número de columnas. Es decir m\geq n+1, y por lo tanto m>n.

\square

Problema. Determina si existen reales w, x, y y z tales que las matrices

    \[\begin{pmatrix} x & 2\\ y & 1 \end{pmatrix}\]

y

    \[\begin{pmatrix} 5 & -2 \\ z & w \end{pmatrix}\]

sean inversas la una de la otra.

Solución. En una entrada anterior mostramos que para que dos matrices cuadradas A y B del mismo tamaño sean inversas, basta con mostrar que AB=I. De esta forma, haciendo el producto tenemos que el enunciado es equivalente a

    \begin{align*}\begin{pmatrix} 5x+2z & -2x+2w \\ 5y+z & -2y+w \end{pmatrix}=\begin{pmatrix} 1 & 0 \\ 0 & 1\end{pmatrix}.\end{align*}

Es decir, tenemos un sistema lineal

    \begin{align*}\begin{cases}5x+2z&=1\\-2x+2w&=0\\5y+z&=0\\-2y+w&=1.\end{cases}\end{align*}

Este es un sistema lineal de la forma AX=b, donde

    \[A=\begin{pmatrix} 5 & 0 & 2 & 0 \\ -2 & 0 & 0 & 2 \\ 0 & 5 & 1 & 0 \\ 0 & -2 & 0 & 1 \end{pmatrix}\]

y

    \[b=\begin{pmatrix} 1 \\ 0 \\ 0 \\ 1 \end{pmatrix}.\]

Para determinar si tiene solución, aplicamos reducción gaussiana a la matriz (A|b). En los siguientes pasos estamos aplicando una o más operaciones elementales.

    \begin{align*}&\begin{pmatrix}5 & 0 & 2 & 0 & 1 \\ -2 & 0 & 0 & 2 & 0 \\ 0 & 5 & 1 & 0 & 0 \\ 0 & -2 & 0 & 1 & 1 \end{pmatrix}\\\to &\begin{pmatrix}1 & 0 & \frac{2}{5} & 0 & \frac{1}{5} \\ -2 & 0 & 0 & 2 & 0 \\ 0 & 5 & 1 & 0 & 0 \\ 0 & -2 & 0 & 1 & 1 \end{pmatrix}\\\to & \begin{pmatrix}1 & 0 & \frac{2}{5} & 0 & \frac{1}{5} \\ 0 & 0 & \frac{4}{5} & 2 & \frac{2}{5} \\ 0 & 5 & 1 & 0 & 0 \\ 0 & -2 & 0 & 1 & 1 \end{pmatrix}\\\to & \begin{pmatrix}1 & 0 & \frac{2}{5} & 0 & \frac{1}{5} \\ 0 & 1 & \frac{1}{5} & 0 & 0 \\ 0 & 0 & \frac{4}{5} & 2 & \frac{2}{5} \\ 0 & -2 & 0 & 1 & 1 \end{pmatrix} \\\to & \begin{pmatrix}1 & 0 & \frac{2}{5} & 0 & \frac{1}{5} \\ 0 & 1 & \frac{1}{5} & 0 & 0 \\ 0 & 0 & \frac{4}{5} & 2 & \frac{2}{5} \\ 0 & 0 & \frac{2}{5} & 1 & 1 \end{pmatrix} \\\to & \begin{pmatrix}1 & 0 & \frac{2}{5} & 0 & \frac{1}{5} \\ 0 & 1 & \frac{1}{5} & 0 & 0 \\ 0 & 0 & 1 & \frac{5}{2} & \frac{1}{2} \\ 0 & 0 & \frac{2}{5} & 1 & 1 \end{pmatrix}\\\to & \begin{pmatrix}1 & 0 & 0 & -1 & 0 \\ 0 & 1 & 0 & -\frac{1}{2} & -\frac{1}{10} \\ 0 & 0 & 1 & \frac{5}{2} & \frac{1}{2} \\ 0 & 0 & 0 & 0 & \frac{4}{5} \end{pmatrix}\\\to & \begin{pmatrix}1 & 0 & 0 & -1 & 0 \\ 0 & 1 & 0 & -\frac{1}{2} & 0 \\ 0 & 0 & 1 & \frac{5}{2} & 0 \\ 0 & 0 & 0 & 0 & 1 \end{pmatrix}\end{align*}

Ya encontramos la forma escalonada reducida (A'|b') de (A|b). La última columna de (A'|b') tiene un pivote (el de la última fila). De esta forma, el sistema de ecuaciones no tiene solución.

\square

En la práctica, se pueden usar herramientas tecnológicas para para resolver algunos problemas numéricos concretos. Sin embargo, es importante tener un sólido conocimiento teórico para saber cómo aprovecharlas.

Problema. Determina si las siguientes matrices son invertibles. En caso de serlo, encuentra la inversa.

    \begin{align*}A&=\begin{pmatrix} -1 & 1 & 3 \\ 0 & 1 & 5 \\ 7 & 3 & 2 \end{pmatrix}\\B&=\begin{pmatrix}1 & 5 & -1 & 2 \\ -1 & 3 & 1 & 2 \\ 3 & 4 & 1 & -2 \\ -3 & 4 & 2 & 6 \end{pmatrix}.\end{align*}

Solución. Usando la calculadora de forma escalonada reducida de eMathHelp, obtenemos que la forma escalonada reducida de A y B son, respectivamente

    \begin{align*}A_{red}&=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\\B_{red}&=\begin{pmatrix}1 & 0 & 0 & -\frac{9}{8}\\ 0 & 1 & 0 & \frac{1}{2} \\ 0 & 0 & 1 & -\frac{5}{8} \\ 0 & 0 & 0 & 0 \end{pmatrix}.\end{align*}

Por uno de nuestros teoremas de caracterización, para que una matriz cuadrada sea invertible debe de suceder que su forma escalonada reducida sea la identidad. Esto nos dice que A sí es invertible, pero B no.

Para encontrar la inversa de A, consideramos la matriz extendida (A|I_3), y a ella le aplicamos reducción gaussiana. Usamos de nuevo la calculadora de eMathHelp para obtener

    \begin{align*}(A_{red}|X)=\begin{pmatrix}1 & 0 & 0 & \frac{13}{27} & \frac{7}{27} & \frac{2}{27} \\0 & 1 & 0 & \frac{35}{27} & - \frac{23}{27} & \frac{5}{27} \\0 & 0 & 1 & \frac{7}{27} & \frac{10}{27} & - \frac{1}{27}\end{pmatrix}.\end{align*}

De aquí obtenemos que la inversa de A es

    \begin{align*}A^{-1}=\begin{pmatrix} \frac{13}{27} & \frac{7}{27} & \frac{2}{27} \\ \frac{35}{27} & - \frac{23}{27} & \frac{5}{27} \\ \frac{7}{27} & \frac{10}{27} & - \frac{1}{27}\end{pmatrix}.\end{align*}

\square

Finalmente, hay algunos problemas en los que no es posible aplicar herramientas digitales, o por lo menos no es directo cómo hacerlo. Esto sucede, por ejemplo, cuando en un problema las dimensiones o entradas de una matriz son variables.

Problema. Sea a un número real. Determina la inversa de la siguiente matriz en M_{n}(\mathbb{R}):

    \[A=\begin{pmatrix} 1 & 0 & 0 & \cdots & 0 & 0 \\ a & 1 & 0 & \cdots & 0 & 0 \\ a^2 & a & 1 & \cdots & 0 & 0 \\  & \vdots & & \ddots &  & \vdots \\ a^{n-2} & a^{n-3} & a^{n-4} & \cdots & 1 & 0 \\a^{n-1} & a^{n-2} & a^{n-3} & \cdots & a & 1 \end{pmatrix}.\]

Solución. Recordemos que para obtener la inversa de una matriz cuadrada A, si es que existe, se puede aplicar a la matriz identidad las mismas operaciones elementales que se le apliquen a A para llevarla a forma escalonada reducida.

¿Qué operaciones necesitamos hacer para llevar a A a su forma escalonada reducida? La esquina (1,1) ya es un pivote, y con transvecciones de factores -a, -a^2,\ldots, -a^{n-1} podemos hacer 0 al resto de las entradas en la columna 1.

Tras esto, la entrada (2,2) es ahora pivote de la segunda fila, y con transvecciones de factores -a,-a^2,\ldots, -a^{n-2} podemos hacer 0 al resto de las entradas en la columna 2. Siguiendo este procedimiento, llevamos a A a su forma escalonada reducida. Esto puede demostrar formalmente usando inducción.

Ahora veamos qué sucede si aplicamos estas mismas operaciones a la matriz identidad. Si aplicamos las mismas operaciones que arreglan la primer columna de A, pero a la matriz identidad, obtenemos

    \[\begin{pmatrix} 1 & 0 & 0 & \cdots & 0 & 0 \\ -a & 1 & 0 & \cdots & 0 & 0 \\ -a^2 & 0 & 1 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ -a^{n-2} & 0 & 0 & \cdots & 1 & 0 \\-a^{n-1} & 0 & 0 & \cdots & 0 & 1 \end{pmatrix}.\]

Si ahora aplicamos las operaciones que arreglan la segunda columna de A, obtenemos

    \[\begin{pmatrix} 1 & 0 & 0 & \cdots & 0 & 0 \\ -a & 1 & 0 & \cdots & 0 & 0 \\ 0 & -a & 1 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & -a^{n-3} & 0 & \cdots & 1 & 0 \\0 & -a^{n-2} & 0 & \cdots & 0 & 1 \end{pmatrix}.\]

Continuando de esta manera, en cada columna sólo nos quedará un 1 y un -a. Esto puede probarse formalmente de manera inductiva. Al final, obtenemos la matriz

    \[B=\begin{pmatrix} 1 & 0 & 0 & \cdots & 0 & 0 \\ -a & 1 & 0 & \cdots & 0 & 0 \\ 0 & -a & 1 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \cdots & 1 & 0 \\0 & 0 & 0 & \cdots & -a & 1 \end{pmatrix},\]

en donde la diagonal principal consiste de puros unos, y la diagonal debajo de ella consiste de puras entradas -a.

Hay dos formas de proceder para dar una demostración formal que esta matriz encontrada es la inversa de A. La primera es completar las demostraciones inductivas que mencionamos. La segunda es tomar lo que hicimos arriba como una exploración del problema y ahora realizar de manera explícita el producto AB o el producto BA.

\square

Entradas relacionadas