Archivo del Autor: Julio Sampietro

Álgebra Lineal I: Combinaciones lineales

Introducción

En esta entrada presentamos el concepto de combinaciones lineales en espacios vectoriales que será fundamental para nuestro estudio. De cierta manera (que se verá más claramente cuando hablemos de bases en espacios vectoriales arbitrarios) captura un aspecto de la base canónica de F^n: Todo vector lo podemos escribir como x_1 e_1+\dots+x_n e_n, lo que con nuestro lenguaje será una combinación lineal de los vectores e_i.

También hablamos del concepto de espacio generado. De manera intuitiva, el espacio generado por un conjunto de vectores es el mínimo subespacio que los tiene (y que a la vez tiene a todas las combinaciones lineales de ellos). Geometricamente, los espacios generados describen muchos de los objetos conocidos como rectas y planos. De manera algebraica, este concepto nos servirá mucho en lo que sigue del curso.

Definición de combinaciones lineales

Sea V un espacio vectorial sobre un campo F, y sean v_1, \dots, v_n vectores en V. Por definición, V contiene a todos los vectores de la forma c_1 v_1+\dots +c_n v_n con c_1, \dots, c_n \in F. La colección de los vectores de este estilo es importante y le damos una definición formal:

Definición. Sean v_1, \dots, v_n vectores en un espacio vectorial V sobre F.

  1. Un vector v es una combinación lineal de los vectores v_1, \dots, v_n si existen escalares c_1,\dots, c_n\in F tales que

        \begin{align*}v= c_1 v_1 +c_2 v_2+\dots +c_n v_n.\end{align*}

  2. El espacio generado (que a veces abreviaremos como el generado) por v_1, \dots, v_n es el subconjunto de V de todas las combinaciones lineales de v_1,\dots, v_n, y lo denotamos por \text{span}(v_1, \dots, v_n).

Ejemplo.

  1. La matriz A=\begin{pmatrix} 2 & 2 \\ 1 & 1 \end{pmatrix} es una combinación lineal de las matrices B= \begin{pmatrix} 10 & 0 \\ 5 & 0\end{pmatrix} y C=\begin{pmatrix} 0 & 1 \\ 0 & \frac{1}{2}\end{pmatrix} pues A=\frac{1}{5} B + 2 C. Así, A está en el generado por B y C.
  2. El generado \text{span}(v) de un único vector en \mathbb{R}^n consta de puras copias re-escaladas de v (también nos referimos a estos vectores como múltiplos escalares de v). Usando la interpretación geométrica de vectores en \mathbb{R}^2 o \mathbb{R}^3, si v\neq 0 entonces \text{span}(v) representa una recta por el origen en la dirección de v.
  3. Si e_1=(1,0,0) y e_2=(0,1,0), entonces

        \begin{align*}x e_1+ y e_2=(x,y,0).\end{align*}


    Como x y y fueron arbitrarios, podemos concluir que \text{span}(e_1,e_2) consta de todos los vectores en \mathbb{R}^3 cuya tercer entrada es cero. Esto es el plano xy. En general, si v_1, v_2 son dos vectores no colineales en \mathbb{R}^3 entonces su espacio generado es el único plano por el origen que los contiene.
  4. El polinomio 3x^{10}+7 del espacio vectorial \mathbb{R}_{10}[x] no puede ser escrito como combinación lineal de los polinomios x^{10}+x^2+1, x^7+3x+1, 7x^3. Para demostrar esto, debemos probar que no existen reales a,b,c tales que

        \[3x^{10}+1=a(x^{10}+x^2+1)+b(x^7+3x+1)+7cx^3.\]


    Desarrollando el producto de la derecha y observando el coeficiente de x^{10}, necesitamos que a sea igual a 3. Pero entonces a la derecha va a quedar un término 3x^2 que no se puede cancelar con ninguno otro de los sumandos, sin importar el valor de b o c.

\square

Problemas prácticos de combinaciones lineales

La definición de que un vector sea combinación de otros es existencial. Para mostrar que sí es combinación lineal, basta encontrar algunos coeficientes. Para mostrar que no es combinación lineal, hay que argumental por qué ninguna de las combinaciones lineales de los vectores es igual al vector buscado.

Problema. Muestra que el vector (1,1,1) de \mathbb{R}^3 no se puede expresar como combinación lineal de los vectores

    \begin{align*}v_1= (1,0,0), \hspace{2mm} v_2=(0,1,0)\text{ y } v_3=(1,1,0).\end{align*}

Solución: Una combinación lineal arbitraria de v_1, v_2, v_3 es de la forma

    \begin{align*}x_1 v_1 +x_2 v_2 + x_3 v_3 = (x_1 + x_3, x_2 + x_3, 0)\end{align*}

para x_1,x_2,x_3 reales. Así, las combinaciones lineales de v_1,v_2,v_2 siempre tienen a 0 como tercera coordenada. De esta forma, ninguna de ellas puede ser igual a (1,1,1).

\square

Más generalmente, consideramos el siguiente problema práctico: dada una familia de vectores v_1, v_2, \dots, v_k en F^n y un vector v\in F^n, decide si v es una combinación lineal de v_1, \dots, v_k. En otras palabras, si v\in \text{span}(v_1, \dots, v_k).

Para resolver este problema, consideramos la matriz de tamaño n\times k cuyas columnas son v_1, \dots, v_k. Decir que v\in \text{span}(v_1, \dots, v_k) es lo mismo que encontrar escalares x_1, \dots, x_k\in F tales que v= x_1 v_1 +\dots +x_k v_k. De manera equivalente, si tomamos X=(x_1,\ldots,x_k), queremos la existencia de una solución al sistema AX=v.

Esto es muy útil. Como tenemos una manera práctica de decidir si este sistema es consistente (por reducción gaussiana de la matriz aumentada (A\vert v)), tenemos una manera práctica de resolver el problema de si un vector es combinación lineal de otros. Por supuesto, esto también nos da una solución concreta al problema, es decir, no sólo decide la existencia de la combinación lineal, sino que además da una cuando existe.

Problema. Sean v_1=(1,0,1,2), v_2=(3,4,2,1) y v_3=(5,8,3,0) vectores en el espacio vectorial \mathbb{R}^4. ¿Está el vector v=(1,0,0,0) en el generado de v_1,v_2 y v_3? ¿El vector w=(4,4,3,3)?

Solución: Aplicamos el método que describimos en el párrafo anterior. Es decir, tomemos la matriz

    \begin{align*}A= \begin{pmatrix} 1  & 3 & 5\\ 0 & 4 & 8\\  1 & 2 & 3\\ 2 & 1 & 0\end{pmatrix}.\end{align*}

Queremos ver si el sistema AX=v es consistente. Haciendo reducción gaussiana a mano, o bien usando una calculadora de forma escalonada reducia (por ejemplo, la de eMathHelp), obtenemos que la forma escalonada reducida de la matriz aumentada (A\vert v) es

    \begin{align*}(A\vert v)\sim \begin{pmatrix} 1 & 0 & -1 & 0\\ 0 & 1 &2 & 0\\ 0 & 0 & 0 &1 \\ 0 & 0 & 0 &0\end{pmatrix}.\end{align*}

Viendo el tercer renglón, notamos que tiene pivote en la última columna. Deducimos que el sistema no es consistente, así que v\notin \text{span}(v_1, v_2, v_3).

Procedemos de manera similar para el vector w. Esta vez tenemos

    \begin{align*}(A\vert w)\sim \begin{pmatrix} 1 & 0 & -1 & 1\\ 0 & 1 & 2 & 1\\ 0 & 0 & 0 & 0\\ 0 & 0 & 0 &0\end{pmatrix},\end{align*}

lo que muestra que el sistema es consistente (pues ninguna fila tiene su pivote en la última columna), por lo tanto w\in \text{span}(v_1, v_2, v_3). Si queremos encontrar una combinación lineal explícita tenemos que resolver el sistema

    \begin{align*}\begin{pmatrix} 1 & 0 & -1 \\ 0 & 1  & 2\\ 0 & 0 &0 \\ 0 & 0 & 0\end{pmatrix} \cdot \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix} = \begin{pmatrix} 1 \\ 1\\ 0 \\ 0\end{pmatrix}.\end{align*}

Tenemos que ninguna fila tiene su pivote en la columna 3, así que x_3 es variable libre. Las variables x_1 y x_2 son pivote. Esto nos da como solución x_1= x_3+1 y x_2=1-2x_3. Entonces podemos escribir

    \begin{align*}w= (1+x_3) v_1 + (1-2x_3) v_2+ x_3v_3\end{align*}

y esto es válido para cualquier elección de x_3. Podemos, por ejemplo, escoger x_3=0 y obtener w=v_1 + v_2.

\square

Por supuesto, en el problema anterior pudimos haber encontrado la expresión w=v_1+v_2 explorando el problema o por casualidad. Esto sería suficiente para mostrar qeu w es combinación lineal. Pero la ventaja del método sistemático que mostramos es que no se corre el riesgo de no encontrar la solución a simple vista. De me manera definitiva nos dice si hay o no hay solución, y cuando sí hay, encuentra una.

Una caracterización del espacio generado

Probamos el siguiente resultado, que explica la importancia del concepto de espacio generado. En particular, la proposición muestra que el espacio generado es un subespacio. Si te parece un poco confusa la demostración, puede ser de ayuda leer antes la observación que le sigue.

Proposición. Sea V un espacio vectorial sobre un campo F y v_1, v_2, \dots, v_n \in V. Entonces

  1. \text{span}(v_1, v_2, \dots, v_n) es la intersección de todos los subespacios vectoriales de V que contienen a todos los vectores v_1, \dots, v_n.
  2. \text{span}(v_1, v_2, \dots, v_n) es el subespacio más chico (en contención) de V que contiene a v_1,\dots, v_n.

Demostración: Como la intersección arbitraria de subespacios es un subespacio, la parte 1 implica la parte 2. Probemos entonces la parte 1.

Primero demostremos que \text{span}(v_1, v_2,\dots, v_n) está contenido en todo subespacio W de V que tiene a v_1, \dots, v_n. En otras palabras, tenemos que ver que cualquier subespacio W que tenga a v_1,\ldots,v_n tiene a todas las combinaciones lineales de ellos. Esto se sigue de que W, por ser subespacio, es cerrado bajo productos por escalar y bajo sumas. Así, si tomamos escalares \alpha_1,\ldots,\alpha_n tenemos que cada uno de \alpha_1 v_1, \ldots, \alpha_n v_n está en W y por lo tanto la combinación lineal (que es la suma de todos estos), también está en W.

La afirmación anterior implica que \text{span}(v_1, \dots, v_n) está contenido en la intersección de todos los espacios que tienen a v_1,\ldots, v_n, pues está contenido en cada uno de ellos.

Ahora, queremos ver ‘la otra contención’, es decir, que \text{span}(v_1,\ldots,v_n) contiene a la intersección de todos los espacios que tienen a v_1,\ldots,v_n. Para esto veremos primero que \text{span}(v_1, \dots, v_n) es un subespacio vectorial. Sean x,y\in \text{span}(v_1, \dots, v_n) y c\in F un escalar. Como x y y son, por definición, combinaciones lineales de v_1, \dots, v_n, podemos escribir x=a_1 v_1+\dots +a_n v_n para algunos escalares a_i y y=b_1 v_1+\dots + b_n v_n para unos escalares b_i. Así

    \begin{align*}x+cy= (a_1+cb_1) v_1 + \dots + (a_n +c b_n) v_n\end{align*}

también es una combinación lineal de v_1, \dots, v_n y por tanto un elemento del espacio generado. Se sigue que \text{span}(v_1,\dots, v_n) es uno de los subespacios que tienen a v_1, \dots, v_n. Así, este generado “aparece” en la intersección que hacemos de subespacios que tienen a estos vectores, y como la intersección de una familia de conjuntos está contenida en cada uno de esos conjuntos, concluimos que \text{span}(v_1, \dots, v_n) contiene a dicha interesección.

Argumentemos ahora la segunda parte de la proposición. Se usa el mismo argumento que arriba. Si W es cualquier subespacio que contiene a v_1, \dots, v_n, entonces “aparece” en la intersección y por tanto \text{span}(v_1, \dots, v_n) está contenido en W. Es decir, es más chico (en contención) que cualquier otro subespacio que contenga a estos vectores.

\square

Observación. Ya que la demostración previa puede resultar un poco confusa, presentamos una versión un poco más relajada de la idea que se usó. Sea \lbrace W_i\mid i\in I\rbrace la familia de todos los subespacios de V que contienen a v_1, \dots, v_n.

En el primer párrafo, probamos que

    \begin{align*}\text{span}(v_1,\dots, v_n)\subseteq W_i\end{align*}

para todo i\in I. Luego \text{span}(v_1, \dots, v_n)\subseteq \bigcap_{i\in I} W_i.

En el segundo párrafo, probamos que Span(v_1,\dots, v_n) es un subespacio que contiene a v_1, \dots, v_n. Es decir, entra en nuestra familia \lbrace W_i\mid i\in I\rbrace, es uno de los W_i, digamos W_j. Entonces

    \begin{align*}\text{span}(v_1, \dots, v_n)= W_j \supseteq \bigcap_{i\in I} W_i.\end{align*}

En ese momento ya tenemos la primer igualdad: \text{span}(v_1,\ldots,v_n)=\bigcap_{i\in I} W_i.

Ahora, la segunda conclusión de la proposición se sigue de esto con una observación más: Si W' es un subespacio que contiene a v_1, \dots, v_n entonces también entra en nuestra familia de los W_i‘s, es decir es W_{p} para algún p\in I. Ahora usando el inciso 1, tenemos que

    \begin{align*}\text{span}(v_1, \dots, v_n)= \bigcap_{i\in I} W_i \subseteq W_p=W'.\end{align*}

Esto concluye la demostración.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Se puede expresar al vector (1,3,0,5) como combinación lineal de (0,1,0,3), (0,-1,2,0) y (2, 0,-1,-6)? Si sí, encuentra una o más combinaciones lineales que den el vector (1,3,0,5)
  • ¿Se puede expresar al polinomio 1+x^2 +3x^3 -x^4 +x^5 como combinación lineal de los siguientes polinomios

        \begin{align*}x^2-3x^4,\\1+x^2-x^5,\\2x+x^4,\\2+x^2,\\5x+5x^2-x^5?\end{align*}

  • Sea P un plano en \mathbb{R}^3 por el origen y L una recta de \mathbb{R}^3 por el origen y con dirección dada por un vector v\neq 0. Demuestra que la intersección de L con P es una recta si y sólo si existen dos vectores en P tal que su suma sea v.
  • Encuentra el conjunto generado por los vectores del espacio vectorial indicado
    • Las matrices \begin{pmatrix} 1 & 0 \\ 0 & 1\end{pmatrix} y \begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix} del espacio M_{2}.
    • Los vectores (1,-1,0) y (1,0,-1) del espacio \mathbb{R}^3.
    • Los polinomios 1, x, x^2 y x^3 del espacio \mathbb{R}[x].
  • Sea V un espacio vectorial. Si v_1, \dots, v_n, x son vectores en un espacio vectorial V, ¿será cierto siempre que \text{span}(v_1, \dots, v_n)\subseteq \text{span}(v_1, \dots, v_n, x)? De ser así, ¿esta contención siempre es estricta? Demuestra tu respuesta o da un contraejemplo.
  • Sean v_1,\ldots, v_n y x vectores en un espacio vectorial V. Supongamos que v_n está en \text{span}(v_1,\ldots,v_{n-1},x). Muestra que

        \[\text{span}(v_1,\ldots,v_{n-1},x)=\text{span}(v_1,\ldots,v_{n-1},v_n).\]

Más adelante…

El concepto de combinación lineal es la piedra angular para definir varios otros conceptos importantes en espacios vectoriales. Es un primer paso para definir a los conjuntos de vectores generadores y a los conjuntos de vectores linealmente independientes. Una vez que hayamos desarrollado ambos conceptos, podremos hablar de bases de un espacio vectorial, y con ello hablar de la dimensión de un espacio vectorial.

Entradas relacionadas

Álgebra Lineal I: Problemas de espacios, subespacios y sumas directas

Introducción

En esta entrada resolvemos más problemas para reforzar y aclarar los conceptos vistos anteriormente. Específicamente, resolvemos problemas acerca de espacios vectoriales, subespacios vectoriales y sumas directas.

Problemas resueltos

Problema. Muestra que el conjunto de las funciones continuas f:[0,1]\to \mathbb{R} tales que f\left(\frac{1}{2}\right)=0 con las operaciones usuales es un espacio vectorial.

Solución: Primero observamos que nuestras operaciones están bien definidas: sabemos que la suma de funciones continuas es continua y si f es continua y \lambda\in \mathbb{R} es un escalar, entonces \lambdaf es continua. Más aún, si f\left(\frac{1}{2}\right)=0 y g\left(\frac{1}{2}\right)=0, entonces (f+g) \left( \frac{1}{2}\right) =f\left( \frac{1}{2}\right) + g\left( \frac{1}{2}\right)=0+0=0 y \lambda f\left(\frac{1}{2}\right)=\lambda \cdot 0 =0. En otras palabras, estos argumentos muestran que el conjunto es cerrado bajo las operaciones propuestas.

Ahora veamos que se cumplen los axiomas de espacio vectorial. Recuerda que para mostrar la igualdad de dos funciones, basta con mostrar que son iguales al evaluarlas en cada uno de los elementos de su dominio. En las siguientes demostraciones, x es un real arbitrario en [0,1]

  1. Si f,g,h son parte de nuestro conjunto, entonces

        \begin{align*}\left(f+(g+h)\right)(x)&= f(x)+(g+h)(x)\\ &= f(x)+g(x)+h(x) \\ &= (f+g)(x) +h(x)\\ &= ((f+g)+h)(x).\end{align*}


    Aquí estamos usando la asociatividad de la suma en \mathbb{R}
  2. Si f,g son como en las condiciones, dado que la suma en números reales es conmutativa, (f+g)(x)= f(x)+g(x)= g(x)+f(x)=(g+f)(x).
  3. La función constante 0 es un neutro para la suma. Sí está en el conjunto pues la función 0 en cualquier número (en particular en \frac{1}{2}) tiene evaluación 0.
  4. Dada f continua que se anula en \frac{1}{2}, -f también es continua y se anula en \frac{1}{2} y f+(-f)= (-f)+f=0.
  5. Si a,b\in \mathbb{R} entonces a(bf)(x)= a(bf(x))= (ab)f(x), por la asociatividad del producto en \mathbb{R}.
  6. Es claro que la constante 1 satisface que 1\cdot f=f, pues 1 es una identidad para el producto en \mathbb{R}.
  7. (a+b)f(x)= af(x)+bf(x), por la distributividad de la suma en \mathbb{R}
  8. a\cdot (f+g)(x) = a\cdot (f(x)+g(x))= a\cdot f(x)+a\cdot g(x), también por la distributividad de la suma en \mathbb{R}.

Observa como las propiedades se heredan de las propiedades de los números reales: En cada punto usamos que las operaciones se definen puntualmente, luego aplicamos las propiedades para los números reales, y luego concluimos el resultado (como por ejemplo, en la prueba de la conmutatividad).

\square

Problema. Muestra que ninguno de los siguientes es un subespacio vectorial de \mathbb{R}^3.

  1. El conjunto U de los vectores x=(x_1, x_2, x_3) tales que x_1^2+x_2^2+x_3^2=1.
  2. El conjunto V de todos los vectores en \mathbb{R}^3 con números enteros por coordenadas.
  3. El conjunto W de todos los vectores en \mathbb{R}^3 que tienen al menos una coordenada igual a cero.

Solución:

  1. Notamos que el conjunto U no es cerrado bajo sumas: En efecto, el vector (1,0,0)\in U, pues 1^2+0^2+0^2=1, así como (-1,0,0)\in U, pues (-1)^2+0^2+0^2=1. Sin embargo su suma es (0,0,0), que no es un elemento de U.
  2. Mientras que V si es cerrado bajo sumas, no es cerrado bajo producto por escalares. Por ejemplo, (2,8,1)\in V, sin embargo \frac{1}{2} (2,8,1)= \left(1,4,\frac{1}{2}\right)\notin V, pues la última coordenada no es un número entero.
  3. El conjunto si es cerrado bajo producto por escalares, pero no bajo sumas: Tomando (1,1,0) y (0,0,1) en W, tenemos que (1,1,0)+(0,0,1)=(1,1,1)\notin W.

\square

Problema. Sea V el conjunto de todas las funciones f:\mathbb{R}\to \mathbb{R} dos veces diferenciables (es decir, que tienen segunda derivada) que cumplen para todo x\in \mathbb{R}:

    \begin{align*}f''(x)+x^2 f'(x)-3f(x)=0.\end{align*}

¿Es V un subespacio de las funciones de \mathbb{R} en \mathbb{R} ?

Solución: En efecto, podemos verificar que V cumple las condiciones de subespacio:

  1. Observamos que la función f\equiv 0 es dos veces diferenciable y satisface

        \begin{align*}f''(x)+x^2 f'(x)-3f(x)=0+x^2 \cdot 0 -3\cdot 0=0.\end{align*}


    Es decir 0\in V. Esto muestra que V es no vacío.
  2. Sean f,g\in V. Sabemos que entonces f+g también es dos veces diferenciable (por ejemplo, de un curso de cálculo). Además

        \begin{align*}&(f+g)''(x)+x^2 (f+g)'(x)-3(f+g)(x)\\ & = f''(x)+g''(x)+x^2 f'(x)+x^2 g'(x)-3f(x)-3g(x)\\& = f''(x)+x^2f(x)-3f(x)+ g''(x)+x^2g(x)-3g(x)\\& =0+0=0.\end{align*}


    Así f+g\in V.
  3. Finalmente sea f\in V y sea \lambda \in \mathbb{R} un escalar. Sabemos que \lambda f es dos veces diferenciable, y además

        \begin{align*}&\left(\lambda f\right)''(x)+x^2\left(\lambda f\right)(x)-3(\lambda f)(x)\\ &= \lambda f''(x)+\lambda x^2 f'(x)-\lambda 3f(x)\\ &= \lambda (f''(x)+x^2f'(x)-3f(x))\\ &= \lambda \cdot 0 =0.\end{align*}


    Luego \lambda f\in V.

\square

El ejemplo anterior es crucial para la intuición de tu formación matemática posterior. En él aparece una ecuación diferencial lineal homogénea. La moraleja es que “las soluciones a una ecuación diferencial lineal homogénea son un subespacio vectorial”. En este curso no nos enfocaremos en cómo resolver estas ecuaciones, pues esto corresponde a un curso del tema. Sin embargo, lo que aprendas de álgebra lineal te ayudará mucho para cuando llegues a ese punto.

Problema. Sea V el espacio de todas las funciones de \mathbb{R} en \mathbb{R} y sea W el subconjunto de V formado por todas las funciones f tales que f(0)+f(1)=0.

  1. Verifica que W es un subespacio de V.
  2. Encuentra un subespacio S de W tal que V=W\oplus S.

Solución:

  1. Verificamos los axiomas de subespacio vectorial:
    1. Tenemos que 0\in W, pues 0(0)+0(1)=0+0=0. Entonces W no es vacío.
    2. Si f,g\in W entonces (f+g)(0)+(f+g)(1)= f(1)+f(0)+g(1)+g(0)=0+0=0.
    3. Si f\in W y \lambda \in \mathbb{R} entonces \lambda f(0)+\lambda f(1)= \lambda(f(0)+f(1))=\lambda \cdot 0=0.
  2. Proponemos S como el subespacio de todas las funciones h tales que h(x)=ax con a\in \mathbb{R}. Verifiquemos que V=W\oplus S.
    1. Si F\in W\cap S entonces F(0)+F(1)=0, es decir F(0)=-F(1), pero como F(x)=ax para algún a\in \mathbb{R} entonces F(0)=0=F(1)=a. Luego F(x)=0\cdot x=0.
    2. Dada f\in V, definimos

          \begin{align*}\hat{f}(x)= f(x)-(f(0)+f(1))x. \end{align*}


      Observamos que \hat{f}\in W, pues

          \begin{align*}\hat{f}(0)+\hat{f}(1)= f(0)+f(1)-f(0)-f(1)=0.\end{align*}


      Además es claro que

          \begin{align*}f(x)&= f(x)-(f(0)+f(1))x+(f(0)+f(1))x\\&= \hat{f}(x)+\left(f(0)+f(1)\right)x\end{align*}


      donde el sumando de la derecha es de la forma a\cdot x. Así S+W=V.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

Sea A un conjunto no vacío. Sea \mathcal{P}(A) el conjunto de todos los subconjuntos de A. Definimos las siguientes operaciones:

    \begin{align*}X+Y= X\Delta Y,\hspace{5mm} 1\cdot X=X,\hspace{5mm} 0\cdot X= \emptyset,\end{align*}


dónde \Delta denota la operación de diferencia simétrica. Demuestra que así definido, \mathcal{P}(A) es un espacio vectorial sobre el campo de dos elementos \mathbb{F}_2.

Entradas relacionadas

Álgebra Lineal I: Reducción gaussiana en sistemas lineales AX=b

Introducción

Ya usamos el algoritmo de reducción gaussiana para estudiar sistemas de ecuaciones homogéneos. En esta entrada aplicamos lo que hemos aprendido de este método para resolver sistemas de ecuaciones no homogéneos.

Para hacer esto, adaptaremos la técnica para sistemas homogéneos (que en realidad, no es muy diferente) y la usamos para probar un resultado muy importante, llamado el teorema de existencia y unicidad. Damos unos cuantos ejemplos y concluimos con la prometida demostración de la unicidad de la forma escalonada reducida.

Adaptando el vocabulario

Consideramos un sistema lineal AX=b con A\in M_{m,n}(F) y b\in F^{m}, con variables x_1, \dots, x_n que son las coordenadas de X\in F^{n}. Para resolver el sistema consideramos la matriz aumentada \left(A\vert b\right) obtenida de A al añadir al vector b como columna hasta la derecha.

Ejemplo. Si

    \begin{align*}A= \begin{pmatrix} 0 & 1 & 2\\-1 & 0 &1 \end{pmatrix} \text{ y } b= \begin{pmatrix} 12 \\ 14 \end{pmatrix}\end{align*}

entonces

    \begin{align*}\left(A\vert b\right)= \begin{pmatrix} 0 & 1 & 2 & 12\\ -1 & 0 & 1 & 14\end{pmatrix}\end{align*}

\square

Las operaciones elementales del sistema se traducen entonces en operaciones elementales en la matriz aumentada, por lo que para resolver el sistema podemos primero llevar a la matriz aumentada a su forma escalonada y reducida y después resolver el sistema más sencillo. Esto lo podríamos hacer siempre y cuando al realizar operaciones elementales en la matriz aumentada no se modifique el conjunto de soluciones del sistema. Esto lo garantiza la siguiente proposición.

Proposición. Sea el sistema lineal AX=b. Supongamos que la matriz \left(A'\vert b'\right) se obtiene a partir de la matriz \left( A\vert b\right) realizando una sucesión finita de operaciones elementales. Entonces los sistemas AX=b y A'X=b' son equivalentes, es decir, tienen el mismo conjunto de soluciones.

Demostración: Como ya hemos visto anteriormente, realizar operaciones elementales en \left(A \vert b\right) es equivalente a realizar operaciones elementales en las ecuaciones del sistema AX=b, pero ya sabemos que estas no alteran el conjunto de soluciones, pues son reversibles (es decir, podemos siempre deshacer los cambios).

\square

El teorema de existencia y unicidad

Llegamos ahora a otro resultado clave de nuestro estudio de ecuaciones. Es una caracterización que responde a nuestras preguntas: ¿Hay soluciones? ¿Son únicas? Además, nos puede sugerir cómo encontrarlas.

Teorema. (De existencia y unicidad) Supongamos que la matriz \left(A\vert b\right) ha sido llevada a su forma escalonada reducida \left(A'\vert b'\right) por operaciones elementales.

  1. (Existencia de soluciones) El sistema AX=b es consistente si y sólo si \left(A'\vert b'\right) no tiene ningún pivote (de filas) en su última columna.
  2. (Unicidad de soluciones) Si el sistema es consistente, entonces tiene una única solución si y sólo si A' tiene pivotes (de filas) en cada columna.

Demostración:

  1. Supongamos que \left(A'\vert b'\right) tiene un pivote en su última columna. Debemos ver que el sistema AX=b no tiene solución. Para esto, basta ver que el sistema A'X=b' no tiene solución, pues es un sistema equivalente.

    Si el pivote aparece en el i-ésimo renglón entonces este es de la forma (0, \dots, 0, 1), pues recordemos que los pivotes son iguales a 1 en la forma escalonada reducida. Entonces entre las ecuaciones del sistema A'X=b' tenemos una de la forma 0 x_1' +\dots +0 x_n'=1, que no tiene solución alguna. Así el sistema A'X=b' no es consistente, y por tanto AX=b tampoco lo es.

    Conversamente, supongamos que \left(A' \vert b'\right) no tiene un pivote en su última columna. Digamos que A' tiene pivotes en las columnas j_1<\dots <j_k \leq n y sean x_{j_1}, \dots, x_{j_k} las correspondientes variables pivote y todas las demás variables son libres. Dando el valor cero a todas las variables libres obtenemos un sistema en las variables x_{j_1}, \dots, x_{j_k}. Este sistema es triangular superior y se puede resolver empezando por la última ecuación, encontrando x_{j_k}, luego x_{j_{k-1}} y así sucesivamente. Así encontramos una solución, por lo que el sistema es consistente. Esta solución encontrada también es una solución a AX=b, pues es un sistema equivalente.
  2. Como le podemos dar cualquier valor escalar a las variables libres, el argumento del párrafo anterior nos dice que la solución es única si y sólo si no tenemos variables libres, pero esto pasa si y sólo si los pivotes llegan hasta la última columna de A'.

\square

Ten cuidado. En la primer parte, la condición se verifica con (A'|b). En la segunda parte, la condición se verifica con A'.

Encontrando y contando soluciones

Por simplicidad, asumamos que F=\mathbb{R}, es decir que nuestro campo de coeficientes del sistema AX=b es el de los números reales. Procedemos como sigue para encontrar el número de soluciones del sistema:

  1. Consideramos la matriz aumentada \left(A\vert b\right).
  2. Llevamos esta matriz a su forma escalonada reducida \left(A'\vert b'\right).
  3. Si esta matriz tiene un renglón de la forma (0, \dots, 0, 1), entonces el sistema es inconsistente.
  4. Si no tiene ningún renglón de esa forma, vemos si todas las columnas de A' tienen al pivote de alguna fila:
    • Si en efecto todas tienen pivote, entonces el sistema tiene una única solución.
    • Si no todas tienen pivote, entonces nuestro sistema tiene una infinidad de soluciones.

En el caso en el que hay una o una infinidad de soluciones, además podemos decir exactamente cómo se ven esas soluciones:

  • Haciendo las variables libres iguales a cero (si es que hay), obtenemos una solución X' al sistema AX=b.
  • Usamos reducción gaussiana para encontrar todas las soluciones al sistema homogéneo AX=0.
  • Finalmente, usamos el principio de superposición. Todas las soluciones a AX=b son de la forma X' más una solución a AX=0.

Problema. Consideremos la matriz

    \begin{align*}A= \begin{pmatrix} 1 & 2 & 2\\ 0 & 1 & 1\\ 2 & 4 &4 \end{pmatrix}.\end{align*}

Dado b\in \mathbb{R}^3, encuentra condiciones necesarias y suficientes en términos de las coordenadas de b para que el sistema AX=b sea consistente.

Solución: Dado b con coordenadas b_1, b_2 y b_3, la matriz aumentada es

    \begin{align*}\left( A\vert b\right) = \begin{pmatrix} 1 & 2 & 2 & b_1 \\ 0 & 1 & 1 & b_2 \\  2 & 4 & 4 & b_3\end{pmatrix}.\end{align*}

Para obtener su forma escalonada reducida sustraemos dos veces el primer renglón del tercero y luego dos veces el segundo del primero, obteniendo así:

    \begin{align*}\left( A\vert b\right) \sim \begin{pmatrix} 1 & 0 & 0 &b_1-2b_2\\ 0 & 1 &  1 & b_2\\ 0 & 0 & 0 &b_3-2b_1\end{pmatrix}.\end{align*}

Por el teorema anterior, el sistema AX=b es consistente si y sólo si esta matriz no tiene pivotes en la última columna, es decir, necesitamos que la entrada de hasta abajo a la derecha sea cero. Así, el sistema es consistente si y sólo si b_3-2b_1=0 o, dicho de otra manera, si y sólo si b_3=2b_1.

\square

Unicidad de la forma escalonada reducida

Concluimos esta entrada con una demostración de la unicidad de la forma escalonada reducida, usando que si dos matrices A y B que difieren por una sucesión finita de operaciones elementales entonces los sistemas AX=0 y BX=0 son equivalentes. La demostración que presentamos (corta y elegante) se debe a Thomas Yuster, publicada en el año 1983.

Teorema. La forma escalonada reducida es única.

Demostración: Procedemos por inducción sobre n, el número de columnas de A\in M_{m,n}(F). El resultado es claro para n=1, pues solo tenemos una columna cero o una columna con un 1 hasta arriba. Supongamos pues que el resultado se cumple para n-1, y demostremos que se cumple para n. Sea A\in M_{m,n}(F) y sea A'\in M_{m,n-1}(F) la matriz que se obtiene al quitarle la n-ésima columna.

Supongamos que B y C son ambas matrices distintas en forma escalonada reducida obtenidas de A. Dado que una sucesión de operaciones elementales que llevan a A a una forma escalonada reducida también llevan a A' a una forma escalonada reducida (si a una matriz escalonada reducida le cortamos una columna, sigue siendo escalonada reducida), podemos aplicar la hipótesis de inducción y concluir que si B y C son distintas entonces difieren en la columna que quitamos y solo en esa.

Sea j tal que b_{jn}\neq c_{jn} (por nuestra discusión previa, existe esta entrada, ya que asumimos que B\neq C). Si X es un vector tal que BX=0 entonces CX=0, ya que A,B y C son matrices equivalentes. Luego (B-C)X=0. Como B y C difieren solo en la última columna, la j-ésima ecuación del sistema se lee (b_{jn}-c_{jn})x_n=0, pues los coeficientes previos son cero. Así, x_n=0 siempre que BX=0 o CX=0. Se sigue que x_n no es una variable libre para B y C, por lo que ambas tienen un pivote en la última columna. Como ambas están en forma escalonada reducida, entonces la última columna tiene necesariamente un 1 en la entrada de hasta abajo y puros ceros en otras entradas, es decir, B y C tienen la misma última columna, una contradicción a nuestras suposiciones.

Se sigue que entonces B=C y queda probado por contradicción el paso inductivo, lo que prueba el teorema.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Determina cuántas soluciones tiene el sistema AX=b con

        \begin{align*} A=\begin{pmatrix} 0 & 1 &1\\ 2& -4 & 7\\ 0 & 0 & 1 \end{pmatrix}\text{ y } b=\begin{pmatrix} 1 \\ 6 \\-1\end{pmatrix}\end{align*}

  • Si A tiene estrictamente más renglones que columnas y b es un vector que no tiene ninguna entrada cero, ¿puede el sistema AX=b ser consistente?
  • Si A tiene estrictamente más columnas que renglones, ¿puede el sistema AX=0 tener una única solución?
  • Si A\in M_{m,n}(F) es una matriz diagonal, ¿que puedes decir de la consistencia y la unicidad de soluciones del sistema AX=b?

Más adelante…

El método que describimos en esta entrada es muy flexible y poderoso. Permite resolver sistemas de ecuaciones de la forma AX=b de manera metódica. Esto no quiere decir que ya entendamos todo lo que hay que saber de sistemas lineales. Una vez que hayamos introducido los conceptos de espacio vectorial y subespacio, podremos describir con más precisión cómo son las soluciones a un sistema lineal. Además, más adelante, veremos otras formas en las que se pueden resolver sistemas de ecuaciones usando determinantes. En particular, veremos la regla de Cramer.

Por ahora, nos enfocaremos en una aplicación más de la reducción gaussiana: encontrar inversas de matrices. Veremos esto en la siguiente entrada.

Entradas relacionadas

Álgebra Lineal I: Teorema de reducción gaussiana

Introducción

Llegamos a uno de los resultados más importantes del álgebra lineal: el teorema de reducción gaussiana. Como mencionamos en una entrada previa, el teorema nos proporcionará un algoritmo que nos permitirá resolver muchos problemas prácticos: resolver sistemas lineales, invertir matrices, así como temas que veremos más adelante, como determinar la independencia lineal de vectores.

El teorema nos dice que cualquier matriz puede llevarse a una en forma escalonada reducida con solo una cantidad finita de operaciones elementales. La prueba además nos dice cómo hacerlo de una manera más o menos sencilla. Aparte de la demostración, damos una receta un poco más coloquial de cómo trabajar con el algoritmo y finalmente damos un ejemplo, muy importante para aclarar el procedimiento.

Sugerencia antes de empezar

El algoritmo que veremos es uno de esos resultados que es fácil de seguir para una matriz en concreto, pero que requiere de un buen grado de abstracción para entender cómo se demuestra en general. Una fuerte recomendación es que mientras estes leyendo la demostración del siguiente teorema, tengas en mente alguna matriz muy específica, y que vayas realizando los pasos sobre ella. Puedes usar, por ejemplo, a la matriz

    \[A=\begin{pmatrix} 0 & 0 & 4 & -2 \\ 0 & 3 & -1 & 0 \\ 0& -3 & 5 & -2 \end{pmatrix}.\]

El teorema de reducción gaussiana

Teorema. Cualquier matriz A\in M_{m,n}(F) puede llevarse a una en forma escalonada reducida realizando una cantidad finita de operaciones elementales en sus filas.

Demostración: Daremos una demostración algorítmica. Sea A\in M_{m,n}(F) cualquier matriz. Para auxiliarnos en el algoritmo, vamos a tener registro todo el tiempo de las siguientes dos variables:

  • X es la columna que “nos toca revisar”
  • Y es la cantidad de “filas no triviales” que hemos encontrado

La variable X empieza siendo 1 y la variable Y empieza siendo 0.

Haremos los siguientes pasos:

Paso 1. Revisaremos la columna X a partir de la fila Y+1 (osea, al inicio Y=0, así que revisamos toda la columna). Si todas estas entradas son iguales a 0, entonces le sumamos 1 a X (avanzamos hacia la derecha) y si X<n, volvemos a hacer este Paso 1. Si X=n, vamos al paso 7.

Paso 2. En otro caso, existe alguna entrada distinta de cero en la columna X, a partir de la fila Y+1. Tomemos la primera de estas entradas. Supongamos que sucede en la fila i, es decir, que es la entrada a_{iX}. Al número en esta entrada a_{iX} le llamamos x.

Paso 3. Hacemos un intercambio entre la fila i y la fila Y+1. Puede pasar que i=Y+1, en cuyo caso no estamos haciendo nada. Independientemente del caso, ahora el número en la entrada (X,Y+1) es x\neq 0.

Paso 4. Tomamos la fila Y+1 y la multiplicamos por el escalar 1/x. Esto hace que ahora sea la primer entrada en su fila distinta de cero, y además que sea igual a 1.

Paso 5. De ser necesario, hacemos transvecciones para hacer el resto de las entradas de la columna X iguales a 0. Esto lo podemos hacer pues, si por ejemplo la entrada a_{iX}\neq 0, entonces la transvección que a la i-ésima fila le resta a_{iX} veces la (Y+1)-ésima fila hace que la entrada (i,X) se anule.

Paso 6. Le sumamos 1 a Y (para registrar que encontramos una nueva fila no trivial) y le sumamos 1 a X (para avanzar a la columna de la derecha). Si X<n, vamos al Paso 1. Si X=n, vamos al Paso 7.

Paso 7. Reportamos la matriz obtenida como A_{red}, la forma escalonada reducida de A.

Mostremos que en efecto obtenemos una matriz escalonada reducida. El Paso 3 garantiza que las únicas filas cero están hasta abajo. El Paso 4 garantiza que todos los pivotes son iguales a 1. El ir recorriendo las columnas de izquierda a derecha garantiza que los pivotes quedan “escalonados”, es decir de abajo hacia arriba quedan de izquierda a derecha. El Paso 5 garantiza que cada pivote es la única entrada no cero de su columna.

\square

El procedimiento descrito en el teorema se llama reducción gaussiana.

Como vimos en la entrada anterior realizar una operación elemental es sinónimo de multiplicar por una matriz elemental. Como el teorema nos dice que podemos obtener una matriz en forma escalonada reducida realizando una cantidad finita de operaciones elementales, se sigue que podemos obtener una matriz en forma escalonada reducida multiplicando por la izquierda por un número finito de matrices elementales. Al asociar todas estas matrices elementales en un único producto, obtenemos la demostración del siguiente corolario.

Corolario. Para cualquier matriz A\in M_{m,n}(F) podemos encontrar una matriz B\in M_{m}(F) que es un producto finito de matrices elementales y que satisface qu A_{red}=BA.

Un tutorial de reducción gaussiana más relajado

Si bien el teorema nos da la manera formal de hacer el algoritmo, el proceso es en realidad bastante intuitivo una vez que se entiende. Para esto explicamos en unos cuantos pasos en términos más sencillos como hacer la reducción:

  1. Buscamos la primer columna de la matriz que no tenga puros ceros.
  2. Una vez encontrada, buscamos la primer entrada (de arriba hacia abajo) que no sea cero.
  3. Pasamos el renglón con esa entrada hasta arriba haciendo un cambio de renglones.
  4. Multiplicamos por el inverso de esa entrada a todo el renglón, para quedarnos así con un 1 hasta arriba.
  5. Sustraemos múltiplos del primer renglón a todos los otros renglones para que todo lo que esté abajo del 1 sea cero.
  6. Buscamos la siguiente columna tal que no sea cero abajo del primer renglón.
  7. Repetimos los pasos anteriores, solo que en lugar de pasar nuestro renglón “hasta arriba” solo lo colocamos en el segundo lugar, y así sucesivamente.

Un ejemplo de reducción gaussiana

La mejor manera de entender el algoritmo de reducción gaussiana es con un ejemplo. Usemos el algoritmo para reducir la matriz

    \begin{align*}A=\begin{pmatrix}  0 & 1 & 2 & 3 &4\\ -1 & 0 &1 & 2 &3 \\ 0 & 1 & 1 & 1 &1\\ 3 & 1  &-1 & 0 & 2\end{pmatrix}\in M_{4,5}(\mathbb{R}).\end{align*}

Aplicando los pasos en orden: Primero identificamos la primer columna que no sea idénticamente cero, y vemos que la primera columna no tiene puros ceros. La primer entrada que no es cero está en el segundo renglón. Así cambiamos el primer y segundo renglón de lugar para subir esa entrada y obtener

    \begin{align*}A_1=\begin{pmatrix} -1 & 0 &1 & 2 &3 \\ 0 & 1 & 2 & 3 &4\\ 0 & 1 & 1 & 1 &1\\ 3 & 1 &-1 & 0 & 2\end{pmatrix}.\end{align*}

Ahora que la primer entrada del primer renglón es distinta de cero, multiplicamos el primer renglón por \frac{1}{-1}=-1 y obtenemos

    \begin{align*}A_2=\begin{pmatrix} 1 & 0 &-1 & -2 &-3 \\ 0 & 1 & 2 & 3 &4\\ 0 & 1 & 1 & 1 &1\\ 3 & 1 &-1 & 0 & 2\end{pmatrix}.\end{align*}

Ahora queremos quitar el 3 del último renglón. Para esto, multiplicamos por -3 el primer renglón y lo sumamos al último y nos queda

    \begin{align*}A_3&=\begin{pmatrix} 1 & 0 &-1 & -2 &-3 \\ 0 & 1 & 2 & 3 &4\\ 0 & 1 & 1 & 1 &1\\ 3-3 & 1-3\cdot 0 &-1-3\cdot (-1) & 0-3\cdot (-2) & 2-3\cdot (-3)\end{pmatrix}\\ &=\begin{pmatrix} 1 & 0 &-1 & -2 &-3 \\ 0 & 1 & 2 & 3 &4\\ 0 & 1 & 1 & 1 &1\\ 0 & 1&2 & 6 & 11\end{pmatrix}.\end{align*}

Ya tenemos entonces nuestra primera columna en forma escalonada reducida, pasemos a la segunda. Ya tenemos un 1 en la segunda entrada de la segunda columna, por lo que no hace falta hacer un cambio de renglón o multiplicar por un inverso. Basta entonces con cancelar las otras entradas de la columna, para eso sustraemos el segundo renglón del tercero y cuarto, para obtener

    \begin{align*}A_4&= \begin{pmatrix} 1 & 0 & -1 & -2 & -3 \\ 0 & 1 & 2 & 3 &4 \\ 0-0 & 1-1 & 1-2 & 1-3 & 1-4\\ 0 -0 & 1-1& 2-2 & 6-3 & 11-4\end{pmatrix}\\&= \begin{pmatrix}1 & 0 &-1 & -2 &-3\\ 0 & 1 & 2 & 3 &4  \\ 0 & 0 & -1 & -2 & -3\\ 0 & 0 & 0 &3 & 7\end{pmatrix}.\end{align*}

Seguimos entonces con la tercera columna, y observamos que la entrada (3,3) es -1, entonces la transformamos en un 1 multiplicando el tercer renglón por \frac{1}{-1}=-1.

    \begin{align*}A_5=\begin{pmatrix}1 & 0 &-1 & -2 &-3\\ 0 & 1 & 2 & 3 &4 \\ 0 & 0 & 1 & 2 & 3\\ 0 & 0 & 0 &3 & 7\end{pmatrix}.\end{align*}

Ahora tenemos que cancelar las entradas de la tercer columna, para eso sumamos -2 veces el tercer renglón al segundo y una vez el tercer renglón al primero:

    \begin{align*}A_6&=\begin{pmatrix}1+0 & 0+0 &-1+1 & -2+2 &-3+3\\ 0-2\cdot 0 & 1-2\cdot 0 & 2-2\cdot 1 & 3-2\cdot2 &4-2\cdot3 \\ 0 & 0 & 1 & 2 & 3\\ 0 & 0 & 0 &3 & 7\end{pmatrix}\\&= \begin{pmatrix}1 & 0 &0 & 0 &0\\ 0 & 1 & 0 & -1 &-2 \\ 0 & 0 & 1 & 2 & 3\\ 0 & 0 & 0 &3 & 7\end{pmatrix}.\end{align*}

Ahora pasamos a la siguiente columna. En la entrada (4,4) tenemos un 3, pero queremos un 1, entonces multiplicamos el último renglón por \frac{1}{3}:

    \begin{align*}A_7= \begin{pmatrix}1 & 0 &0 & 0 &0\\ 0 & 1 & 0 & -1 &-2 \\ 0 & 0 & 1 & 2 & 3\\ 0 & 0 & 0 &1 & \frac{7}{3}\end{pmatrix}.\end{align*}

Finalmente, cancelamos las entradas restantes de los otros renglones sustrayendo dos veces el último renglón del penúltimo y sumándolo una vez al segundo para obtener

    \begin{align*}A_8=\begin{pmatrix}1 & 0 &0 &0 &0 \\ 0 & 1& 0 & 0 & \frac{1}{3}\\  0 & 0 &1 & 0 &-\frac{5}{3}\\ 0 & 0 & 0 & 1 & \frac{7}{3} \end{pmatrix}.\end{align*}

Y así termina nuestro algoritmo, y nuestra matriz está en forma escalonada reducida. Las dos cosas más importantes de A_8 son que

  • Está en forma escalonada reducida y
  • es equivalente a A, es decir, el sistema de ecuaciones AX=0 y el sistema de ecuaciones A_8 X =0 tienen exactamente las mismas soluciones.

De hecho, todas las matrices A,A_1, A_2, \ldots, A_8 son equivalentes entre sí, pues difieren únicamente en operaciones elementales. Esta propiedad es muy importante, y precisamente es la que nos permite aplicar el algoritmo de reducción gaussiana a la resolución de sistemas lineales.

Una aplicación a un sistema de ecuaciones

Usemos el ejemplo anterior para resolver un sistema de ecuaciones:

Problema. Resolver en los reales el sistema lineal homogéneo AX=0 donde A es la matriz ejemplo de la sección anterior.

Solución: Los sistemas AX=0 y A_{red}X=0 son equivalentes, por lo que basta resolver A_{red}X=0 con A_{red} la matriz en forma escalonada reducida que encontramos (es decir, A_8). Este sistema queda planteado por las siguientes ecuaciones lineales:

    \begin{align*}\begin{cases}x_1=0\\x_2+\frac{x_5}{3}=0\\x_{3}-\frac{5}{3}x_5=0\\x_4+\frac{7}{3}x_5=0.\end{cases}.\end{align*}

Ya hemos resuelto sistemas de este estilo. Aquí x_5 es la variable libre y x_1,x_2,x_3,x_4 son variables pivote. Fijando x_5 igual a cualquier número real t, obtenemos que las soluciones son de la forma

    \begin{align*}\left(0, -\frac{1}{3}t, \frac{5}{3} t, - \frac{7}{3}t, t\right), \hspace{2mm} t\in \mathbb{R}.\end{align*}

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Aplica el algoritmo de reducción gaussiana a la matriz

        \[\begin{pmatrix} 1 & 1 & 2 & 2 & 3 & 3 \\ 0 & 0 & 4 & 4 & 5 & 5 \\ 0 & 0 & 0 & 0 & 6 & 6 \end{pmatrix}.\]

    Para su sistema lineal asociado, encuentra todas las variables pivote y libres y resuélvelo por completo.
  • Aplica el algoritmo de reducción gaussiana a la matriz

        \[\begin{pmatrix} 0 & 8 \\ 0 & 2 \\ -1 & 5 \\ 2 & 3 \\ 5 & 0 \\ 3 & 1\end{pmatrix}.\]

  • Considera las matrices A_1, A_4 y A_8 de la sección con el ejemplo del algoritmo de reducción gaussiana. Toma una solución no trivial de A_8X=0 y verifica manualmente que también es solución de los sistemas lineales A_1X=0 y de A_4X=0.
  • Encuentra la matriz B, producto de matrices elementales tal que BA=A_{red} con A la matriz que usamos en el ejemplo. Para ello, tendrás que multiplicar todas las matrices correspondientes a las operaciones elementales que usamos.
  • Explica qué es lo que garantiza que el algoritmo de reducción gaussiana en efecto hace una cantidad finita de operaciones elementales.
  • Aplica el algoritmo de reducción gaussiana a la matriz

        \[A=\begin{pmatrix} 0 & 2 & 1 & 0 \\ 1 & 1 & 0 & 1\end{pmatrix}.\]

    Si haces los pasos correctamente, llegarás a una matriz del estilo

        \[A_{red}=\begin{pmatrix} 1 & 0 & a & b \\ 0 & 1 & c & d \end{pmatrix}.\]

    Toma el bloque B de 2\times 2 de la izquierda de A, es decir B=\begin{pmatrix} 0 & 2 \\ 1 & 1\end{pmatrix}. Toma el bloque C de 2\times 2 de la derecha de A_{red}, es decir, C=\begin{pmatrix} a & b \\ c & d \end{pmatrix}. ¿Qué matriz obtienes al hacer el producto BC? ¿Y el producto CB? ¿Por qué crees que pasa esto?

Más adelante…

El algoritmo de reducción gaussiana es crucial para muchos de los problemas que nos encontramos en álgebra lineal. Por ahora, las aplicaciones principales que veremos es cómo nos permite resolver sistemas de ecuaciones lineales de la forma AX=b y cómo nos permite encontrar inversas de matrices. Sin embargo, más adelante usaremos reducción gaussiana para determinar la dimensión de espacios vectoriales, conjuntos generados, para determinar si ciertos vectores son linealmente independientes, para determinar el rango de una matriz y varias otras cosas más.

Entradas relacionadas

Álgebra Lineal I: Forma escalonada reducida

Introducción

En esta entrada tratamos la forma escalonada reducida de una matriz, que es básicamente una forma “bonita” de expresar una matriz que nos permite resolver sistemas de ecuaciones lineales. Luego nos adentramos en la parte de operaciones elementales, que es el primer paso para desarrollar un algoritmo (que luego veremos es la reducción gaussiana) que nos permite llevar a cualquier matriz a su forma escalonada reducida.

En otras palabras, en esta entrada vemos cómo resolver un caso fácil de un sistema de ecuaciones. Más adelante veremos que en realidad cualquier caso puede llevarse al caso fácil con un algoritmo relativamente fácil.

¿Qué es la forma escalonada reducida?

Sea una matriz A con entradas en un campo F. Si R es un renglón de A, diremos que R es una fila cero si todas sus entradas son cero. Si R no es una fila cero, el término principal de R o bien el pivote de R es la primera entrada distinta de cero de la fila. Diremos que A está en forma escalonada reducida si A tiene las siguientes propiedades:

  1. Todas las filas cero de A están hasta abajo de A (es decir, no puede seguirse una fila distina de cero después de una cero).
  2. El término principal de una fila no-cero está estrictamente a la derecha del término principal de la fila de encima.
  3. En cualquier fila distinta de cero, el término principal es 1 y es el único elemento distinto de cero en su columna.

Ejemplo. La matriz I_n está en forma escalonada reducida, así como la matriz cero O_n. La matriz

    \begin{align*}A= \begin{pmatrix} 1 &-1 & 0 &2\\  0 & 0 & 1 & -1\\ 0 & 0 & 0 & 0 \end{pmatrix} \end{align*}

está en forma escalonada reducida. El término principal de la primer fila es 1 y está en la primer columna. El término principal de la segunda fila también es 1, y se encuentra más a la derecha que el término principal de la fila anterior. Además, es la única entrada distinta de cero en su columna.

Sin embargo, la matriz ligeramente distinta

    \begin{align*}B= \begin{pmatrix} 1 &-1 & 5 &2\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 0 \end{pmatrix} \end{align*}

no está en forma escalonada reducida ya que el término principal del segundo renglón no es la única entrada distinta de cero en su columna.

\square

¿Cómo la forma escalonada reducida nos permite resolver sistemas de ecuaciones?

¿Cual es la importancia de la forma escalonada con respecto al problema de resolver sistemas de ecuaciones? Veremos que cualquier matriz se puede poner (de manera algorítmica) en forma escalonada reducida y que esta forma es única. También veremos que si A_{red} es la forma escalonada reducida de una matriz, entonces los sistemas AX=0 y A_{red}X=0 son equivalentes. Además, veremos que resolver el sistema A_{red} X=0 es muy fácil de resolver precisamente por estar en forma escalonada reducida.

Ejemplo. Resolvamos el sistema AX=0 donde A es la matriz que dimos anteriormente, que está en forma escalonada reducida. El sistema asociado es

    \begin{align*}\begin{cases}x_1 -x_2+2x_4&=0\\x_3-x_4&=0\end{cases}.\end{align*}

De la segunda igualdad podemos expresar x_3=x_4 y de la primera x_1=x_2-2x_4. Así, podemos escoger x_2 y x_4 “libremente” y obtener x_3 y x_1 con estas ecuaciones (tenemos, de cierta manera, dos “parámetros libres”), por lo que nuestras soluciones se ven de la forma

    \begin{align*}(a-2b, a, b,b )\end{align*}

con a,b\in F.

\square

En general si A es una matriz en forma escalonada reducida, veamos cómo resolver el sistema AX=0. Las únicas ecuaciones importantes son las que resultan de renglones distintos de cero (pues las otras solo son 0=0) y al estar en forma escalonada reducida, todos los renglones cero están hasta el final. Supongamos que el i-ésimo renglón de A es distinto de cero y su término principal está en la j-ésima columna, así el término principal es a_{ij}=1. La i-ésima ecuación del sistema lineal entonces es de la forma

    \begin{align*}x_j +\sum_{k=j+1}^{n} a_{ik} x_k =0.\end{align*}

Llamamos a x_j la variable pivote del renglón L_i. Así, a cada renglón distinto de cero le podemos asociar una única variable pivote. Todas las demás variables del sistema son llamadas variables libres. Uno resuelve el sistema empezando desde abajo, expresando sucesivamente las variables pivote en términos de las variables libres. Esto nos da la solución general del sistema, en términos de las variables libres, que pueden tomar cualquier valor en F.

Si y_1, \dots, y_s son las variables libres, entonces las soluciones del sistema son de la forma

    \begin{align*}X= \begin{pmatrix}b_{11} y_1 + b_{12} y_2 + \dots+ b_{1s} y_s\\b_{21} y_1+ b_{22} y_2 +\dots+b_{2s} y_s\\\vdots\\b_{n1} y_1 +b_{n2} y_2+ \dots + b_{ns} y_s\end{pmatrix}\end{align*}

para algunos escalares b_{ij}. Esto también se puede escribir como

    \begin{align*}X= y_1 \begin{pmatrix} b_{11} \\ b_{21} \\ \vdots \\ b_{n1}\end{pmatrix}+\dots + y_s \begin{pmatrix} b_{1s} \\ b_{2s}\\ \vdots \\ b_{ns} \end{pmatrix} .\end{align*}

Llamamos a

    \begin{align*} Y_1= \begin{pmatrix} b_{11}\\ b_{21}\\ \vdots \\ b_{n1}\end{pmatrix}, \dots, Y_s= \begin{pmatrix} b_{1s} \\ b_{2s} \\ \vdots \\ b_{ns}\end{pmatrix}\end{align*}

las soluciones fundamentales del sistema AX=0. La motivación para su nombre es fácil de entender: Y_1, \dots, Y_s son soluciones del sistema AX=0 que ‘generan’ todas las otras soluciones, en el sentido que todas las soluciones del sistema AX=0 se obtienen a través de todas las combinaciones lineales de Y_1, \dots, Y_s (correspondiendo a todos los valores posibles de y_1, \dots, y_s).

Un ejemplo para aterrizar los conceptos

Sea A la matriz en forma escalonada reducida dada como sigue

    \begin{align*}A= \begin{pmatrix}1 & 1 & 0 & 0  &-1 & 0 & 2\\ 0 & 0 & 1 & 0 & 3 & 0 & 1\\ 0 & 0 & 0 & 1& 0 & 0 &-1\\ 0 & 0 &0 & 0 & 0 & 1 & 0 \\ 0 & 0 &0 & 0 & 0 & 0 & 0 \end{pmatrix}\end{align*}

y consideremos el sistema homogéneo asociado AX=0. Este se puede escribir como

    \begin{align*}\begin{cases} x_1+x_2-x_5+2x_7&=0\\x_3+3x_5+x_7&=0\\x_4-x_7&=0\\x_6&=0\end{cases}.\end{align*}

Las variables pivote son x_1, x_3, x_4 y x_6, ya que los términos principales aparecen en las columnas 1,3,4 y 6. Eso nos deja a x_2, x_5 y x_7 como variables libres.

Para resolver el sistema, empezamos con la última ecuación y vamos “subiendo”, expresando en cada paso las variables pivote en términos de las variables libres. La última ecuación nos da x_6=0. Después, obtenemos x_4=x_7, posteriormente x_3=-3x_5-x_7 y x_1= -x_2+x_5-2x_7. Nunca nos va a pasar que tengamos que expresar a una variable pivote en términos de otra variable pivote, por la condición de que cada pivote es la única entrada no cero en su columna.

Para expresar las soluciones en términos vectoriales, hacemos lo siguiente.

    \begin{align*}X&=\begin{pmatrix}-x_2+x_5 -2x_7\\x_2\\-3x_5-x_7\\x_7\\x_5\\0 \\x_7\end{pmatrix}\\ &= x_2\cdot \begin{pmatrix}-1 \\ 1 \\ 0 \\ 0\\ 0 \\ 0 \\ 0 \end{pmatrix} +x_5\cdot \begin{pmatrix} 1 \\ 0 \\ -3 \\ 0 \\ 1 \\ 0 \\ 0 \end{pmatrix}+x_7 \cdot \begin{pmatrix} -2\\ 0 \\ -1\\ 1 \\ 0 \\ 0 \\1 \end{pmatrix}.\end{align*}

Los tres vectores columna que aparecen del lado derecho de la igualdad son entonces las soluciones fundamentales del sistema AX=0. Todas las soluciones están entonces dadas por la expresión de la derecha, donde x_2, x_5 y x_7 pueden tomar cualquier valor en F.

Una moraleja sobre el número de soluciones

El número de soluciones fundamentales del sistema AX=0 es igual al número total de variables menos el número de variables pivote. Deducimos que el sistema AX=0 tiene como única solución a X=0 si no hay variables libres. Esto es lo mismo que decir que el número de variables pivote es igual al número de columnas de A.

Combinando las observaciones anteriores con el principio de superposición obtenemos el siguiente y muy importante resultado.

Teorema.

  1. Un sistema lineal homogéneo que tiene más variables que ecuaciones tiene soluciones no triviales. Si el campo de coeficientes es infinito (como por ejemplo \mathbb{R} o \mathbb{C}), entonces el sistema tiene infinitas soluciones.
  2. Un sistema lineal consistente AX=b que tiene más variables que ecuaciones tiene al menos dos soluciones, y si el campo es infinito, tiene infinitas soluciones.

¿Cómo llevar una matriz a su forma escalonada reducida? Operaciones elementales

Ahora regresamos al problema de transformar una matriz dada en una matriz con forma escalonada reducida. Para resolver este problema introducimos tres tipos de operaciones que pueden aplicarse a las filas de una matriz. Veremos que gracias a estas operaciones, uno puede transformar cualquier matriz en una en forma escalonada reducida.

Estas operaciones surgen de las manipulaciones cuando resolvemos sistemas lineales: las operaciones más naturales que hacemos cuando resolvemos un sistema de ecuaciones lineales son:

  1. multiplicar una ecuación por un escalar distinto de cero;
  2. añadir una ecuación (o mejor aún, un múltiplo de una ecuación) a otra ecuación diferente;
  3. intercambiar dos ecuaciones.

Observamos que estas operaciones son reversibles: si por ejemplo, multiplicamos una ecuación por un escalar a\neq 0, podemos multiplicar la misma ecuación por \frac{1}{a} para recuperar la ecuación original. Queda claro que realizando una cantidad finita de estas operaciones en un sistema obtenemos un sistema con el mismo conjunto de soluciones que el sistema original (en nuestra terminología más barroca, un sistema nuevo equivalente al original). Estas operaciones en el sistema pueden verse como operaciones directamente en la matriz. Más precisamente:

Definición. Una operación elemental en las filas de una matriz A en M_{m,n}(F) es una operación de uno de los siguientes tipos:

  1. cambio de filas: intercambiar dos renglones de la matriz A,
  2. reescalar una fila: multiplicar una fila de la matriz A por un escalar c en F distinto de cero,
  3. transvección: reemplazar una fila L por L+cL' para algún escalar c en F y otra fila L' de A diferente a L.

La discusión previa muestra que si A es una matriz y B se obtiene a partir de A al aplicar una sucesión finita de operaciones elementales entonces A\sim B (recordamos que esa notación solo nos dice que los sistemas AX=0 y BX=0 son equivalentes).

Correspondiendo a estas operaciones definimos las matrices elementales:

Definición. Una matriz A\in M_n(F) es una matriz elemental si se obtiene de I_n al realizar una operación elemental.

Ejemplo. La matriz

    \begin{align*}B= \begin{pmatrix} 0 & 1 & 0\\ 1 & 0 & 0\\ 0 & 0 & 1\end{pmatrix}\end{align*}

es una matriz elemental, pues se obtiene al intercambiar el primer y segundo renglón de I_3.

Observamos que las matrices elementales son cuadradas. Tenemos entonces tres tipos de matrices elementales:

  1. Matrices de transposición: aquellas que resultan de intercambiar dos renglones de I_n.
  2. Matrices de dilatación: aquellas obtenidas de I_n multiplicando uno de sus renglones por un escalar distinto de cero.
  3. Matrices de transvección: son las que obtenemos de I_n al añadir el múltiplo de un renglón a otro renglón.

Una sencilla, pero crucial observación es la siguiente:

Proposición. Sea A\in M_{m,n}(F) una matriz. Realizar una operación elemental en A es equivalente a multiplicar a A por la izquierda por la matriz elemental en M_{m}(F) correspondiente a la operación.

Demostración: Si E es una matriz de m\times m y A\in M_{m,n}(F), entonces la i-ésima fila de EA es e_{i1} L_1+ e_{i2} L_2+\dots + e_{im} L_m donde L_1, \dots, L_m son las filas de A y e_{ij} es la (i,j)-ésima entrada de E. El resultado se sigue de las definiciones y haciendo caso por caso, de acuerdo al tipo de operación elemental que se trate.

Por ejemplo, si la operación es un intercambio de filas, entonces E es una matriz de transposición en donde, digamos, se intercambiaron la fila k y la fila l. Por lo que mencionamos arriba, las filas L_i con i\neq k y i\neq l permanecen intactas, pues e_{ij}=1 si i=j y 0 en otro caso, de modo que la i-ésima fila de EA es simplemente L_i. Para la fila k de EA, tenemos que e_{kl}=1 y si i\neq k, entonces e_{ki}=0. De esta forma, tendríamos que dicha fila es L_l. El análisis de la l-ésima fila de EA es análogo.

Los detalles de la demostración anterior, así como las demostraciones para operaciones de reescalamiento y transvección, quedan como tarea moral.

\square

Ejemplo. Consideremos la matriz A=\begin{pmatrix} 1 & -2 & 3 & 0\\ 0 & 1 & 0 & 1 \\ -1 & 0 & 3 & 0 \end{pmatrix}. Vamos a efectuar la transvección que suma 2 veces la primer fila a la última.

Si la aplicamos a la matriz A nos queda

    \[A'=\begin{pmatrix} 1 & -2 & 3 & 0 \\ 0 & 1 & 0 & 1 \\ 1 & -4 & 9 & 0 \end{pmatrix}.\]

Para obtener la matriz elemental correspondiente a la transvección, tenemos que aplicársela a la identidad I_3. Tras hacer esto nos queda

    \[\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 2 & 0 &1 \end{pmatrix}.\]

Y en efecto, como afirma la proposición, tenemos que esta matriz que obtuvimos sirve para “aplicar” la transvección pues puedes verificar que si la multiplicamos por la izquierda, tenemos que:

    \[\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 2 & 0 &1 \end{pmatrix} \begin{pmatrix} 1 & -2 & 3 & 0\\ 0 & 1 & 0 & 1 \\ -1 & 0 & 3 & 0 \end{pmatrix} = \begin{pmatrix} 1 & -2 & 3 & 0 \\ 0 & 1 & 0 & 1 \\ 1 & -4 & 9 & 0 \end{pmatrix}.\]

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En el ejemplo concreto que hicimos, verifica que en efecto las soluciones fundamentales que obtuvimos son solución al sistema. Verifica también que la suma de las tres también es una solución al sistema. Luego, elige los valores que tú quieras para x_2,x_5,x_7 y verifica que esa también es una solución
  • ¿Será cierto que la transpuesta de una matriz en forma escalonada reducida también está en forma escalonada reducida? ¿Será cierto que la suma de dos matrices en forma escalonada reducida también es de esta forma?
  • Termina los detalles de la demostración de la última proposición.
  • Demuestra que toda matriz elemental es invertible, y que su inversa también es una matriz elemental.
  • ¿Es cierto que la transpuesta de una matriz elemental es una matriz elemental?

Más adelante…

En la entrada de reducción gaussiana terminaremos de probar que toda matriz puede llevarse mediante operaciones elementales a una matriz en forma escalonada reducida. Más aún, obtendremos un algoritmo sencillo que siempre nos permitirá hacerlo. En el transcurso de este algoritmo siempre tendremos matrices equivalentes entre sí, de modo que esta será una herramienta fundamental para resolver sistemas de ecuaciones lineales.

Entradas relacionadas