Archivo de la etiqueta: álgebra lineal

Álgebra Lineal II: Polinomio característico de familias especiales

Por Julio Sampietro

Introducción

En la entrada anterior dimos la definición de polinomio característico. Vimos que siempre es un polinomio mónico y que su grado es exactamente del tamaño de la matriz. También, vimos cómo calcular el polinomio mínimo en algunos casos particulares. En esta entrada veremos varias propiedades que nos van a facilitar el calcular el polinomio característico (y por tanto los eigenvalores) en un amplio rango de matrices diferentes.

Comenzaremos estudiando el polinomio mínimo de las triangulares superiores. Luego, veremos cómo calcular el polinomio de matrices nilpotentes. No solo nos harán la vida más fácil los resultados a continuación, si no que los usaremos en la teoría más adelante.

Matrices triangulares superiores y transpuestas

El caso de las matrices triangulares superiores es muy sencillo, como veremos a través del siguiente problema.

Problema. Sea $A=[a_{ij}]$ una matriz triangular superior. Demuestra que

\begin{align*}
\chi_A(X)=\prod_{i=1}^{n}(X-a_{ii}).
\end{align*}

Solución. La matriz $X I_n-A$ sigue siendo triangular superior, y sus entradas diagonales son precisamente $X-a_{ii}$. Usando que el determinante de una matriz triangular superior es el producto de sus entradas diagonales y usando la definición se sigue que

\begin{align*}
\chi_A(X)=\det(X I_n-A)=\prod_{i=1}^{n} (X-a_{ii}).
\end{align*}

$\square$

Ejemplo. Si queremos calcular el polinomio característico de la matriz

\begin{align*}
A=\begin{pmatrix}
1 & -\pi & \sqrt{2}\\
0 & -2 & 10^{10}\\
0 & 0 &3
\end{pmatrix}.
\end{align*}

entonces podemos aplicar el problema anterior y deducir inmediatamente que

\begin{align*}
\chi_A(X)=(X-1)(X+2)(X-3).
\end{align*}

¡Qué complicado hubiera sido calcular el determinante a pie!

$\triangle$

Por otro lado, recordando la demostración que dice que los eigenvalores de la transpuesta de una matriz son iguales a los de la matriz original era de esperarse que el polinomio característico también «se portara bien» bajo transposición.

Problema. Demuestra que las matrices $A$ y $^{t}A$ tienen el mismo polinomio característico para cualquier $A\in M_n(F)$.

Solución. Notamos que $^{t}(X I_n-A)= XI_n-\ ^{t}A$. Como una matriz y su transpuesta tienen el mismo determinante se tiene que

\begin{align*}
\chi_A(X)&=\det(XI_n-A)\\&=\det(\ ^{t}(XI_n-A))\\&= \det(XI_n-\ ^{t}A)\\&=\chi_{^t A}(X).
\end{align*}

$\square$

Estrictamente hablando, estamos haciendo un poquito de trampa en la demostración anterior (y de hecho en varias que involucran a la variable $X$). Las propiedades de determinantes que hemos visto (como que una matriz y su transpuesta tienen el mismo determinante) las obtuvimos partiendo de la hipótesis de que las entradas vienen de un campo $F$. Pero cuando agregamos a la variable $X$, ahora las entradas vienen más bien de un anillo: el anillo de polinomios en $F[X]$. Aunque esto parezca un problema, en realidad no lo es. Las propiedades que usamos pueden mostrarse también en ese contexto.

Veamos ahora cómo podemos aplicar el resultado anterior en un ejemplo concreto.

Ejemplo. Queremos calcular el polinomio característico de la matriz

\begin{align*}
A= \begin{pmatrix} 0 & 0 &0\\ -4 & 9 & 0\\ -1 & -1 & 2.\end{pmatrix}
\end{align*}

Para esto notamos que

\begin{align*}
^t A=\begin{pmatrix} 0 & -4 & -1\\ 0 & 9 & -1\\ 0 & 0 & 2\end{pmatrix}
\end{align*}

que es triangular superior. Usando el primer problema

\begin{align*}
\chi_{^t A}(X)= X(X-9)(X-2).
\end{align*}

Finalmente por el último problema $$\chi_{A}(X)=\chi_{^t A}(X)=X(X-9)(X-2).$$

$\triangle$

El término de la traza

Como vimos en la entrada anterior, en el polinomio $\det(XA+B)$ aparecen los términos $\det(A)$ y $\det(B)$. El siguiente problema aplica esto al polinomio característico e incluso deducimos otro término: la traza.

Problema. Demuestra que el polinomio característico de $A\in M_n(F)$ es de la forma

\begin{align*}
\chi_A(X)= X^n- \operatorname{Tr}(A)X^{n-1}+\dots+(-1)^n \det A.
\end{align*}

Solución. Regresemos a la definición

\begin{align*}
\det (X I_n-A)=\sum_{\sigma\in S_n} \operatorname{sign}(\sigma)\left(X\delta_{1\sigma(1)}-a_{1\sigma(1)}\right)\cdots \left(X \delta_{n\sigma(n)}-a_{n\sigma(n)}\right).
\end{align*}

Haciendo la expansión salvajemente podemos recuperar al menos los primeros términos de $$(X\delta_{1\sigma(1)}-a_{1\sigma(1)})\cdots (X\delta_{n\sigma(n)}-a_{n\sigma(n)}),$$ que son $$X^{n}\prod_{i=1}^{n} \delta_{i\sigma(i)} – X^{n-1}\sum_{j=1}^{n}\left(\prod_{k\neq j} \delta_{k\sigma(k)}\right)a_{j\sigma(j)}+\dots.$$

Más aún, nota cómo el producto $\prod_{j=1}^{n}\delta_{j\sigma(j)}$ es distinto de cero si y sólo si $j=\sigma(j)$ para todo $j$: es decir si $\sigma$ es la identidad. Esto muestra que $\chi_A(X)$ es mónico de grado $n$, como ya habíamos mencionado en la entrada anterior.

Además, el término constante está dado por \begin{align*}\chi_A(0)&=\det(0\cdot I_n-A)\\&=\det(-A)\\&=(-1)^{n}\det(A).\end{align*} Alternativamente pudimos haber usado la primera proposición de esta entrada para concluir estos hechos.

Nos falta estudiar el término de grado $n-1$. Si $j\in \{1,2,\dots, n\}$, entonces $\prod_{k\neq j}\delta_{j\sigma(j)}$ es distinto de cero solo si $\sigma(k)=k$ para todo $k\neq j$: pero $\sigma$ es una permutación, en particular una biyección, lo que fuerza que $\sigma(j)=j$ también y entonces $\sigma$ sea la identidad. Entonces el término de $X^{n-1}$ en $$(X\delta_{1\sigma(1)}-a_{1\sigma(1)})\cdots (X\delta_{n\sigma(n)}-a_{n\sigma(n)})$$ es distinto de cero sólo cuando $\sigma$ es la identidad. En ese caso es precisamente $$-\sum_{j=1}^{n} a_{jj}=-\operatorname{Tr}(A).$$

$\square$

Ejemplo. Si $A$ es la matriz del primer problema de esta entrada, tenemos que

\begin{align*}
\chi_A(X)&=(X-1)(X+2)(X-3)\\&= X^3-2 X^2+\dots +6.
\end{align*}

Nota cómo el término de $X^2$ es en efecto $-\text{Tr}(A)= -(1-2+3)$ y el último es $-\det(A)$.

$\triangle$

Matrices nilpotentes

El caso de las matrices nilpotentes es todavía más sencillo.

Problema. Sea $A\in M_n(F)$ una matriz nilpotente. Es decir, existe $k\geq 1$ tal que $A^{k}=O_n$.

  1. Demuestra que
    \begin{align*}
    \chi_A(X)=X^{n}.
    \end{align*}
  2. Demuestra que $\operatorname{Tr}A^{m}=0$ para todo $m\geq 1$.

Solución.

  1. Sea $k\geq 1$ tal que $A^{k}=O_n$ (existe pues $A$ es nilpotente). Entonces
    \begin{align*}
    X^{k}I_n&=X^{k}I_n-A^{k}\\&=(XI_n-A)(X^{k-1}I_n+X^{k-2}A+\dots +A^{k-1}).
    \end{align*}
    Tomando el determinante de ambos lados y recordando que abre productos llegamos a
    \begin{align*}
    X^{nk}&=\det(X^{k}I_n)\\&= \chi_{A}(X)\cdot \det(X^{k-1}I_n+\dots +A^{k-1}).
    \end{align*}
    De aquí, concluimos que $\chi_{A}(X)$ tiene que dividir a $X^{nk}$, pero sabemos que $\chi_A(X)$ es mónico y de grado $n$. Concluimos entonces que $\chi_A(X)=X^{n}$.
  2. Puesto que $A^{m}$ también es una matriz nilpotente, el inciso anterior nos dice que
    \begin{align*}
    \chi_{A^{m}}(X)=X^{n}.
    \end{align*}
    Pero sabemos por la sección sobre la traza que el término de $X^{n-1}$ es $-\operatorname{Tr}(A^{m})$. Como este término no aparece, concluimos que la traza es cero.

$\square$

Ejemplo. Para calcular el polinomio característico de la matriz

\begin{align*}
A=\begin{pmatrix}
5 & -3 &2\\
15 & -9 & 6\\
10 & -6 &4
\end{pmatrix}
\end{align*}

podríamos notar (aunque no sea obvio a simple vista) que $A^2=O_3$. Luego, por el problema anterior, $\chi_A(X)=X^3$.

$\triangle$

Un último caso particular

Acabamos con una última familia de matrices con polinomio característico simple. Esta familia está descrita por su forma, y será de particular importancia para el teorema de Cayley-Hamilton.

Problema. Para escalares $a_0,\dots, a_{n-1}\in F$ consideramos la matriz

\begin{align*}
A=\begin{pmatrix}
0 & 0 & 0 & \dots & 0 & a_0\\
1 & 0 & 0 & \dots & 0 & a_1\\
0 & 1 & 0 & \dots & 0 & a_2\\
\dots & \dots & \dots & \dots & \dots &\dots\\
0 & 0 & 0 & \dots & 1 &a_{n-1}
\end{pmatrix}.
\end{align*}

en $M_n(F)$.

Demuestra que

\begin{align*}
\chi_A(X)=X^{n}-a_{n-1}X^{n-1}-\dots -a_0.
\end{align*}

Solución. Sea $P(X)=X^{n}-a_{n-1}X^{n-1}-\dots-a_0$. Considera la matriz

\begin{align*}
B=X I_n-A=\begin{pmatrix} X & 0 & 0 &\dots &0& -a_0\\ -1 & X & 0 &\dots & 0 &-a_1\\ 0 & -1 & X &\dots& 0&-a_2\\ \dots & \dots & \dots & \dots &\dots &\dots\\ 0 & 0 & 0 & \dots & -1 & X-a_{n-1}\end{pmatrix}.
\end{align*}

Sumando el segundo renglón multiplicado por $X$ al primer renglón, luego sumándole también al primer renglón el tercero multiplicado por $X^2$, el cuarto por $X^3$, y así sucesivamente hasta sumar el último renglón multiplicado por $X^{n-1}$ llegamos a la matriz

\begin{align*}
C=\begin{pmatrix}
0 & 0 & 0 & \dots &0& P(X)\\
-1 & X & 0 & \dots &0 & -a_1\\
0 & -1 & X & \dots & 0 & -a_2\\
\dots & \dots & \dots & \dots & \dots &\dots\\
0 & 0 & 0 & \dots & -1 & X-a_{n-1}
\end{pmatrix}.
\end{align*}

Recordamos que el determinante es invariante bajo sumas de renglones, por lo que

\begin{align*}
\chi_A=\det B=\det C.
\end{align*}

Expandiendo el determinante de $C$ en el primer renglón obtenemos sencillamente

\begin{align*}
\det C&=(-1)^{n+1}P(X) \cdot \begin{vmatrix} -1 & X & \dots & 0\\ 0 & -1 & \dots & 0\\ \dots &\dots & \dots & \dots \\ 0 & 0 & \dots & -1 \end{vmatrix}\\&= (-1)^{n+1} P(X)(-1)^{n-1}\\&=P(X).
\end{align*}

Para la segundaigualdad usamos que el determinante es el de una matriz triangular superior con puros $-1$ como entradas. Para la última, usamos que $n+1+n-1=2n$ siempre es un número par, así que queda $-1$ elevado a un número par. Esto concluye la prueba.

$\square$

Una de las consecuencias de la proposición anterior es que para cualquier polinomio mónico $P$ de grado $n$ en $F[X]$, existe una matriz en $M_n(F)$ tal que su polinomio característico es $P$.

Más adelante…

En la próxima entrada veremos unos últimos aspectos teóricos del polinomio característico antes de lanzarnos de lleno al teorema de Cayley-Hamilton y su demostración.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra una matriz $A$ tal que $\chi_A(X)=X^5-5X^3+X^2-2X+2$. Sugerencia: Usa el último problema.
  2. Demuestra que el polinomio característico de una matriz $A=[a_{ij}]$ triangular inferior está dado por $\prod_{i=1}^{n}(X-a_{ii})$.
  3. Demuestra que $0$ es eigenvalor de una matriz si y sólo si su determinante es cero.
  4. Calcula el polinomio característico de la siguiente matriz con entradas reales:
    \begin{align*}
    A= \begin{pmatrix} 5 & 5 & 5 \\ 6 & 6 & 6\\ -11 & -11 & -11\end{pmatrix}.
    \end{align*} Sugerencia: ¿Quién es $A^2$?
  5. ¿Es cierto que si $F$ es cualquier campo y $A$ es una matriz con entradas en $F$, entonces el hecho de que $\operatorname{Tr}(A)=0$ implica que $A$ sea nilpotente? Sugerencia: Piensa en $F_2$.
  6. Da una demostración alternativa al último problema de esta entrada usando inducción matemática sobre el tamaño de la matriz.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Introducción al curso

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta serie de entradas continuaremos platicando acerca de álgebra lineal. Son una continuación a las entradas de Álgebra Lineal I que también se encuentran disponibles en el blog. En el transcurso de ellas, cubriremos los temas que establece el temario de la materia Álgebra Lineal II de la Licenciatura en Matemáticas de la UNAM.

Primero comenzaremos dando un pequeño repaso de lo que se ha visto en Álgebra Lineal I y después daremos un pequeño panorama de lo que se cubrirá en este curso.

Algunos recordatorios de Álgebra Lineal I

En el primer curso de álgebra lineal se establecieron muchos fundamentos del área, relacionados con espacios vectoriales, transformaciones lineales, matrices y más. A continuación damos un breve recordatorio de cada unidad temática. Usaremos letras cursivas para mencionar términos que ya deberías conocer. Si algunos de ellos no los recuerdas. Usaremos letras negritas para hacer énfasis en resultados fundamentales del primer curso, que es muy importante que recuerdes qué dicen y cómo se usan. Todo esto lo puedes encontrar en las notas anteriores.

En la primer parte de ese curso, recordamos las definiciones básicas de vector, matriz y transformación lineal, pero únicamente nos enfocamos en un espacio vectorial muy sencillo: $F^n$, que consiste de todos los vectores con $n$ entradas en un campo $F$. Se definieron operaciones de suma y producto escalar en este espacio. También hablamos de cómo multiplicar matrices. Esto fue suficiente para plantear la idea de resolver sistemas de ecuaciones lineales. Primero estudiamos los sistemas de ecuaciones lineales homogéneos, pues de acuerdo al principio de superposición, esto es suficiente. Luego, vimos el algoritmo de reducción gaussiana, que nos permite llevar cualquier matriz a su forma escalonada reducida. Esto resulta fundamental para calcular todo tipo de cosas en álgebra lineal: resolver sistemas de ecuaciones, invertir matrices, encontrar determinantes, encontrar espacios generados, etc.

En la segunda parte introdujimos el concepto de espacio vectorial en general. Hablamos de $F^n$, pero también del espacio de matrices $M_{m,n}(F)$, del espacio de polinomios $F[x]$, de los espacios de polinomios de grado a lo más $n$, $F_n[x]$, y de algunos otros como los de funciones con ciertas propiedades (continuas, diferenciables, limitadas a un intervalo, acotadas, etc.) A partir de las nociones de combinación lineal, independencia lineal y generadores, desarrollamos la teoría de dimensión. Un resultado crucial en dimensión finita es el lema de Steinitz. Tras hablar de un espacio vectorial, comenzamos a hablar de «funciones bonitas» entre ellos. Las primeras que tratamos fueron las transformaciones lineales. Un resultado crucial es que, en dimensión finita y tras elegir una base cada transformación lineal corresponde a una matriz y viceversa. Como bases distintas dan matrices distintas, fue necesario discutir qué sucede al cambiar de base, por lo que se introdujeron matrices de cambio de base. Otro resultado crucial es el teorema rango-nulidad.

La tercera parte fue mucho más geométrica. En ella hablamos de las formas lineales y de las formas bilineales. A partir de las formas lineales construimos a los espacios duales y desarrollamos la teoría de dualidad. Definimos el concepto de hiperplano. Una de las principales aplicaciones de la teoría de dualidad fue mostrar que en dimensión finita todo subespacio es intersección de hiperplanos. En el caso de formas bilineales, nos enfocamos mucho más en aquellas que van a $\mathbb{R}$. A partir de ellas definimos formas cuadráticas. Estudiamos el caso muy especial de espacios euclideanos, que son, a grandes rasgos espacios vectoriales reales con una forma bilineal «bonita». En este tipo de espacios se puede hablar de normas, distancias y ángulos. Los resultados cruciales fueron la desigualdad de Cauchy-Schwarz y la existencia de bases ortonormales. Para encontrarlas, hablamos del proceso de Gram-Schmidt.

Finalmente, vino la unidad 4 en la que se desarrolló de manera formal el concepto de determinante, tanto para vectores, como para matrices y transformaciones lineales. Para ello fue importante hablar de formas $n$-lineales (que en cierta forma generalizan a las bilineales) con propiedades especiales, como ser alternantes. Se vieron muchas propiedades de los determinantes para entenderlos a profundidad de manera teórica y práctica, en particular la expansión de Laplace. Se vio cómo los determinantes pueden ayudar a resolver sistemas de ecuaciones mediante las fórmulas de Cramer. También, con toda la teoría desarrollada hasta aquí pudimos finalmente entender con mucha profundidad los sistemas de ecuaciones lineales mediante el teorema de Rouché-Capelli. Para cerrar el curso, vimos muy por encima las ideas de eigenvalores, eigenvectores y polinomio característico. Esto nos llevó a la idea de diagonalización. Juntando toda la teoría del curso, llegamos a la cereza del pastel: el teorema espectral para matrices simétricas reales.

La idea general del segundo curso

El teorema espectral para matrices simétricas reales es un resultado precioso: bajo ciertas condiciones nos permite «llevar» una transformación (o matriz) a una «forma sencilla». Nos debe de dar la intuición de que toda la teoría que se desarrolló anteriormente la podemos utilizar para demostrar muchos otros resultados lindos de ese estilo. En Álgebra Lineal II haremos precisamente esto.

En la primer parte del curso profundizaremos en la teoría de eigenespacios, que nos permitirán entender mucho mejor cómo son los eigenvectores. Para hacer eso, será importante introducir un nuevo polinomio: el polinomio mínimo. Mostraremos muchas más propiedades de eigenvectores, eigenvalores, polinomios mínimos y característicos. Usaremos estas ideas para profundizar en las nociones de diagonalización y triangulización y enunciaremos teoremas que nos permitirán saber cuándo una matriz (o transformación) se puede llevar mediante un cambio de base a una forma más sencilla. En esta primer parte también demostraremos el bello teorema de Cayley-Hamilton, que afirma que cualquier matriz se anula en su polinomio característico.

Después de esto, en la segunda parte del curso trabajaremos para entender mejor a las formas bilineales que introdujimos en el primer curso. Ya no sólo nos limitaremos a aquellas que caen a los reales, sino que hablaremos también de aquellas que caen al campo $\mathbb{C}$ de los números complejos. Uno podría pensar que el tratamiento es análogo, pero esto dista mucho de la realidad: se requiere pensar en nuevas definiciones que involucren a los conjugados de las entradas de las matrices.

Tras establecer las propiedades principales que nos interesan en espacios vectoriales sobre $\mathbb{R}$ y $\mathbb{C}$, retomaremos la idea de demostrar teoremas de diagonalización. Ahora tendremos el teorema espectral para matrices reales y el teorema espectral para matrices complejas. Además de garantizarnos una diagonalización, estos teoremas nos garantizan que esa diagonalización es de una forma muy especial. Veremos las consecuencias teóricas que esto tiene.

Finalmente, en la última unidad temática, veremos que aunque las matrices no sean diagonalizables, en realidad no todo está perdido. Hablaremos de la forma canónica de Jordan, que es algo así como una versión débil de diagonalizar. Terminaremos el curso aprovechando todo lo visto hasta ahora para ver que cualquier matriz, sin importar sobre qué campo esté, siempre podrá ser llevada a esta forma tras un cambio de base.

Más adelante…

En la siguiente entrada ya comenzaremos con el contenido teórico del curso. Lo primero que haremos es formalizar qué quiere decir «aplicar un polinomio a una transformación lineal» y qué qué quiere decir aplicarlo a una matriz.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Recuerda el algoritmo de reducción gaussiana y úsalo para determinar si la matriz $\begin{pmatrix} 1 & 5 & 0 \\ 0 & 1 & 2 \\ 5 & 3 & -1\end{pmatrix}$ es invertible y, en caso de que sí, encontrar su inversa. Hazlo a mano y comprueba tu respuesta con alguna calculadora de forma escalonada reducida en línea.
  2. Encuentra una base ortogonal para el espacio de polinomios $\mathbb{R}_4[x]$ de grado a lo más $4$ con producto bilineal $\langle p, q \rangle = \sum_{j=0}^4 p(j)q(j)$. Encuentra la forma matricial de la transformación «derivar» en esta base y da su determinante.
  3. Escribe al subespacio de matrices antisimétricas en $M_3(\mathbb{R})$ como intersección de hiperplanos. ¿Qué dimensión tiene?
  4. Encuentra un sistema de $4$ ecuaciones lineales en $5$ variables cuyo espacio de soluciones tenga dimensión $2$. Después, resuélvelo usando los siguientes dos métodos: reducción gaussiana y fórmulas de Cramer.
  5. Explica qué nos garantiza el teorema espectral visto en el curso anterior para las matrices $A=\begin{pmatrix} 1 & 2 & 3 \\ 2 & 0 & 1 \\ 3 & 1 & 4 \end{pmatrix}$ y $B=\begin{pmatrix} 0 & 1 & -1 \\ 1 & 2 & -4 \\ 0 & 0 & 2 \end{pmatrix}$. Encuentra el polinomio característico de cada una de estas matrices. Esboza (sin hacerlo) cómo encontrarías los valores y vectores propios de $A$ y $B$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Combinaciones lineales

Por Julio Sampietro

Introducción

En esta entrada presentamos el concepto de combinaciones lineales en espacios vectoriales que será fundamental para nuestro estudio. De cierta manera (que se verá más claramente cuando hablemos de bases en espacios vectoriales arbitrarios) captura un aspecto de la base canónica de $F^n$: Todo vector lo podemos escribir como $x_1 e_1+\dots+x_n e_n$, lo que con nuestro lenguaje será una combinación lineal de los vectores $e_i$.

También hablamos del concepto de espacio generado. De manera intuitiva, el espacio generado por un conjunto de vectores es el mínimo subespacio que los tiene (y que a la vez tiene a todas las combinaciones lineales de ellos). Geométricamente, los espacios generados describen muchos de los objetos conocidos como rectas y planos. De manera algebraica, este concepto nos servirá mucho en lo que sigue del curso.

Definición de combinaciones lineales

Sea $V$ un espacio vectorial sobre un campo $F$, y sean $v_1, \dots, v_n$ vectores en $V$. Por definición, $V$ contiene a todos los vectores de la forma $c_1 v_1+\dots +c_n v_n$ con $c_1, \dots, c_n \in F$. La colección de los vectores de este estilo es importante y le damos una definición formal:

Definición. Sean $v_1, \dots, v_n$ vectores en un espacio vectorial $V$ sobre $F$.

  1. Un vector $v$ es una combinación lineal de los vectores $v_1, \dots, v_n$ si existen escalares $c_1,\dots, c_n\in F$ tales que
    \begin{align*}
    v= c_1 v_1 +c_2 v_2+\dots +c_n v_n.
    \end{align*}
  2. El espacio generado (que a veces abreviaremos como el generado) por $v_1, \dots, v_n$ es el subconjunto de $V$ de todas las combinaciones lineales de $v_1,\dots, v_n$, y lo denotamos por $\text{span}(v_1, \dots, v_n)$.

Ejemplo.

  1. La matriz $A=\begin{pmatrix} 2 & 2 \\ 1 & 1 \end{pmatrix}$ es una combinación lineal de las matrices $B= \begin{pmatrix} 10 & 0 \\ 5 & 0\end{pmatrix}$ y $C=\begin{pmatrix} 0 & 1 \\ 0 & \frac{1}{2}\end{pmatrix}$ pues $A=\frac{1}{5} B + 2 C$. Así, $A$ está en el generado por $B$ y $C$.
  2. El generado $\text{span}(v)$ de un único vector en $\mathbb{R}^n$ consta de puras copias re-escaladas de $v$ (también nos referimos a estos vectores como múltiplos escalares de $v$). Usando la interpretación geométrica de vectores en $\mathbb{R}^2$ o $\mathbb{R}^3$, si $v\neq 0$ entonces $\text{span}(v)$ representa una recta por el origen en la dirección de $v$.
  3. Si $e_1=(1,0,0)$ y $e_2=(0,1,0)$, entonces
    \begin{align*}
    x e_1+ y e_2=(x,y,0).
    \end{align*}
    Como $x$ y $y$ fueron arbitrarios, podemos concluir que $\text{span}(e_1,e_2)$ consta de todos los vectores en $\mathbb{R}^3$ cuya tercer entrada es cero. Esto es el plano $xy$. En general, si $v_1, v_2$ son dos vectores no colineales en $\mathbb{R}^3$ entonces su espacio generado es el único plano por el origen que los contiene.
  4. El polinomio $3x^{10}+7$ del espacio vectorial $\mathbb{R}_{10}[x]$ no puede ser escrito como combinación lineal de los polinomios $x^{10}+x^2+1$, $x^7+3x+1$, $7x^3$. Para demostrar esto, debemos probar que no existen reales $a,b,c$ tales que $$3x^{10}+7=a(x^{10}+x^2+1)+b(x^7+3x+1)+7cx^3.$$
    Procedamos por contradicción. Si acaso esto fuera posible, desarrollando el producto de la derecha y observando el coeficiente de $x^{10}$, necesitamos que $a$ sea igual a $3$. Pero entonces a la derecha va a quedar un término $3x^2$ que no se puede cancelar con ninguno otro de los sumandos, sin importar el valor de $b$ o $c$. Igualando términos cuadráticos, tendríamos entonces $0=3x^2$, lo cual es una contradicción.

$\triangle$

Problemas prácticos de combinaciones lineales

La definición de que un vector sea combinación de otros es existencial. Para mostrar que sí es combinación lineal, basta encontrar algunos coeficientes. Para mostrar que no es combinación lineal, hay que argumental por qué ninguna de las combinaciones lineales de los vectores es igual al vector buscado.

Problema 1. Muestra que el vector $(1,1,1)$ de $\mathbb{R}^3$ no se puede expresar como combinación lineal de los vectores

\begin{align*}
v_1= (1,0,0), \hspace{2mm} v_2=(0,1,0)\text{ y } v_3=(1,1,0).
\end{align*}

Solución. Una combinación lineal arbitraria de $v_1, v_2, v_3$ es de la forma

\begin{align*}
x_1 v_1 +x_2 v_2 + x_3 v_3 = (x_1 + x_3, x_2 + x_3, 0)
\end{align*}

para $x_1,x_2,x_3$ reales. Así, las combinaciones lineales de $v_1,v_2,v_2$ siempre tienen a $0$ como tercera coordenada. De esta forma, ninguna de ellas puede ser igual a $(1,1,1)$.

$\square$

Más generalmente, consideramos el siguiente problema práctico: dada una familia de vectores $v_1, v_2, \dots, v_k$ en $F^n$ y un vector $v\in F^n$, decide si $v$ es una combinación lineal de $v_1, \dots, v_k$. En otras palabras, si $v\in \text{span}(v_1, \dots, v_k)$.

Para resolver este problema, consideramos la matriz de tamaño $n\times k$ cuyas columnas son $v_1, \dots, v_k$. Decir que $v\in \text{span}(v_1, \dots, v_k)$ es lo mismo que encontrar escalares $x_1, \dots, x_k\in F$ tales que $v= x_1 v_1 +\dots +x_k v_k$. De manera equivalente, si tomamos $X=(x_1,\ldots,x_k)$, queremos la existencia de una solución al sistema $AX=v$.

Esto es muy útil. Como tenemos una manera práctica de decidir si este sistema es consistente (por reducción gaussiana de la matriz aumentada $(A\vert v)$), tenemos una manera práctica de resolver el problema de si un vector es combinación lineal de otros. Por supuesto, esto también nos da una solución concreta al problema, es decir, no sólo decide la existencia de la combinación lineal, sino que además da una cuando existe.

Problema 2. Sean $v_1=(1,0,1,2), v_2=(3,4,2,1)$ y $v_3=(5,8,3,0)$ vectores en el espacio vectorial $\mathbb{R}^4$. ¿Está el vector $v=(1,0,0,0)$ en el generado de $v_1,v_2$ y $v_3$? ¿El vector $w=(4,4,3,3)$?

Solución. Aplicamos el método que describimos en el párrafo anterior. Es decir, tomemos la matriz

\begin{align*}
A= \begin{pmatrix} 1 & 3 & 5\\ 0 & 4 & 8\\ 1 & 2 & 3\\ 2 & 1 & 0\end{pmatrix}.
\end{align*}

Queremos ver si el sistema $AX=v$ es consistente. Haciendo reducción gaussiana a mano, o bien usando una calculadora de forma escalonada reducida (por ejemplo, la de eMathHelp), obtenemos que la forma escalonada reducida de la matriz aumentada $(A\vert v)$ es

\begin{align*}
(A\vert v)\sim \begin{pmatrix} 1 & 0 & -1 & 0\\ 0 & 1 &2 & 0\\ 0 & 0 & 0 &1 \\ 0 & 0 & 0 &0\end{pmatrix}.
\end{align*}

Viendo el tercer renglón, notamos que tiene pivote en la última columna. Deducimos que el sistema no es consistente, así que $v\notin \text{span}(v_1, v_2, v_3)$.

Procedemos de manera similar para el vector $w$. Esta vez tenemos

\begin{align*}
(A\vert w)\sim \begin{pmatrix} 1 & 0 & -1 & 1\\ 0 & 1 & 2 & 1\\ 0 & 0 & 0 & 0\\ 0 & 0 & 0 &0\end{pmatrix},
\end{align*}

lo que muestra que el sistema es consistente (pues ninguna fila tiene su pivote en la última columna), por lo tanto $w\in \text{span}(v_1, v_2, v_3)$. Si queremos encontrar una combinación lineal explícita tenemos que resolver el sistema

\begin{align*}
\begin{pmatrix} 1 & 0 & -1 \\ 0 & 1 & 2\\ 0 & 0 &0 \\ 0 & 0 & 0\end{pmatrix} \cdot \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix} = \begin{pmatrix} 1 \\ 1\\ 0 \\ 0\end{pmatrix}.
\end{align*}

Tenemos que ninguna fila tiene su pivote en la columna $3$, así que $x_3$ es variable libre. Las variables $x_1$ y $x_2$ son pivote. Esto nos da como solución $x_1= x_3+1$ y $x_2=1-2x_3$. Entonces podemos escribir

\begin{align*}
w= (1+x_3) v_1 + (1-2x_3) v_2+ x_3v_3
\end{align*}

y esto es válido para cualquier elección de $x_3$. Podemos, por ejemplo, escoger $x_3=0$ y obtener $w=v_1 + v_2$.

$\triangle$

Por supuesto, en el problema anterior pudimos haber encontrado la expresión $w=v_1+v_2$ explorando el problema o por casualidad. Esto sería suficiente para mostrar que $w$ es combinación lineal. Pero la ventaja del método sistemático que mostramos es que no se corre el riesgo de no encontrar la solución a simple vista. De me manera definitiva nos dice si hay o no hay solución, y cuando sí hay, encuentra una.

Una caracterización del espacio generado

Probamos el siguiente resultado, que explica la importancia del concepto de espacio generado. En particular, la proposición muestra que el espacio generado es un subespacio. Si te parece un poco confusa la demostración, puede ser de ayuda leer antes la observación que le sigue.

Proposición. Sea $V$ un espacio vectorial sobre un campo $F$ y $v_1, v_2, \dots, v_n \in V$. Entonces

  1. $\text{span}(v_1, v_2, \dots, v_n)$ es la intersección de todos los subespacios vectoriales de $V$ que contienen a todos los vectores $v_1, \dots, v_n$.
  2. $\text{span}(v_1, v_2, \dots, v_n)$ es el subespacio más chico (en contención) de $V$ que contiene a $v_1,\dots, v_n$.

Demostración. Como la intersección arbitraria de subespacios es un subespacio, la parte $1$ implica la parte $2$. Probemos entonces la parte $1$.

Primero demostremos que $\text{span}(v_1, v_2,\dots, v_n)$ está contenido en todo subespacio $W$ de $V$ que tiene a $v_1, \dots, v_n$. En otras palabras, tenemos que ver que cualquier subespacio $W$ que tenga a $v_1,\ldots,v_n$ tiene a todas las combinaciones lineales de ellos. Esto se sigue de que $W$, por ser subespacio, es cerrado bajo productos por escalar y bajo sumas. Así, si tomamos escalares $\alpha_1,\ldots,\alpha_n$ tenemos que cada uno de $\alpha_1 v_1, \ldots, \alpha_n v_n$ está en $W$ y por lo tanto la combinación lineal (que es la suma de todos estos), también está en $W$.

La afirmación anterior implica que $\text{span}(v_1, \dots, v_n)$ está contenido en la intersección de todos los espacios que tienen a $v_1,\ldots, v_n$, pues está contenido en cada uno de ellos.

Ahora, queremos ver ‘la otra contención’, es decir, que $\text{span}(v_1,\ldots,v_n)$ contiene a la intersección de todos los espacios que tienen a $v_1,\ldots,v_n$. Para esto veremos primero que $\text{span}(v_1, \dots, v_n)$ es un subespacio vectorial. Sean $x,y\in \text{span}(v_1, \dots, v_n)$ y $c\in F$ un escalar. Como $x$ y $y$ son, por definición, combinaciones lineales de $v_1, \dots, v_n$, podemos escribir $x=a_1 v_1+\dots +a_n v_n$ para algunos escalares $a_i$ y $y=b_1 v_1+\dots + b_n v_n$ para unos escalares $b_i$. Así

\begin{align*}
x+cy= (a_1+cb_1) v_1 + \dots + (a_n +c b_n) v_n
\end{align*}

también es una combinación lineal de $v_1, \dots, v_n$ y por tanto un elemento del espacio generado. Se sigue que $\text{span}(v_1,\dots, v_n)$ es uno de los subespacios que tienen a $v_1, \dots, v_n$. Así, este generado «aparece» en la intersección que hacemos de subespacios que tienen a estos vectores, y como la intersección de una familia de conjuntos está contenida en cada uno de esos conjuntos, concluimos que $\text{span}(v_1, \dots, v_n)$ contiene a dicha inteesección.

Argumentemos ahora la segunda parte de la proposición. Se usa el mismo argumento que arriba. Si $W$ es cualquier subespacio que contiene a $v_1, \dots, v_n$, entonces «aparece» en la intersección y por tanto $\text{span}(v_1, \dots, v_n)$ está contenido en $W$. Es decir, es más chico (en contención) que cualquier otro subespacio que contenga a estos vectores.

$\square$

Observación. Ya que la demostración previa puede resultar un poco confusa, presentamos una versión un poco más relajada de la idea que se usó. Sea $\lbrace W_i\mid i\in I\rbrace$ la familia de todos los subespacios de $V$ que contienen a $v_1, \dots, v_n$.

En el primer párrafo, probamos que

\begin{align*}
\text{span}(v_1,\dots, v_n)\subseteq W_i
\end{align*}

para todo $i\in I$. Luego $\text{span}(v_1, \dots, v_n)\subseteq \bigcap_{i\in I} W_i$.

En el segundo párrafo, probamos que $Span(v_1,\dots, v_n)$ es un subespacio que contiene a $v_1, \dots, v_n$. Es decir, entra en nuestra familia $\lbrace W_i\mid i\in I\rbrace$, es uno de los $W_i$, digamos $W_j$. Entonces

\begin{align*}
\text{span}(v_1, \dots, v_n)= W_j \supseteq \bigcap_{i\in I} W_i.
\end{align*}

En ese momento ya tenemos la primer igualdad: $\text{span}(v_1,\ldots,v_n)=\bigcap_{i\in I} W_i.$

Ahora, la segunda conclusión de la proposición se sigue de esto con una observación más: Si $W’$ es un subespacio que contiene a $v_1, \dots, v_n$ entonces también entra en nuestra familia de los $W_i$’s, es decir es $W_{p}$ para algún $p\in I$. Ahora usando el inciso $1$, tenemos que

\begin{align*}
\text{span}(v_1, \dots, v_n)= \bigcap_{i\in I} W_i \subseteq W_p=W’.
\end{align*}

Esto concluye la demostración.

Más adelante…

El concepto de combinación lineal es la piedra angular para definir varios otros conceptos importantes en espacios vectoriales. Es un primer paso para definir a los conjuntos de vectores generadores y a los conjuntos de vectores linealmente independientes. Una vez que hayamos desarrollado ambos conceptos, podremos hablar de bases de un espacio vectorial, y con ello hablar de la dimensión de un espacio vectorial.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. ¿Se puede expresar al vector $(1,3,0,5)$ como combinación lineal de $(0,1,0,3)$, $(0,-1,2,0)$ y $(2, 0,-1,-6)$? Si sí, encuentra una o más combinaciones lineales que den el vector $(1,3,0,5)$
  2. ¿Se puede expresar al polinomio $1+x^2 +3x^3 -x^4 +x^5$ como combinación lineal de los siguientes polinomios
    \begin{align*}
    x^2-3x^4,\\
    1+x^2-x^5,\\
    2x+x^4,\\
    2+x^2,\\
    5x+5x^2-x^5?
    \end{align*}
  3. Sea $P$ un plano en $\mathbb{R}^3$ por el origen y $L$ una recta de $\mathbb{R}^3$ por el origen y con dirección dada por un vector $v\neq 0$. Demuestra que la intersección de $L$ con $P$ es una recta si y sólo si existen dos vectores en $P$ tal que su suma sea $v$.
  4. Encuentra el conjunto generado por los vectores del espacio vectorial indicado
    • Las matrices $\begin{pmatrix} 1 & 0 \\ 0 & 1\end{pmatrix}$ y $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$ del espacio $M_{2}$.
    • Los vectores $(1,-1,0)$ y $(1,0,-1)$ del espacio $\mathbb{R}^3$.
    • Los polinomios $1$, $x$, $x^2$ y $x^3$ del espacio $\mathbb{R}[x]$.
  5. Sea $V$ un espacio vectorial. Si $v_1, \dots, v_n, x$ son vectores en un espacio vectorial $V$, ¿será cierto siempre que $\text{span}(v_1, \dots, v_n)\subseteq \text{span}(v_1, \dots, v_n, x)$? De ser así, ¿esta contención siempre es estricta? Demuestra tu respuesta o da un contraejemplo.
  6. Sean $v_1,\ldots, v_n$ y $x$ vectores en un espacio vectorial $V$. Supongamos que $v_n$ está en $\text{span}(v_1,\ldots,v_{n-1},x)$. Muestra que $$\text{span}(v_1,\ldots,v_{n-1},x)=\text{span}(v_1,\ldots,v_{n-1},v_n).$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de bases y dimensión de espacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores vimos cómo se puede definir la dimensión de un espacio vectorial. Para ello, necesitamos encontrar una base. En el caso finito, la dimensión del espacio es la cardinalidad de una base. Esto está bien definido pues todas las bases tienen la misma cardinalidad. A continuación solucionaremos algunos ejemplos para reforzar los temas vistos.

Recordatorio de truco para mostrar que algo es base

En varios de los problemas usamos el siguiente resultado. Ya lo enunciamos y demostramos previamente. Pero como es sumamente útil, lo volvemos a enunciar, en términos más prácticos.

Proposición. Sea $V$ un espacio vectorial que ya sepamos que tiene dimensión finita $n$. Sea $B=\{v_1,v_2,\dots, v_n\}$ un conjunto de $n$ vectores de $v$. Entonces, cualquiera de las siguientes afirmaciones implica las otras dos:

  1. $B$ es un conjunto linealmente independiente en $V$.
  2. $B$ es un conjunto generador para $V$.
  3. $B$ es una base de $V$.

Por supuesto, el tercer punto implica los otros dos por la definición de base. Lo que es realmente útil en situaciones teóricas y prácticas es que si ya sabemos que un espacio tiene dimensión $n$, y tenemos un conjunto de $n$ vectores, entonces basta verificar que o bien (1) o bien (2). Con esto tendremos la otra afirmación gratuitamente.

Al usar este resultado, es muy importante verificar las hipótesis. Es decir, para usarlo se necesita:

  • Argumentar por qué la dimensión de un espacio vectorial es cierto entero $n$.
  • Argumentar que se está estudiando un conjunto con $n$ vectores.
  • Demostrar ya sea (1) o (2).

Problemas resueltos

Problema 1. Muestra que las siguientes cuatro matrices $A=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}$, $B=\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}$, $C=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}$, $D=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$ son una base del espacio vectorial $M_2(\mathbb{R})$.

Solución. Ya sabemos que $M_2(\mathbb{R})$ es un espacio vectorial de dimensión $4$, pues una base está conformada por las matrices $E_{11}$, $E_{12}$, $E_{21}$ y $E_{22}$ de la base canónica. El conjunto que tenemos consiste de $4$ matrices. Así, para mostrar que conforman una base, es suficiente con que mostremos que son un conjunto linealmente independiente.

Supongamos que existen reales $a,b,c,d$ tales que $$aA+bB+cC+dD=O_2.$$ Haciendo las operaciones entrada por entrada en esta igualdad, obtenemos que esto sucede si y sólo si $a,b,c,d$ son soluciones al sistema de ecuaciones
$$\begin{cases}a+c&=0\\b-d&=0\\b+d&=0\\a-c&=0.\end{cases}$$

Podríamos encontrar todas las soluciones a este sistema usando reducción gaussiana. Sin embargo, afortunadamente para este sistema hay una forma más sencilla de proceder. Sumando la primera y cuarta igualdad, obtenemos $2a=0$, de donde $a=0$ y entonces por la primer ecuación $c=0$. De manera simétrica, $b=d=0$. De esta forma, la única combinación lineal de $A,B,C,D$ que da la matriz cero es la trivial. Concluimos que $A,B,C,D$ son linealmente independientes, y por lo tanto son una base de $M_2(\mathbb{R})$.

$\square$

En el problema anterior resultó más práctico mostrar que las matrices eran linealmente independientes, pero también pudimos simplemente mostrar que generaban a $M_2(\mathbb{R})$. Por la proposición que enunciamos, cualquiera de los dos implica que en este contexto las matrices forman una base.

Veamos ahora un ejemplo en el que es más conveniente mostrar que el conjunto propuesto es generador.

Problema 2. Encuentra una base de $\mathbb{R}_4[x]$ que tenga al polinomio $$p(x)=1+x+x^2+x^3+x^4.$$

Solución. Ya sabemos que $\mathbb{R}_4[x]$ tiene dimensión $5$, pues una base es el conjunto de polinomios $\mathcal{B}=\{1,x,x^2,x^3,x^4\}$.

Proponemos al conjunto $$\mathcal{B}’=\{1,x,x^2,x^3,p(x)\}$$ como solución al problema.

Como $\mathcal{B}’$ es un conjunto con $5$ elementos, basta con mostrar que es un conjunto que genera a $\mathbb{R}_4[x]$. Para ello, notemos que $\mathcal{B}’$ puede generar al polinomio $x^4$ pues se obtiene mediante la combinación lineal $$x^4=p(x)-1-x-x^2-x^3.$$

De esta forma, $\mathcal{B}’$ puede generar todo lo que puede generar $\mathcal{B}$. En símbolos: $$\mathbb{R}_4[x]\subseteq \text{span}(\mathcal{B})\subseteq \text{span}(\mathcal{B}’) \subseteq \mathbb{R}_4[x].$$

Concluimos que $\text{span}(\mathcal{B}’) = \mathbb{R}_4[x]$. Esto muestra que $\mathcal{B}’$ es una base de $\mathbb{R}_4[x]$ que tiene al polinomio $p(x)$.

$\triangle$

Problema 3. Exactamente uno de los vectores $u=(9,5,1)$ y $v=(9,-5,1)$ puede ser escrito como combinación lineal de los vectores columna de la matriz $$A=\begin{pmatrix} 3 & 0 & 3 \\ 2 & 1 & 1 \\ 1 & 2 & -1 \end{pmatrix}.$$ Determina cuál de ellos es y exprésalo como una combinación lineal de los vectores columna de $A$.

Solución. Un vector $b$ se puede escribir como combinación lineal de las columnas de una matriz $A$ si y sólo si el sistema lineal de ecuaciones $AX=b$ tiene solución. En efecto, si $X=(x,y,z)$, recordemos que $$AX=xC_1+yC_2+zC_3,$$ en donde $C_1$, $C_2$ y $C_3$ son las columnas de la matriz $A$.

De esta forma, una forma de proceder es plantear los sistemas de ecuaciones $AX=u$ y $AX=v$, y ver cuál de ellos tiene solución. Esto se puede hacer y dará la solución al problema.

Sin embargo, aprovecharemos este problema para introducir un truco más. Como queremos resolver ambos sistemas, podemos hacer reducción gaussiana en la matriz aumentada $(A|u|v)$, en donde estamos agregando dos vectores columna nuevos. De la forma escalonada reducida podremos leer todo lo que queremos. La matriz que nos interesa es
\begin{align*}\begin{pmatrix}
3 & 0 & 3 & 9 & 9 \\ 2 & 1 & 1 & 5 & -5\\ 1 & 2 & -1 & 1 & 1
\end{pmatrix}.\end{align*}

Usando la herramienta online de eMathHelp para calcular la forma escalonada reducida de esta matriz, obtenemos

\begin{align*}(A_{red}|u’|v’)=\begin{pmatrix}
1 & 0 & 1 & 3 & 0 \\ 0 & 1 & -1 & -1 & 0\\ 0 & 0 & 0 & 0 & 1
\end{pmatrix}.\end{align*}

Estamos listos para hacer el análisis. Tomando la submatriz conformada por las primeras cuatro columnas (las correspondientes a $A_{red}$ y $u’$), vemos que no queda pivote en la última columna. De este modo, sí hay una solución para $AX=u$.

Para obtener una solución, basta trabajar con esta submatriz y usar nuestros argumentos usuales de sistemas de ecuaciones lineales. La variable $z$ es libre. Las variables $x$ y $y$ son pivote. Haciendo $z=0$ obtenemos $x=3$ y $y=-1$. Concluimos que $$\begin{pmatrix} 9 \\ 5 \\ 1 \end{pmatrix} = 3\begin{pmatrix} 3 \\ 2 \\ 1 \end{pmatrix} + (-1) \begin{pmatrix} 0 \\ 1 \\ 2 \end{pmatrix} + 0 \begin{pmatrix} 3 \\ 1 \\ -1 \end{pmatrix}.$$

Esto sería suficiente para terminar el problema, pues el enunciado garantiza que uno y sólo uno de los vectores es combinación lineal de las columnas.

Pero estudiemos el otro caso para ver qué sucede. Tomando la submatriz conformada por las columnas $1$, $2$, $3$, $5$ de $(A_{red}|u’|v’)$ (correspondientes a $A_{red}$ y $v’$), vemos que sí hay un pivote en la última columna: el de la tercera fila. Entonces, no hay solución para $AX=v$.

$\triangle$

El problema anterior ayuda a fortalecer mucho nuestra intuición para resolver sistemas de ecuaciones lineales: el sistema $AX=b$ tiene solución si y sólo si el vector $b$ es combinación lineal de los vectores columna de $A$. Cada solución al sistema corresponde a una de estas combinaciones lineales.

Problema 4. Para $n$ un entero positivo y $k$ un entero de $0$ a $n$, definimos al polinomio $P_k(x)=x^k(1-x)^{(n-k)}$. Muestra que $P_0(x),\ldots, P_n(x)$ es una base para el espacio $\mathbb{R}_n[x]$.

Solución. Como $\mathbb{R}_n[x]$ tiene dimensión $n+1$ y estamos considerando un conjunto de $n+1$ polinomios, entonces basta mostrar que este conjunto es linealmente independiente. Supongamos que hay una combinación lineal de ellos que es igual a cero, digamos $$\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x) + \alpha_n x^n=0.$$

Si evaluamos la expresión anterior en $x=1$, casi todos los sumandos se anulan, excepto el último. De aquí, obtenemos que $\alpha_n 1^n=0$, de donde $\alpha_n=0$. La expresión se convierte entonces en $$\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x)=0.$$

Factorizando $1-x$ de todos los sumandos y usando que el polinomio $1-x\neq 0$, podemos «cancelar» al factor $1-x$. En otras palabras, podemos «dividir» la combinación lineal entre $1-x$ para obtener $$\alpha_0 (1-x)^{n-1} + \alpha_1 x(1-x)^{n-2} + \ldots + \alpha_{n-1} x^{n-1}=0.$$

De aquí podemos seguir aplicando el mismo argumento: evaluamos en $1$, concluimos que el último coeficiente es igual a $0$, y entonces podemos dividir subsecuentemente entre $1-x$. De esta forma, obtenemos $\alpha_n=\alpha_{n-1}=\ldots=\alpha_0=0$. Concluimos entonces que los polinomios propuestos son linealmente independientes, y por lo tanto forman una base de $\mathbb{R}_n[x]$.

$\square$

El argumento del último párrafo se puede formalizar todavía más usando inducción sobre $n$. Piensa en lo complicado que hubiera sido mostrar de manera directa que los polinomios propuestos generan a $\mathbb{R}_n[x]$. Gracias a la proposición que discutimos al inicio, esto lo obtenemos de manera automática.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Problemas de combinaciones lineales, generadores e independientes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya hablamos de combinaciones lineales, de conjuntos generadores y de conjuntos independientes. Lo que haremos aquí es resolver problemas para reforzar el contenido de estos temas.

Problemas resueltos

Problema 1. Demuestra que el polinomio $p(x)=x^2+x+1$ no puede ser escrito en el espacio vectorial $\mathbb{R}[x]$ como una combinación lineal de los polinomios \begin{align*} p_1(x)=x^2-x\\ p_2(x) = x^2-1\\ p_3(x) = x-1.\end{align*}

Solución. Para resolver este problema, podemos plantearlo en términos de sistemas de ecuaciones. Supongamos que existen reales $a$, $b$ y $c$ tales que $$p(x)=ap_1(x)+bp_2(x)+cp_3(x).$$

Desarrollando la expresión, tendríamos que
\begin{align*}
x^2+x+1 &= a(x^2-x)+b(x^2-1)+c(x-1)\\
&= (a+b)x^2+(-a+c)x+(-b-c),
\end{align*}

de donde igualando coeficientes de términos del mismo grado, obtenemos el siguiente sistema de ecuaciones: $$\begin{cases}a+b & = 1\\ -a + c &= 1 \\ -b-c &= 1.\end{cases}$$

Para mostrar que este sistema de ecuaciones no tiene solución, le aplicaremos reducción gaussiana a la siguiente matriz extendida: $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ -1 & 0 & 1 & 1 \\ 0 & -1 & -1 & 1 \end{pmatrix}.$$

Tras la transvección $R_2+R_1$, obtenemos $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & -1 & -1 & 1 \end{pmatrix}.$$

Tras la transvección $R_3+R_2$, obtenemos $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & 0 & 0 & 3 \end{pmatrix}.$$

De aquí se ve que la forma escalonada reducida tendrá un pivote en la última columna. Por el teorema de existencia y unicidad el sistema original no tiene solución.

$\square$

En el problema anterior usamos un argumento de reducción gaussiana para mostrar que el sistema no tiene solución. Este es un método general que funciona en muchas ocasiones. Una solución más sencilla para ver que el sistema del problema no tiene solución es que al sumar las tres ecuaciones se obtiene $0=3$.

Problema 2. Sea $n$ un entero positivo. Sea $W$ el subconjunto de vectores en $\mathbb{R}^n$ cuya suma de entradas es igual a $0$. Sea $Z$ el espacio generado por el vector $(1,1,\ldots,1)$ de $\mathbb{R}^n$. Determina si es cierto que $$\mathbb{R}^n=W\oplus Z.$$

Solución. El espacio $Z$ está generado por todas las combinaciones lineales que se pueden hacer con el vector $v=(1,1,\ldots,1)$. Como sólo es un vector, las combinaciones lineales son de la forma $av$ con $a$ en $\mathbb{R}$, de modo que $Z$ es precisamente $$Z=\{(a,a,\ldots,a): a\in\mathbb{R}\}.$$

Para obtener la igualdad $$\mathbb{R}^n=W\oplus Z,$$ tienen que pasar las siguientes dos cosas (aquí estamos usando un resultado de la entrada de suma y suma directa de subespacios):

  • $W\cap Z = \{0\}$
  • $W+Z=\mathbb{R}^n$

Veamos qué sucede con un vector $v$ en $W\cap Z$. Como está en $Z$, debe ser de la forma $v=(a,a,\ldots,a)$. Como está en $W$, la suma de sus entradas debe ser igual a $0$. En otras palabras, $0=a+a+\ldots+a=na$. Como $n$ es un entero positivo, esta igualdad implica que $a=0$. De aquí obtenemos que $v=(0,0,\ldots,0)$, y por lo tanto $W\cap Z = \{0\}$.

Veamos ahora si se cumple la igualdad $\mathbb{R}^n=W+Z$. Por supuesto, se tiene que $W+Z\subseteq \mathbb{R}^n$, pues los elementos de $W$ y $Z$ son vectores en $\mathbb{R}^n$. Para que la igualdad $\mathbb{R}^n\subseteq W+Z$ se cumpla, tiene que pasar que cualquier vector $v=(x_1,\ldots,x_n)$ en $\mathbb{R}^n$ se pueda escribir como suma de un vector $w$ uno con suma de entradas $0$ y un vector $z$ con todas sus entradas iguales. Veamos que esto siempre se puede hacer.

Para hacerlo, sea $S=x_1+\ldots+x_n$ la suma de las entradas del vector $v$. Consideremos al vector $w=\left(x_1-\frac{S}{n},\ldots, x_n-\frac{S}{n} \right)$ y al vector $z=\left(\frac{S}{n},\ldots,\frac{S}{n}\right)$.

Por un lado, $z$ está en $Z$, pues todas sus entradas son iguales. Por otro lado, la suma de las entradas de $w$ es
\begin{align*}
\left(x_1-\frac{S}{n}\right)+\ldots + \left(x_n-\frac{S}{n}\right)&=(x_1+\ldots+x_n)-n\cdot \frac{S}{n}\\ &= S-S=0,
\end{align*}

lo cual muestra que $w$ está en $W$. Finalmente, notemos que la igualdad $w+z=v$ se puede comprobar haciendo la suma entrada a entrada. Con esto mostramos que cualquier vector de $V$ es suma de vectores en $W$ y $Z$ y por lo tanto concluimos la igualdad $\mathbb{R}^n=W\oplus Z$.

$\square$

En el problema anterior puede parecer algo mágico la propuesta de vectores $w$ y $z$. ¿Qué es lo que motiva la elección de $\frac{S}{n}$? Una forma de enfrentar los problemas de este estilo es utilizar la heurística de trabajar hacia atrás. Sabemos que el vector $w$ debe tener todas sus entradas iguales a cierto número $a$ y queremos que $z=v-w$ tenga suma de entradas igual a $0$. La suma de las entradas de $v-w$ es $$(x_1-a)+\ldots+(x_n-a)= S -na.$$ La elección de $a=\frac{S}{n}$ está motivada en que queremos que esto sea cero.

Problema 3. Considera las siguientes tres matrices en $M_2(\mathbb{C})$:
\begin{align*}
A&= \begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix}\\
B&= \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}\\
C&= \begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix}.
\end{align*}

Demuestra que $A$, $B$ y $C$ son matrices linealmente dependientes. Da una combinación lineal no trivial de ellas que sea igual a $0$.

Solución. Para mostrar que son linealmente dependientes, basta dar la combinación lineal no trivial buscada. Buscamos entonces $a,b,c$ números complejos no cero tales que $aA+bB+cC=O_2$, la matriz cero en $M_2(\mathbb{C})$. Para que se de esta igualdad, es necesario que suceda entrada a entrada. Tenemos entonces el siguiente sistema de ecuaciones:
$$\begin{cases}
-i a + 2i b + ic &= 0\\
-3a + b -7c &=0\\
2a + 3b + 12c &= 0\\
3a -b +7c &=0.
\end{cases}$$

En este sistema de ecuaciones tenemos números complejos, pero se resuelve exactamente de la misma manera que en el caso real. Para ello, llevamos la matriz correspondiente al sistema a su forma escalonada reducida. Comenzamos dividiendo el primer renglón por $-i$ y aplicando transvecciones para hacer el resto de las entradas de la columna iguales a $0$. Luego intercambiamos la tercera y cuarta filas.

\begin{align*}
&\begin{pmatrix}
-i & 2i & i \\
-3 & 1 & -7 \\
2 & 3 & 12 \\
3 & -1 & 7
\end{pmatrix}\\
\to&\begin{pmatrix}
1 & -2 & -1 \\
0 & -5 & -10 \\
0 & 7 & 14 \\
0 & 5 & 10
\end{pmatrix}
\end{align*}

Ahora reescalamos con factor $-\frac{1}{5}$ la segunda fila y hacemos transvecciones para hacer igual a cero el resto de entradas de la columna 2:

\begin{align*}
&\begin{pmatrix}
1 & 0& 3 \\
0 & 1 & 2 \\
0 & 0 & 0 \\
0 & 0 & 0
\end{pmatrix}
\end{align*}

Con esto llegamos a la forma escalonada reducida de la matriz. De acuerdo al procedimiento que discutimos en la entrada de sistemas lineales homogéneos, concluimos que las variables $a$ y $b$ son pivote y la variable $c$ es libre. Para poner a $a$ y $b$ en términos de $c$, usamos la primera y segunda ecuaciones. Nos queda \begin{align*} a &= -3c \\ b &= -2c. \end{align*}

En resumen, concluimos que para cualqueir número complejo $c$ en $\mathbb{C}$ se tiene la combinación lineal $$-3c\begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix} – 2c \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix} + c\begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.$$

Una posible combinación lineal no trivial se obtiene tomando $c=1$.

$\square$

En el problema anterior bastaba encontrar una combinación lineal no trivial para acabar el ejercicio. Por supuesto, esto también se puede hacer por prueba y error. Sin embargo, la solución que dimos da una manera sistemática de resolver problemas de este estilo.

Problema 4. Consideremos el espacio vectorial $V$ de funciones $f:\mathbb{R}\to \mathbb{R}$. Para cada real $a$ en $(0,\infty)$, definimos a la función $f_a\in V$ dada por $$f_a(x)=e^{ax}.$$

Tomemos reales distintos $0<a_1<a_2<\ldots<a_n$. Supongamos que existe una combinación lineal de las funciones $f_{a_1},\ldots,f_{a_n}$ que es igual a $0$, es decir, que existen reales $\alpha_1,\ldots,\alpha_n$ tales que $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0$$ para todo real $x\geq 0$.

Muestra que $\alpha_1=\ldots=\alpha_n=0$. Concluye que la familia $(f_a)_{a\in \mathbb{R}}$ es linealmente independiente en $V$.

Solución. Procedemos por inducción sobre $n$. Para $n=1$, si tenemos la igualdad $\alpha e^{ax}=0$ para toda $x$, entonces $\alpha=0$, pues $e^{ax}$ siempre es un número positivo. Supongamos ahora que sabemos el resultado para cada que elijamos $n-1$ reales cualesquiera. Probaremos el resultado para $n$ reales cualesquiera.

Supongamos que tenemos la combinación lineal $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0$$ para todo real $x\geq 0$.

Dividamos esta igualdad que tenemos entre $e^{a_nx}$:

$$\alpha_1 e^{(a_1-a_n)x} + \alpha_2e^{(a_2-a_n)x} + \ldots + \alpha_{n-1}e^{(a_{n-1}-a_n)x}+\alpha_n = 0.$$

¿Qué sucede cuando hacemos $x\to \infty$? Cada uno de los sumandos de la forma $\alpha_i e^{(a_i-a_n)x}$ se hace cero, pues $a_i<a_n$ y entonces el exponente es negativo y se va a $-\infty$. De esta forma, queda la igualdad $\alpha_n=0$. Así, nuestra combinación lineal se ve ahora de la forma $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_{n-1} e^{a_{n-1}x} = 0.$$

Por la hipótesis inductiva, $\alpha_1=\ldots=\alpha_{n-1}=0$. Como también ya demostramos $\alpha_n=0$, hemos terminado el paso inductivo.

Concluimos que la familia (infinita) $(f_a)_{a\in \mathbb{R}}$ es linealmente independiente en $V$ pues cualquier subconjunto finito de ella es linealmente independiente.

$\square$

El problema anterior muestra que la razón por la cual ciertos objetos son linealmente independientes puede deberse a una propiedad analítica o de cálculo. A veces dependiendo del contexto en el que estemos, hay que usar herramientas de ese contexto para probar afirmaciones de álgebra lineal.

Entradas relacionadas

Agradecimiento

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»