Archivo de la etiqueta: base

Álgebra Lineal I: Bases y dimensión de espacios vectoriales

Introducción

Ya hablamos de conjuntos generadores y de independencia lineal. Además, ya platicamos también del lema de intercambio de Steinitz. Con estas herramientas, tenemos todo a nuestra disposición para desarrollar la teoría de dimensión de espacios vectoriales.

Para espacios vectoriales en general, esto puede no resultar tan sencillo. Por esta razón, para este tema nos enfocaremos en el caso en el que la dimensión es finita. Sin embargo, también veremos ejemplos de espacios que no son así, y hablaremos un poco de cómo son.

Espacios de dimensión finita

Definición. Se dice que un espacio vectorial es de dimensión finita si tiene un conjunto generador con una cantidad finita de elementos.

Otra forma de interpretar la definición anterior es la siguiente:
V es un espacio vectorial de dimensión finita si existe una familia finita de vectores v_1, v_2, \dots , v_n \in V tal que todos los vectores en V se pueden expresar como combinación lineal de dicha familia. Por ejemplo, los espacios F^n, \hspace{2mm} M_{m,n}(F), \hspace{2mm} y \hspace{2mm} \mathbb{R}_n[x] son de dimensión finita. Sin embargo, no todos los espacios vectoriales son de dimensión finita, de hecho la mayoría no lo son.

Problema. Demuestra que el espacio vectorial V de todos los polinomios con coeficientes reales no es un espacio vectorial sobre \mathbb{R} de dimensión finita.

Demostración. Supongamos que V tiene un conjunto generador finito, entonces existen polinomios p_1,p_2,\dots,p_n\in V tales que V=\text{span}(p_1,p_2,\dots,p_n). Sea d=\max\{deg(p_1), \dots, deg(p_n)\}. Como todos los p_i tienen grado a lo más d, entonces cualquier combinación lineal de p_1,p_2,\dots,p_n también tiene grado a lo más d. Se sigue que todo vector en V tiene grado a lo más d, pero eso es imposible, pues deg(x^{d+1})=d+1>d. Por lo tanto V no es de dimensión finita.

\square

Nos gustaría definir la dimensión de un espacio vectorial. Para ilustrar esto es bueno pensar primero en \mathbb{R}^n para distintos valores de n. Una linea (digamos \mathbb{R}) debería tener dimensión 1, un plano (digamos \mathbb{R}^2) debería tener dimensión 2, y en general \mathbb{R}^n debería tener dimensión n.

Antes de profundizar más en esto, es conveniente mencionar algunas definiciones y problemas prácticos para generar una mejor intuición sobre el rumbo que estamos a punto de tomar.

Definición. Una base de un espacio vectorial V es un subconjunto B de V tal que B es linealmente independiente y generador.

Ejemplos.

  • El conjunto B=\{e_1,\ldots,e_n\} de vectores canónicos en \mathbb{F}^n es una base. Esto se puede verificar con lo que hicimos al inicio del curso, cuando mostramos que cualquier vector v en \mathbb{F}^n se puede escribir de manera única como v=x_1e_1+\ldots+x_ne_n con x_1,\ldots,x_n escalares. Como existe al menos una forma, entonces \text{span}(B)=F^n. Como es única, en particular la única forma de escribir al vector 0 es si x_1=\ldots=x_n=0. Esto muestra que B es generador y linealmente independiente.
  • El conjunto B=\{E_{ij}\} de matrices canónicas en M_{m,n}(F) es una base.
  • El conjunto 1,x,\ldots,x^n es una base de \mathbb{R}_n[x].

Encontrar bases de subespacios

Como los subespacios de espacios vectoriales también son espacios vectoriales, entonces también tiene sentido hablar de si un conjunto de vectores es base para un subespacio. Veamos ahora varios problemas para entender mejor esto.

Problema. Dada la matriz A\in M_2(\mathbb{R})

    \begin{align*}A=\begin{pmatrix}2 & 0\\0 & 3\end{pmatrix}\end{align*}


encuentra una base para el subespacio U de M_2(\mathbb{R}) definido por

    \begin{align*}U=\{X\in M_2(\mathbb{R}): XA=AX\}.\end{align*}

Solución. Considera la matriz X=\begin{pmatrix}a_1 & a_2\\a_3 & a_4\end{pmatrix}. Entonces X\in U si y sólo si XA=AX, lo anterior lo escribimos como

    \begin{align*}\begin{pmatrix}2a_1 & 3 a_2\\2a_3 & 3a_4\end{pmatrix} = \begin{pmatrix}2a_1 & 2 a_2\\3a_3 & 3a_4\end{pmatrix}.\end{align*}


De la igualdad anterior obtenemos que a_2=a_3=0. Por lo tanto

    \begin{align*}U=\left\{\begin{pmatrix}a_1 & 0\\0 & a_4\end{pmatrix}:a_1,a_4\in \mathbb{R}\right\}.\end{align*}


Este es un primer paso, pues nos permite poner al subespacio U en una forma en la que es más fácil de entender. Ahora es más fácil encontrar una base para U. Proponemos al siguiente conjunto de dos matrices:

    \begin{align*}B=\left\{ \begin{pmatrix}1 & 0\\0 & 0\end{pmatrix} , \begin{pmatrix}0&0\\0 & 1\end{pmatrix}\right\}.\end{align*}

Por un lado, este es un conjunto generador para U, pues cualquier elemento de U se puede escribir como combinación lineal de elementos en B como sigue:

    \[\begin{pmatrix} a_1 & 0 \\ 0 & a_4 \end{pmatrix}=a_1 \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + a_4 \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}.\]

Por otro lado, B es un conjunto linealmente independiente pues si a y b son escalares que tan una combinación lineal igual a cero entonces tendríamos

    \[\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} = a \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + b \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} a & 0 \\ 0 & b \end{pmatrix}.\]

Igualando la primera y última matriz entrada a entrada, tenemos que a=b=0.

\square

Es importante que revises el problema anterior con profundidad, pues da una idea de cómo encontrar una base B de un subespacio U de un espacio vectorial V. Una receta que funciona en algunos casos es la siguiente:

  • Entender bien el subespacio U del que hay que dar una base.
  • Expresar a U en términos simples.
  • Ver cómo son los vectores de U, y de ahí proponer una base B. Para esta parte hay que jugar un poco con conjuntos de vectores, para ver si son suficientes para generar y no son demasiados como para ya no ser linealmente independientes.
  • Mostrar que B genera a U.
  • Mostrar que B es linealmente independiente en V.

Veamos más ejemplos.

Problema. Determina una base para el subespacio U de \mathbb{R}^4 dado por

    \begin{align*}U=\{(a,b,c,d)\in \mathbb{R}^4:a+b=0, c=2d\}.\end{align*}

Solución. Como b=-a y c=2d, entonces

    \begin{align*}U=\{(a,-a,2d,d)\in \mathbb{R}^4:a,d\in \mathbb{R}\}=\{av_1+dv_2|a,d\in \mathbb{R}\},\end{align*}


donde v_1=(1,-1,0,0) y v_2=(0,0,2,1). Por lo tanto v_1,v_2 generan a U. También son linealmente independientes, pues la relación av_1+dv_2=0 es equivalente a (a,-a,2d,d)=(0,0,0,0) e implica a=d=0.Se sigue que \{v_1,v_2\} es una base para U.

\square

Problema. Considera los subespacios U,V de \mathbb{R}^4 definidos por

    \begin{align*}U=\{(x,y,z,w)\in\mathbb{R}^4:y+z+w=0\}\end{align*}


y

    \begin{align*}V=\{(x,y,z,w)\in\mathbb{R}^4:x=-y, \hspace{2mm}z=2w\}.\end{align*}


Encuentra una base para cada uno de los subespacios U,V y U\cap V de \mathbb{R}^4.

Solución. Expresando a w en términos de y y z, obtenemos

    \begin{align*}U&=\{(x,y,z,-y-z)|y,z\in\mathbb{R}\}\\&=\{xu_1+yu_2+zu_3|x,y,z \in \mathbb{R}\},\end{align*}


donde u_1=(1,0,0,0), u_2=(0,1,0,-1) y u_3=(0,0,1,-1).

Veamos si u_1,u_2,u_3 son linealmente independientes. La igualdad xu_1+yu_2+zu_3=0 es equivalente a (x,y,z,-y-z)=(0,0,0,0) e implica x=y=z=0. Por lo tanto, los vectores u_1,u_2,u_3 son linealmente independientes y forman una base de U.

Ahora, para V. Es fácil ver que

    \begin{align*}V&=\{(-y,y,2w,w)| y,w\in\mathbb{R}\}\\&=\{yv_1+wv_2| y,w\in \mathbb{R}\},\end{align*}


donde v_1=(-1,1,0,0) \hspace{2mm} y v_2=(0,0,2,1).

Nuevamente, v_1, v_2 son linealmente independientes, pues la relación yv_1+wv_2=0 es equivalente a (-y,y,2w,w)=(0,0,0,0) e implica y=w=0. Por lo tanto v_1,v_2 forman una base de V.

Finalmente, el vector (x,y,z,w)\in\mathbb{R}^4 pertenece a U\cap V si y sólo si

    \begin{align*}x=-y, \hspace{3mm} z=2w, \hspace{3mm} y+z+w=0.\end{align*}


Se sigue que x=3w, \hspace{2mm} z=2w \hspace{2mm} y y=-3w, o bien

    \begin{align*}(x,y,z,w)=(3w,-3w,2w,w)=w(3,-3,2,1).\end{align*}


Por lo tanto \{(3,-3,2,1)\} es una base de U \cap V.

\square

Problema. Sea V el espacio de funciones f:\mathbb{R}\longrightarrow \mathbb{R} generado por las funciones en B=\{1,x\mapsto \sin (2x), x\mapsto \cos(2x)\}.

a) Demuestra que B es una base de V.
b) Demuestra que x\mapsto \sin ^2 (x) es una función en V y exprésala como combinación lineal de los elementos de B.

Solución. a) . Como V es el generado de B, por definición B es generador. Así, basta demostrar que los vectores en B son linealmente independientes. En otras palabras, queremos ver que si a,b,c son números reales tales que

    \begin{align*}a+b\sin (2x) + c\cos (2x)=0\end{align*}


para todo x\in \mathbb{R}, entonces a=b=c=0.

Tomando x=0 se obtiene que a+c=0. Si tomamos x=\frac{\pi}{2} obtenemos a-c=0. Por lo tanto a=c=0. Finalmente, si tomamos x=\frac{\pi}{4} obtenemos b=0.

b) Para cada x\in\mathbb{R} se tiene

    \begin{align*}\cos (2x)&=2\cos^2(x)-1\\&=2(1-\sin^2(x))-1\\&=1-2\sin^2(x),\end{align*}


por lo tanto

    \begin{align*}\sin^2(x)=\frac{1-\cos (2x)}{2}.\end{align*}


Por lo tanto x\mapsto \sin^2(x) pertence a V y lo expresamos como combinación lineal de los elementos de B de la siguiente manera:

    \begin{align*}\sin^2(x)=\frac{1}{2}\cdot 1 + 0\cdot \sin(2x) - \frac{1}{2} \cos (2x).\end{align*}

\square

Dimensión finita y bases

Ahora veamos un teorema muy importante en la teoría de la dimensión de espacios vectoriales.

Teorema. Sea V un espacio vectorial de dimensión finita. Entonces
a) V contiene una base con una cantidad finita de elementos.
b) Cualesquiera dos bases de V tienen el mismo número de elementos (en particular, cualquier base tiene una cantidad finita de elementos).

Demostración. a) Como V es de dimensión finita, entonces tiene al menos un conjunto generador finito. Sea B un conjunto generador de V con el menor número posible de elementos. Vamos a demostrar que B es una base para V. B ya es conjunto generador porque así lo escogimos, sólo falta probar que es linealmente independiente.

Supongamos por el contrario que B no es linealmente independiente, entonces existe v\in B tal que v\in \text{span}(B\backslash \{v\}). Por lo tanto

    \[\text{span}(B\setminus\{v\})=\text{span}(B)=V.\]

Pero eso es imposible pues B se tomó de tamaño mínimo. Por lo tanto B es linealmente independiente. Se sigue el resultado deseado.

b) Sea B una base con una cantidad finita de elementos, digamos n. Sea B' otra base de V. Por definición de base, B' es linealmente independiente y B es un conjunto generador con n elementos.

Por el lema de Steinitz, B' es finito y tiene a lo más n elementos. Lo anterior nos muestra que cualquier base tiene a lo más n elementos. De hecho, si B' tiene d elementos, el lema de Steinitz garantiza que n\leq d.

Ahora volvemos a aplicar el mismo argumento que antes, pero pensando a B como linealmente independiente y a B' como generador. Concluimos que k\leq d. De este modo, k=d y por lo tanto toda base de V tiene la misma cantidad de elementos.

\square

El resultado anterior justifica que la siguiente definición esté bien hecha.

Definición. Sea V un espacio vectorial de dimensión finita. Definimos la dimensión dim V de V como el número de elementos de una base de V.

Ejemplos y problemas de dimensión

Ejemplo. Considera el espacio vectorial \mathbb{R}^n y su base canónica B=\{e_1,e_2,\dots , e_n\}. Como B es base y tiene n elementos, entonces dim(\mathbb{R}^n)=n.

\square

Ejemplo. Considera el espacio vectorial \mathbb{R}_n[x] de polinomios con coeficientes reales y grado a lo más n. Una base para \mathbb{R}_n[x] es \{1,x,\dots, x^n\}, por lo tanto dim(\mathbb{R}_n[x])=n+1.

\square

Ejemplo. Considera el espacio vectorial M_{m,n}(\mathbb{R}). Sea E_{ij}\in M_{m,n}(\mathbb{R}) la matriz cuya entrada (i,j) es 1 y el resto de sus entradas son 0. Entonces B=\{E_{ij}| 1\leq i \leq m, 1\leq j \leq n \} es una base para M_{m,n}(\mathbb{R}). Así, \dim(M_{m,n}(\mathbb{R}))=mn.

\square

Problema. Encuentra una base y la dimensión del subespacio

    \begin{align*}V=\{(a,2a)|a\in \mathbb{R}\}\subset \mathbb{R}^2.\end{align*}

Solución. Notemos que V=\text{span}((1,2)), pues (a,2a)=a(1,2). Como (1,2)\neq (0,0), entonces B=\{(1,2)\} es una base de V. Por lo tanto \dim(V)=1.

\square

Un lema útil para demostrar que algo es base

Para finalizar esta entrada demostraremos otro teorema muy importante en la teoría de la dimensión de espacios vectoriales. En este resultado usamos de nuevo de manera repetida el lema de intercambio de Steinitz.

Teorema. Sea V un espacio vectorial de dimensión finita n. Entonces
a) Cualquier conjunto linealmente independiente de vectores de V tiene a lo más n elementos.
b) Cualquier conjunto generador de V tiene al menos n elementos.
c) Si S es un subconjunto de V con n elementos, entonces las siguientes afirmaciones son equivalentes:

  1. S es linealmente independiente.
  2. S es un conjunto generador.
  3. S es una base de V.

Demostración. Sea V una base de B. Por definición B tiene n elementos.

a) Como B es un conjunto generador con n elementos, por el lema de intercambio se tiene que cualquier conjunto linealmente independiente tiene a lo más n elementos.

b) Sea S un conjunto generador de V y supongamos que S tiene d<n elementos. Como B es linealmente independiente, entonces por el lema de intercambio se tiene que n \leq d, lo cual sería una contradicción.

c) Es claro que (3) implica (1) y (2), por lo que solamente probaremos que (1) implica (3) y que (2) implica (3).

Supongamos que S es linealmente independiente, entonces por el lema de intercambio de Steintz podemos agregar n-n=0 vectores a S de manera que el nuevo conjunto es generador. Claramente el nuevo conjunto es S mismo, pues no le agregamos nada. Por lo tanto S es un conjunto generador y como estamos bajo el supuesto de que S es linealmente independiente, entonces S es una base de V.

Ahora supongamos que S es un conjunto generador que no es linealmente independiente. Entonces existe v\in S tal que v\in \text{span}(S\setminus \{v\}). Se sigue que S\setminus \{v\} es un conjunto generador de n-1 elementos (al generar a v, genera todo lo que generaba S). Pero esto contradice el inciso b). Por lo tanto S es linealmente independiente y por lo tanto es una base de V.

\square

El resultado anterior nos permite pensar a las bases de un espacio vectorial como los conjuntos linealmente independientes “más grandes”, o bien como los conjuntos generadores “más chicos”. En la siguiente entrada veremos ejemplos prácticos del uso del teorema anterior.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • En todos los problemas en donde se hable de subespacios, verifica que en efecto los conjuntos dados son subespacios del espacio vectorial mencionado.
  • En todos los ejemplos y problemas en los que se menciona que algo es base, verifica que en efecto se tiene un conjunto que es generador y linealmente independiente.
  • Sea V un espacio vectorial sobre \mathbb{C} y de dimensión n. Demuestra que si ves a V como un espacio vectorial sobre \mathbb{R}, entonces \dim(V)=2n.
  • Sea V un espacio vectorial de dimensión finita y W un subespacio de V. Demuestra que W es de dimensión finita, que \dim(W)\leq \dim(V) y que la igualdad se da si y sólo si W=V.
  • Sean W_1,W_2 subespacios de un espacio vectorial V con dimensiones m y n, respectivamente, con m\geq n.
    a) Demuestra que \dim(W_1\cap W_2)\leq n.
    b) Demuestra que \dim(W_1 + W_2)\leq m+n.
  • Encuentra la dimensión del subespacio de matrices en M_n(\mathbb{R}) que son simétricas.

Más adelante…

A partir de la definición de dimensión, más adelante construiremos la noción de rango, que nos permite decir “qué tanta información guarda una matriz”. La dimensión ayuda también a comprender cuándo hay cierto tipo de transformaciones lineales entre espacios vectoriales. Una aplicación más de la dimensión es que en muchos casos queremos probar afirmaciones para todos los espacios vectoriales de dimensión finita. Como la dimensión nos permite asociar a cada uno de estos un entero, muchas de estas demostraciones se pueden hacer por inducción.

Entradas relacionadas

Álgebra Lineal I: Conjuntos generadores e independencia lineal

Introducción

En esta entrada explicaremos cómo podemos estudiar espacios y subespacios vectoriales a partir de conjuntos más pequeños que guardan la información más relevante de ellos. A estos conjuntos les llamaremos generadores. Además estudiaremos el concepto de independencia lineal. A grandes rasgos podemos decir que un conjunto es linealmente independiente cuando no tiene “elementos redundantes” que se pueden obtener a partir de otros en el conjunto. En ambos casos, nos basaremos fuertemente en el concepto de combinaciones lineales que ya discutimos anteriormente.

Conjuntos generadores

El inciso (1) de la siguiente definición ya lo mencionamos parcialmente en una entrada anterior, para un conjunto finito de vectores. Aquí lo enunciamos de modo que también aplique para conjuntos posiblemente infinitos.

Definición. Sea V un espacio vectorial sobre F y S un subconjunto de V.

  1. El subespacio generado por S es el subconjunto de V que consiste de todas las combinaciones lineales c_1v_1+c_2v_2+\dots + c_nv_n, donde v_1,v_2,\dots,v_n es un subconjunto finito de S y c_1,c_2, \dots , c_n son escalares en F. Al subespacio generado de S lo denotamos por \text{span}(S). A menudo nos referiremos al subespacio generado de S simplemente como “el generado de S.
  2. b) Decimos que S es un conjunto generador de V si \text{span}(S)=V.

En otras palabras, un subconjunto S de V es generador cuando cualquier elemento de V se puede escribir como una combinación lineal de elementos de S.

Ejemplos.

  1. Considera el espacio vectorial \mathbb{R}^3 y el conjunto

        \begin{align*}e_1=\begin{pmatrix}1\\0\\0\end{pmatrix}, \hspace{2mm} e_2=\begin{pmatrix}0\\1\\0\end{pmatrix}, \hspace{2mm} e_3=\begin{pmatrix}0\\0\\1\end{pmatrix}.\end{align*}


    Entonces e_1,e_2,e_3 forma un conjunto generador de \mathbb{R}^3, pues cada vector X=\begin{pmatrix}x\\y\\z\end{pmatrix} se puede escribir como X=xe_1+ye_2+ze_3. Sin embargo, el conjunto conformado por únicamente e_2 y e_3 no es generador pues, por ejemplo, el vector (1,1,1) no puede ser escrito como combinación lineal de ellos.
  2. Sea \mathbb{R}_n[x] el espacio de los polinomios con coeficientes reales y de grado a los más n. La familia 1,x,\dots, x^n es un conjunto generador.
  3. Considera el espacio M_{m,n}(F). Sea E_{ij} la matriz cuya entrada (i,j) es 1 y todas sus demás entradas son 0. Entonces la familia (E_{ij})_{1\leq i\leq m, 1\leq j \leq n} es un conjunto generador de V, pues cada matriz A=[a_{ij}] puede ser escrita como

        \begin{align*}A=\displaystyle\sum_{i=1}^m \displaystyle\sum_{j=1}^n a_{ij}E_{ij}.\end{align*}


    Este ejemplo lo discutimos anteriormente, cuando hablamos de matrices y sus operaciones.
  4. Para dar un ejemplo donde un conjunto generador consiste de una cantidad infinita de elementos, considera el espacio \mathbb{R}[x] de polinomios. En este caso, el conjunto \{x^i: i \geq 0\} de todas las potencias de x es un conjunto generador. Seria imposible tener un conjunto generador finito para \mathbb{R}[x] pues si ese conjunto es S y el grado máximo de un polinomio en S es M, entonces no podremos obtener al polinomio x^{M+1} como combinación lineal de elementos de S.

\square

Reducción gaussiana y conjuntos generadores

Cuando estamos en el espacio vectorial F^n, la reducción gaussiana también resulta muy útil a la hora de estudiar el subespacio generado por los ciertos vectores v_1,v_2,\dots, v_k. Considera la matriz A\in M_{k,n}(F) obtenida por poner como vectores fila a v_1,v_2,\dots, v_k en la base canónica de F^n . Hacer operaciones elementales sobre los renglones de A no altera el subespacio generado por sus renglones, de manera que \text{span}(v_1,\dots, v_k) es precisamente el subespacio generado los renglones de A_{red}. Esto nos da una manera más sencilla de entender a \text{span}(v_1, \dots, v_k).

Ejemplo. Considera los vectores v_1=(1,2,6),\hspace{2mm} v_2=(-1,3,2), \hspace{2mm}v_3=(0,5,8) en \mathbb{R}^3. Queremos encontrar una manera sencilla de expresar V=\text{span}(v_1,v_2,v_3).
Considera la matriz

    \begin{align*}A=\begin{pmatrix}1 & 2 & 6\\-1 & 3 & 2\\0 & 5 & 8\end{pmatrix}.\end{align*}


Aplicando el algortimo de reducción gaussiana (manualmente o con una calculadora online) llegamos a que

    \begin{align*}A_{red}=\begin{pmatrix}1 & 0 & \frac{14}{5}\\0 & 1 & \frac{8}{5}\\0 & 0 & 0\end{pmatrix}.\end{align*}


De manera que

    \begin{align*}V=\text{span}\left(\left(1,0,\frac{14}{5}\right),\left(0,1,\frac{8}{5}\right)\right).\end{align*}

Siendo más explícitos todavía, V es entonces el conjunto de vectores de \mathbb{R}^3 de la forma

    \[a\left(1,0,\frac{14}{5}\right)+b\left(0,1,\frac{8}{5}\right)=\left(a,b,\frac{14a+8b}{5}\right).\]

\square

Independencia lineal

Sean V un espacio vectorial sobre un campo F, v_1, \dots ,v_n\in V y v\in \text{span}(v_1, \dots, v_n). Por definición, existen escalares c_1,c_2, \dots , c_n en F tales que

    \begin{align*}v=c_1v_1+c_2v_2+\dots + c_nv_n.\end{align*}

No hay algo en la definición de subespacio generado que nos indique que los escalares deben ser únicos, y en muchas ocasiones no lo son.

Problema. Sean v_1,v_2,v_3 tres vectores en \mathbb{R}^n tales que 3v_1+v_2+v_3=0 y sea v=v_1+v_2-2v_3. Encuentra una infinidad de maneras de expresar a v como combinación lineal de v_1,v_2,v_3.

Solución. Sea \alpha \in \mathbb{R}. Multiplicando por \alpha la igualdad 3v_1+v_2+v_3=0 y sumando la igualdad v_1+v_2+v_3=v se sigue que

    \begin{align*}v=(3\alpha + 1)v_1 + (\alpha +1)v_2 + (\alpha - 2)v_3.\end{align*}


Así, para cada \alpha \in \mathbb{R} hay una manera diferente de expresar a v como combinación lineal de v_1,v_2,v_3.

\square

Supongamos ahora que el vector v puede ser escrito como v=a_1v_1+a_2v_2+ \dots + a_nv_n. Si b_1,b_2, \dots, b_n son otros escalares tales que v=b_1v_1+b_2v_2+ \dots + b_nv_n, entonces al restar la segunda relación de la primera obtenemos

    \begin{align*}0=(a_1-b_1)v_1+ (a_2-b_2)v_2+ \dots + (a_n-b_n)v_n.\end{align*}


De manera que podríamos concluir que los escalares a_1,a_2,\dots,a_n son únicos si la ecuación

    \begin{align*}z_1v_1+z_2v_2+ \dots + z_nv_n=0\end{align*}


implica z_1=z_2=\dots=z_n=0 (con z_1,\dots ,z_n\in F), pero este no siempre es el caso (ejemplo de ello es el problema anterior).

Los vectores v_1, v_2, \dots, v_n que tienen la propiedad de generar a los vectores en \text{span}(v_1,\ldots,v_n) de manera únicason de suma importancia en el álgebra lineal y merecen un nombre formal.

Definición. Sea V un espacio vectorial sobre el campo F.
a) Decimos que los vectores v_1,v_2, \dots, v_n\in V son linealmente dependientes si existe una relación

    \begin{align*}c_1v_1+c_2v_2+\dots+c_nv_n=0\end{align*}


para la cual c_1,c_2, \dots,c_n son escalares de F y alguno es distinto de cero.
b) Decimos que los vectores v_1,v_2, \dots, v_n\in V son linealmente independientes si no son linealmente dependientes, es decir, si la relación

    \begin{align*}a_1v_1+a_2v_2+\dots+a_nv_n=0\end{align*}


implica que a_1=a_2=\dots=a_n=0.

La discusión previa a la definición muestra que un vector en \text{span}(v_1,\ldots,v_n) puede ser escrito de manera única como combinación lineal de los vectores v_1,\ldots,v_n si y sólo si estos vectores son linealmente independientes.

Ejemplos de dependencia e independencia lineal

Ejemplo. Las matrices A=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 0 & 0 \end{pmatrix}, B=\begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \end{pmatrix} y C=\begin{pmatrix} 0 & 0 & 0 \\0 & 1 & 1 \end{pmatrix} son linealmente independientes en M_{2,3}(\mathbb{R}). Verifiquemos esto. Supongamos que hay una combinación lineal de ellas igual a cero, es decir, que existen reales a,b,c tales que aA+bB+cC=O_{2,3}. Obtenemos entonces que

    \[\begin{pmatrix} a+b & 0 & 0 \\ a+b & b+c & c \end{pmatrix} = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}.\]

De la entrada (2,3) obtenemos que c=0. Así, de la entrada (2,2) obtenemos que b=0 y consecuentemente, de la entrada (1,1) obtenemos que a=0. De esta forma, la única combinación lineal de las matrices A, B y C que da 0 es cuando los coeficientes son iguales a cero. Concluimos que A, B y C son linealmente independientes.

\square

Ejemplo. Considera el espacio vectorial V de funciones de [0,1] a \mathbb{R}. Demuestra que las funciones f(x)=\sin^2 (x), g(x) = 3\cos^2(x), m(x)=x^2 y h(x)=-5. Veremos que estas funciones son linealmente dependientes. Para ello, debemos encontrar reales a,b,c,d no todos ellos iguales a cero tales que

    \[af+bg+cm+dh=0,\]

es decir, tales que para todo x en el intervalo [0,1] se cumpla que

    \[a\sin^2(x) + 3b\cos^2(x) + cx^2 -5d = 0.\]

Proponemos a=1, b=\frac{1}{3}, c=0 y d=\frac{1}{5}. Notemos que con esta elección de coeficientes tenemos por la identidad pitagórica que

    \begin{align*}\sin^2(x)+\cos^2(x) - 1 = 0.\end{align*}

Hemos encontrado coeficientes, no todos ellos iguales a cero, tales que una combinación lineal de las funciones es igual a la función cero. Concluimos que las funciones son linealmente dependientes.

\square

Reducción gaussiana e independencia lineal

Ahora estudiaremos una técnica para estudiar la independencia lineal. Esta nos permitirá determinar si dados algunos vectores v_1,v_2\dots,v_k\in F^n, estos son linealmente independientes. Veamos que este problema puede ser resuelto de manera sencilla por medio de un algoritmo. En efecto, necesitamos saber si podemos encontrar x_1, \dots, x_k\in F no todos iguales a 0 y tales que

    \begin{align*}x_1v_1+\dots+x_nv_n=0.\end{align*}

Sea A de n\times k la matriz cuyas columnas están dadas por los vectores v_1, \dots, v_k. Entonces la relación anterior es equivalente al sistema AX=0, donde X es el vector columna con coordenadas x_1, \dots, x_k.Por lo tanto los vectores v_1, \dots, v_k son linealmente independientes si y sólo si el sistema homogéneo AX=0 únicamente tiene a la solución trivial.

Como ya vimos anteriormente, este problema se puede resolver mediante el algoritmo de reducción gaussiana: Sea A_{red} la forma escalonada reducida de A. Si existe un pivote en cada columna de A_{red}, entonces no hay variables libres y la solución al sistema únicamente es el vector cero. Así, v_1,\dots, v_k son linealmente independientes. De lo contrario son linealmente dependientes. Siguiendo este procedimiento, es posible resolver el problema original de manera algorítimica.

Otra cosa importante que podemos deducir a partir de este análisis es que como un sistema lineal homogéneo con más variables que ecuaciones siempre tiene una solución no trivial, entonces si tenemos más de n vectores en F^n, estos nunca serán linealmente independientes.

Problema. Considera los vectores

    \begin{align*}v_1&=(1,2,3,4,5)\\v_2&=(2,3,4,5,1)\\v_3&=(1,3,5,7,9)\\v_4&=(3,5,7,9,1)\end{align*}

en \mathbb{R}^5. ¿Son linealmente independientes? Si la respuesta es negativa, da una relación no trivial de dependencia lineal entre estos vectores.

Solución. Consideremos la matriz cuyas columnas son los vectores v_1, \dots, v_4

    \begin{align*}A=\begin{pmatrix}1 & 2 & 1 & 3\\2 & 3 & 3 & 5\\3 & 4 & 5 & 7\\4 & 5 & 7 & 9\\5 & 1 & 9 & 1\end{pmatrix}.\end{align*}


Aplicando reducción gaussiana obtenemos

    \begin{align*}A_{red}=\begin{pmatrix}1 & 0 & 0 & -2\\0& 1 & 0 & 2\\ 0&0 & 1 & 1\\0 &0 & 0 & 0\\0& 0 & 0 & 0\end{pmatrix}.\end{align*}

Como no hay pivote en la última columna, ésta corresponde a una variable libre. Así, habrá por lo menos una solución no trivial y entonces los vectores v_1,v_2,v_3,v_4 son linealmente dependientes.

Para encontrar la relación no trivial de dependencia lineal resolvemos el sistema AX=0, el cual es equivalente al sistema A_{red}X=0. De la matriz anterior obtenemos las siguientes igualdades

    \begin{align*}x_1=2x_4, \hspace{3mm}, x_2=-2x_4, \hspace{3mm} x_3=-x_4.\end{align*}


Tomando x_4=1 (de hecho podemos asignarle cualquier valor distinto de cero), obtenemos la relación de dependencia lineal

    \begin{align*}2v_1-2v_2-v_3+v_4=0.\end{align*}

\square

Hagamos otro problema en el que la técnica anterior nos ayuda a estudiar la independencia lineal.

Problema. Demuestra que los vectores

    \begin{align*}v_1=(2,1,3,1), \hspace{2mm} v_2=(-1,0,1,2), \hspace{2mm} v_3=(3,2,7,4), \hspace{2mm} v_4=(1,2,0,-1), \hspace{2mm}\end{align*}


son linealmente dependientes y encuentra tres de ellos que sean linealmente independientes.

Solución. Sea A la matriz cuyas columnas son los vectores v_1, \dots , v_4

    \begin{align*}A=\begin{pmatrix}2 & -1 & 3 & 1\\1 & 0 & 2 & 2\\3 & 1 & 7 & 0\\1 & 2 & 4 & -1\end{pmatrix}.\end{align*}

Aplicando reducción gaussiana obtenemos

    \begin{align*}A_{red}=\begin{pmatrix}1 & 0 & 2 & 0\\0& 1 & 1 & 0\\0&0 & 0 & 1\\0 &0 & 0 & 0\end{pmatrix}.\end{align*}


Como la tercera columna de A_{red} no tiene al pivote de ninguna fila, deducimos que los cuatro vectores son linealmente dependientes.

Si eliminamos la tercera columna, entonces la matriz que queda es la forma escalonada reducida correspondiente al conjunto \{v_1,v_2,v_4\}. Como esta matriz sí tiene pivotes de filas en cada columna, concluimos que este es un conjunto de vectores linealmente independientes.

\square

Independencia lineal de conjuntos infinitos

Hasta este momento hemos trabajado únicamente con familias finitas de vectores, así que es natural preguntarse qué procede con las familias infinitas. Con la definición que tenemos, si tomamos una familia infinita de vectores (v_i)_{i\in I} no podríamos darle algún significado a la suma infinita \displaystyle\sum_{i\in I}c_iv_i para cualquier toda elección de escalares c_i, pues en espacios vectoriales no está en general definido cómo hacer una suma infinita. Sin embargo, si todos salvo una cantidad finita de escalares son 0, entonces la suma anterior sería una suma finita y ya tendría sentido.

De esta manera, podemos extender la definición como sigue.

Definición. La familia (v_i)_{i\in I} es linealmente dependiente si existe una familia de escalares (c_i)_{i\in I} tales que todos salvo una cantidad finita de ellos son cero, pero al menos uno no es cero y que \displaystyle\sum_{i\in I}c_iv_i=0.

De manera equivalente y para simplificar el razonamiento anterior podemos decir que una familia arbitraria de vectores es linealmente dependiente si tiene una subfamilia finita linealmente dependiente. Una familia de vectores es linealmente independiente si toda subfamilia finita es linealmente independiente. Por lo tanto, un conjunto L (posiblemente infinito) es linealmente independiente si dados elementos distintos l_1,\dots, l_n\in L y escalares a_1,a_2,\dots, a_n con a_1l_1+a_2l_2+\dots+ a_nl_n=0, entonces a_1=a_2=\dots=a_n=0.

Observación. a) Una subfamilia de una familia linealmente independiente es linealmente independiente. En efecto, sea (v_i)_{i\in I} una familia linealmente independiente y sea J\subset I. Supongamos que (v_i)_{i\in J} es linealmente dependiente. Entonces existe una subfamilia finita linealmente dependiente v_{i_1}, \dots, v_{i_n} con i_1, \dots,i_n\in J, pero i_1, \dots,i_n\in I, entonces v_{i_1}, \dots, v_{i_n} es una subfamilia finita y linealmente dependiente de una familia linealmente independiente lo cual es una contradicción.
b) Si dos vectores de una familia son iguales, entonces automáticamente la familia es linealmente dependiente.

\square

Más adelante veremos ejemplos de generadores y de independencia lineal con familias infinitas de vectores.

Una relación entre independencia lineal y generados

Podemos relacionar las nociones de subespacio generado y de independencia lineal con la siguiente proposición. Básicamente nos dice que un conjunto \{v_1, \dots, v_n\} es linealmente dependiente si y sólo si alguno sus elementos se puede expresar como combinación lineal de los demás.

Es importante mencionar que usamos la palabra “conjunto” y no “familia”, puesto que con la primera nos referimos a que los vectores son distintos dos a dos, mientras que con la segunda sí pueden haber repeticiones.

Proposición. Sea S un conjunto de vectores en algún espacio vectorial V. Entonces S es linealmente dependiente si y sólo si existe v\in S tal que v\in \text{span}(S\backslash \{v\}).

Demostración. Supongamos que S es linealmente dependiente. Entonces existe una cantidad finita de vectores v_1,v_2, \dots , v_n\in S y algunos escalares a_1,a_2, \dots, a_n no todos iguales a 0, tales que

    \begin{align*}a_1v_1+a_2v_2+ \dots + a_nv_n=0.\end{align*}


Notemos que v_1,\dots , v_n son distintos dos a dos, pues estamos suponiendo que los elementos de S también lo son.

Como no todos los escalares son 0, existe i\in \{1,2,\dots, n\} tal que a_i\neq 0. Dividiendo la igualdad anterior entre a_i, obtenemos

    \begin{align*}\frac{a_1}{a_i}v_1+ \dots + \frac{a_{i-1}}{a_i}v_{i-1}+ v_i+ \frac{a_{i+1}}{a_i}v_{i+1}+ \dots + \frac{a_n}{a_i}v_n=0,\end{align*}


por consiguiente

    \begin{align*}v_i=-\frac{a_1}{a_i}v_1- \dots - \frac{a_{i-1}}{a_i}v_{i-1}-\frac{a_{i+1}}{a_i}v_{i+1}-\dots - \frac{a_n}{a_i}v_n.\end{align*}

De lo anterior se sigue que v_i pertenece al generado de v_1, \dots , v_{i-1}, v_{i+1}, \dots , v_n, el cual está contenido en \text{span}(S \backslash \{v_i\}), pues \{v_1, \dots , v_{i-1}, v_{i+1}, \dots , v_n\}\subset S\backslash \{v_i\}. Esto prueba una implicación.

Para la otra implicación, supongamos que existe v\in S tal que v\in \text{span}(S\backslash \{v\}). Esto significa que existen v_1,v_2, \dots, v_n\in S\backslash \{v\} y escalares a_1,a_2,\dots ,a_n tales que

    \begin{align*}v=a_1v_1+a_2v_2+\dots+a_nv_n.\end{align*}


Pero entonces

    \begin{align*}1\cdot v + (-a_1)v_1+ \dots + (-a_n)v_n=0\end{align*}


y los vectores v,v_1,\dots , v_n son linealmente dependientes pues por lo menos el primer coeficiente es distinto de cero. Como v no está en \{v_1, \ldots, v_n\}, se sigue que S tiene un subconjunto finito que es linealmente dependiente y por lo tanto S también lo es.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Decide si el conjunto con las matrices \begin{pmatrix} 0 & 1 \\ 0 & 0\end{pmatrix}, \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}, \begin{pmatrix} 0 & 1 \\ 1 & 1\end{pmatrix} y \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} es un conjunto generador de M_2(\mathbb{R}).
  • Sean S_1 y S_2 subconjuntos de un subespacio vectorial V tales que S_1\subset S_2. Demuestra que \text{span}(S_1)\subset \text{span}(S_2). Concluye que si S_1 es generador, entonces S_2 también lo es
  • Demuestra la observación b).
  • Da un conjunto de 3 vectores de \mathbb{R}^3 linealmente independientes y tales que ninguna de sus entradas es 0. Haz lo mismo para linealmente dependientes.
  • Sean f,g:\mathbb{R}\longrightarrow \mathbb{R} funciones definidas por

        \begin{align*}f(t)=e^{rt}, \hspace{4mm} g(t)=e^{st}\end{align*}


    con r\neq s. Demuestra que f y g son linealmente independientes en \mathcal{F}(\mathbb{R},\mathbb{R}), el espacio de las funciones de los reales en los reales.

Más adelante…

Aquí ya hablamos de conjuntos generadores y de linealmente independientes. La entrada teórica que sigue es crucial y en ella se verá y formalizará la intuición de que los conjuntos generadores deben ser “grandes”, mientras que los independientes deben ser “chicos”. El resultado clave es el lema de intercambio de Steinitz.

Cuando un conjunto de vectores es tanto generador, como linealmente independiente, está en un equilibrio que ayuda a describir una propiedad muy importante de un espacio vectorial: la de dimensión.

Entradas relacionadas

Álgebra Lineal I: Introducción al curso, vectores y matrices

Introducción

Esta es la primer entrada correspondiente a las notas del curso Álgebra Lineal I. En esta serie de entradas, cubriremos todo el temario correspondiente al plan de estudios de la materia en la Facultad de Ciencias de la UNAM. Las notas están basadas fuertemente en el libro Essential Lineal Algebra with Applications de Titu Andreescu.

El curso se trata, muy a grandes rasgos, de definir espacios vectoriales y estudiar muchas de sus propiedades. Un espacio vectorial con el que tal vez estés familiarizado es \mathbb{R}^n, donde sus elementos son vectores con n entradas. En él se pueden hacer sumas entrada a entrada, por ejemplo, si n=3 una suma sería

    \begin{align*}(5,-1,2)+(1,4,9)=(6,3,11).\end{align*}

También se puede multiplicar un vector por un número real, haciéndolo entrada a entrada, por ejemplo,

    \begin{align*}3(1,5,-2,6)=(3,15,-6,18).\end{align*}

El álgebra lineal estudia espacios vectoriales más generales que simplemente \mathbb{R}^n. Como veremos más adelante, hay muchos objetos matemáticos en los que se puede definir una suma y un producto escalar. Algunos ejemplos son los polinomios, ciertas familias de funciones y sucesiones. La ventaja de estudiar estos espacios desde el punto de vista del álgebra lineal es que todas las propiedades que probemos “en general”, se valdran para todos y cada uno de estos ejemplos.

Lo que haremos en la primer unidad del curso es entender muy a profundidad a F^n, una generalización de \mathbb{R}^n en la que usamos un campo arbitrario F. También, entenderemos a las matrices en M_{m,n}(F), que son arreglos rectangulares con entradas en F. La unidad culmina con estudiar sistemas de ecuaciones lineales y el método de reducción Gaussiana.

Más adelante veremos que estudiar estos conceptos primero es muy buena idea pues los espacios vectoriales más generales tienen muchas de las propiedades de F^n, y podemos entender a ciertas transformaciones entre ellos al entender a M_{m,n}(F).

Breve comentario sobre campos

En este curso no nos enfocaremos en estudiar a profundidad las propiedades que tienen los campos como estructuras algebraicas. De manera pragmática, pensaremos que un campo F consiste de elementos que se pueden sumar y multiplicar bajo propiedades bonitas:

  • La suma y el producto son asociativas, conmutativas, tienen neutro (que llamaremos 0 y 1 respectivamente y tienen inversos (i.e. se vale “restar” y “dividir”)
  • La suma y producto satisfacen la regla distributiva

De hecho, de manera muy práctica, únicamente usaremos a los campos \mathbb{Q} de racionales, \mathbb{R} de reales, \mathbb{C} de complejos y \mathbb{F}_2, el campo de dos elementos 0 y 1. Este último sólo lo usaremos para observar que hay algunas sutilezas cuando usamos campos con una cantidad finita de elementos.

Para todos estos campos, supondremos que sabes cómo se suman y multiplican elementos. Si necesitas dar un repaso a estos temas, puedes echarle un ojo a las entradas del curso Álgebra Superior II, que también están aquí en el blog.

Nociones iniciales de álgebra lineal: escalares, vectores y matrices

Quizás te has encontrado con vectores y matrices en otros cursos. Por ejemplo, en geometría analítica es usual identificar a un vector (x,y) con un punto en el plano cartesiano, o bien con una “flecha” que va del origen a ese punto. En álgebra lineal nos olvidaremos de esta interpretación por mucho tiempo. Será hasta unidades posterioresque tocaremos el tema de geometría de espacios vectoriales. Por el momento, sólo nos importan los vectores desde el punto de vista algebraico.

Tomemos un campo F. A los elementos de F les llamaremos escalares. Para un entero positivo n, un vector X en F^n consiste de un arreglo de n entradas a_1,a_2,\ldots,a_n que pueden estar dispuestas en un vector fila

    \[X=(a_1, a_2,\ldots, a_n),\]

o bien un vector columna

    \[X=\begin{pmatrix}a_1 \\ a_2 \\ \vdots \\ a_n\end{pmatrix}.\]

Para i=1,\ldots,n, a a_i le llamamos la i-ésima coordenada o i-ésima entrada de X.

Como vectores, puedes pensar que el vector fila y el vector columna correspondientes son el mismo. Abajo veremos en qué sentido tenemos que pensarlos como diferentes. Aunque como vectores sean los mismos, los vectores columna tienen varias ventajas conceptuales en álgebra lineal.

Ejemplo. El vector

    \[X=\left(\frac{1}{2}, -1, \frac{2}{3}, 4\right).\]

tiene cuatro entradas, y todas ellas son números racionales. Por lo tanto, es un vector en \mathbb{Q}^4. Su primer entrada es \frac{1}{2}. Está escrito como vector fila, pero podríamos escribirlo también como vector columna:

    \[\begin{pmatrix} \frac{1}{2} \\ -1 \\ \frac{2}{3} \\ 4 \end{pmatrix}.\]

El vector

    \[Y=\left(\pi, \frac{3}{4}, 5, 6, \sqrt{2}\right)\]

es un vector fila en \mathbb{R}^5, pero no en \mathbb{Q}^5, pues no todas sus entradas son racionales. A Y también lo podemos pensar como un vector en \mathbb{C}.

\square

Una matriz en M_{m,n}(F) es un arreglo rectangular de elementos en F dispuestos en m filas y n columnas como sigue:

    \[A=\begin{pmatrix}a_{11} & a_{12} & a_{13} & \cdots & a_{1n}\\a_{21} & a_{22} & a_{23} & \cdots & a_{2n}\\$\vdots & & \ddots & \vdots \\a_{m1} & a_{m2} & a_{m3} & \cdots & a_{mn}\end{pmatrix}.\]

Al escalar a_{ij} le llamamos la entrada (i,j) de A.

Para cada i=1,\ldots,m, definimos a la i-ésima fila de A como el vector fila

    \[L_i=(a_{i1},a_{i2},\ldots,a_{in}),\]

y para cada j=1,2,\ldots,n definimos a la j-ésima columna de A como el vector columna

    \[C_j=\begin{pmatrix} a_{1j} \\ a_{2j} \\ \vdots \\ a_{mj}\end{pmatrix}.\]

Veamos algunas aclaraciones de notación. Cuando m=n, las matrices en M_{m,n}(F) tienen la misma cantidad de filas que de columnas. En este caso simplemente usamos la notación M_{n}(F) para ahorrarnos una letra, y si una matriz está en M_{n}(F), le llamamos una matriz cuadrada. También, ocasiones expresamos a una matriz en forma compacta diciendo cuántas filas y columnas tiene y usando la notación A=[a_{ij}].

Ejemplo. Consideremos la matriz A en M_3(\mathbb{R}) dada por A=[a_{ij}]=[i+2j]. Si queremos poner a A de manera explícita, simplemente usamos la fórmula en cada una de sus entradas:

    \begin{align*}A=\begin{pmatrix}a_{11} & a_{12} & a_{13}\\a_{21} & a_{22} & a_{23}\\a_{31} & a_{32} & a_{33}\\\end{pmatrix}&=\begin{pmatrix}1+2\cdot 1 & 1+2\cdot 2 & 1+2\cdot 3\\2+2\cdot 1 & 2+2\cdot 2 & 2+2\cdot 3\\3+2\cdot 1 & 3+2\cdot 2 & 3+2\cdot 3\\\end{pmatrix}\\&=\begin{pmatrix}3 & 5 & 7\\4 & 6 & 8\\5 & 7 & 9\\\end{pmatrix}\end{align*}

Esta es una matriz cuadrada. Sin embargo, la matriz B en M_{3,2}(\mathbb{R}) con la misma regla B=[b_{ij}]=[i+2j] no es una matriz cuadrada pues es

    \begin{align*}B=\begin{pmatrix}a_{11} & a_{12} \\a_{21} & a_{22} \\a_{31} & a_{32} \\\end{pmatrix}&=\begin{pmatrix}1+2\cdot 1 & 1+2\cdot 2\\2+2\cdot 1 & 2+2\cdot 2\\3+2\cdot 1 & 3+2\cdot 2\\\end{pmatrix}\\&=\begin{pmatrix}3 & 5 \\4 & 6 \\5 & 7 \\\end{pmatrix},\end{align*}

la cual es una matriz con 3 filas y 2 columnas.

\square

Cualquier vector fila en F^n lo podemos pensar como una matriz en M_{1n}(F) y cualquier vector columna en F^n lo podemos pensar como una matriz en M_{n1}(F). En este sentido estos dos vectores sí serían distintos. Usualmente será claro si se necesita o no hacer la distinción.

Para que dos vectores o dos matrices sean iguales, tienen que serlo coordenada a coordenada.

Vectores y matrices especiales

Al vector en F^n con todas sus entradas iguales al cero del campo F le llamamos el vector cero y lo denotamos con 0. El contexto nos ayuda a decidir si estamos hablando del escalar cero (el neutro aditivo del campo F) o del vector cero.

De manera similar, a la matriz en M_{m,n} con todas sus entradas iguales al cero del campo F le llamamos la matriz cero y la denotamos con O_{m,n}. Si m=n, la llamamos simplemente O_n.

Otra matriz especial que nos encontraremos frecuentemente es la matriz identidad. Para cada n, es la matriz I_n en M_n(F) tal que cada entrada de la forma a_{ii} es igual a uno (el neutro multiplicativo de F) y el resto de sus entradas son iguales a 0.

Cuando estamos trabajando en M_n(F), es decir, con matrices cuadradas, hay otras familias de matrices que nos encontraremos frecuentemente. Una matriz A=[a_{ij}] en M_{n}(F):

  • Es diagonal si cuando i\neq j, entonces a_{ij}=0.
  • Es triangular superior si cuando i>j, entonces a_{ij}=0.
  • Y es triangular inferior si cuando i<j entonces a_{ij}=0.

A las entradas de la forma a_{ii} se les conoce como las entradas de la diagonal principal de la matriz. En otras palabras, A es diagonal cuando sus únicas entradas no cero están en la diagonal principal. Es triangular superior cuando sus entradas por debajo de la diagonal principal son iguales a cero. Y de manera similar, es triangular inferior cuando sus entradas por encima de la diagonal principal son iguales a cero.

Ejemplo. La matriz O_{3,2} de M_{3,2}(\mathbb{Q}) es la siguiente

    \[O_{3,2}=\begin{pmatrix}0 & 0 \\ 0& 0 \\ 0 & 0 \\\end{pmatrix}\]

La matriz I_4 de M_{4}(F) es la siguiente

    \[I_4=\begin{pmatrix}1 & 0 & 0 & 0\\ 0 & 1 & 0 & 0\\ 0 & 0 & 1 & 0\\ 0 & 0 & 0 & 1\end{pmatrix}.\]

Esta matriz identidad es diagonal, triangular superior y triangular inferior. Una matriz diagonal distinta a la identidad podría ser la siguiente matriz en M_3(\mathbb{Q}):

    \[\begin{pmatrix}1 & 0 & 0 \\ 0 & -\frac{1}{2} & 0 \\ 0 & 0 & \frac{1}{3} \\\end{pmatrix}.\]

Una matriz que es triangular superior, pero que no es diagonal (ni triangular inferior), podría ser la siguiente matriz en M_4(\mathbb{R}):

    \[\begin{pmatrix}1 & \sqrt{2} & 2 & \sqrt{5}\\ 0 & 1 & \sqrt{3} & 0\\ 0& 0 & 1 & \sqrt{2}\\ 0 & 0 & 0 & 1\end{pmatrix}.\]

\square

Operaciones de vectores y matrices

Si tenemos dos matrices A=[a_{ij}] y B=[b_{ij}] en M_{m,n}(F), entonces podemos definir a la matriz suma A+B como la matriz cuyas entradas son [a_{ij}+b_{ij}], es decir, se realiza la suma (del campo F) entrada por entrada.

Ejemplo. Si queremos sumar a las matrices A y B en M_{4}(\mathbb{R}) dadas por

    \[A=\begin{pmatrix}1 & \sqrt{2} & 2 & \sqrt{5}\\ 0 & 1 & \sqrt{3} & 2\\  0& 0 & 1 & \sqrt{2}\\ 0 & 0 & 0 & 1\end{pmatrix}.\]

y

    \[B=\begin{pmatrix}1 & 1 & -1 & -3\\ 0 & 1 & 1 & -2\\ 0& 0 & 1 & 1\\ 0 & 0 & 0 & 1\end{pmatrix},\]

entonces hacemos la suma entrada por entrada para obtener:

    \[A+B=\begin{pmatrix}2 & 1+\sqrt{2} & 1 & -3+\sqrt{5}\\ 0 & 2 & 1+\sqrt{3} & 0\\ 0 & 0 & 2 & 1+\sqrt{2}\\ 0 & 0 & 0 & 2\end{pmatrix}.\]

\square

Es muy importante que las dos matrices tengan la misma cantidad de filas y renglones. Insistiendo: si no coinciden la cantidad de filas o de columnas, entonces las matrices no se pueden sumar.

Si tenemos una matriz A=[a_{ij}] en M_{m,n}(F) y un escalar c en F, podemos definir el producto escalar de A por c como la matriz cA=[ca_{ij}], es decir, aquella que se obtiene al multiplicar cada una de las entradas de A por el escalar c (usando la multiplicación del campo F).

Ejemplo. Al tomar la siguiente matriz en M_{2}(\mathbb{C})

    \[A=\begin{pmatrix} 1 & i \\ -i & 1 \end{pmatrix}\]

y el escalar i en \mathbb{C}, se tiene que

    \[iA=\begin{pmatrix} i\cdot 1 &i\cdot i \\ i\cdot (-i) & i\cdot 1\end{pmatrix} = \begin{pmatrix} i & -1 \\ 1 & i \end{pmatrix}.\]

\square

Dada una matriz A, a la matriz (-1)A le llamamos simplemente -A, y definimos A-B:=A+(-B).

Como todo vector en F^n se puede pensar como una matriz, estas operaciones también se pueden definir para vectores para obtener la suma de vectores y la producto escalar en vectores.

En álgebra lineal frecuentemente hablaremos de escalares, vectores y matrices simultáneamente. Cada que veas una una variable es importante que te preguntes de cuál de estos tipos de objeto es. También, cada que veas una operación (por ejemplo, una suma), es importante preguntarte si es una suma de escalares, vectores o matrices.

Muchas de las buenas propiedades de las operaciones de suma y producto en el campo F también se cumplen para estas definiciones de suma y producto escalar de vectores y matrices.

Teorema. Sean A,B,C matrices en M_{m,n}(F) y \alpha,\beta,\gamma escalares en F. Entonces la suma de matrices:

  • Es asociativa: (A+B)+C = A+(B+C)
  • Es conmutativa: A+B=B+A
  • Tiene neutro: A+O_{m,n}=A=O_{m,n}+A
  • Tiene inversos: A+(-A)=O_{m,n}=(-A)+A

Además,

  • La suma de escalares y el producto escalar se distribuyen: (\alpha+\beta)A=\alpha A + \beta A
  • La suma de matrices y el producto escalar se distribuyen: \alpha(A+B)=\alpha A + \alpha B
  • El producto escalar es homogéneo: \alpha(\beta A) = (\alpha \beta) A
  • El 1 es neutral para el producto escalar: 1A = A

Un teorema análogo se vale al cambiar matrices por vectores. La demostración de este teorema se sigue directamente de las propiedades del campo F. La notación de entradas nos ayuda mucha a escribir una demostración sin tener que escribir demasiadas entradas una por una. Veamos, como ejemplo, la demostración de la primera propiedad.

Demostración. Tomemos matrices A=[a_{ij}], B=[b_{ij}] y C=[c_{ij}] en M_{m,n}(F). Para mostrar que

    \[(A+B)+C=A+(B+C),\]

tenemos que mostrar que la entrada (i,j) del lado izquierdo es igual a la entrada (i,j) del lado derecho para cada i=1,\ldots,m y j=1,\ldots,n.

Por definición de suma, A+B=[a_{ij}]+[b_{ij}]=[a_{ij}+b_{ij}]. Por ello, y de nuevo por definicón de suma,

    \[(A+B)+C=[(a_{ij}+b_{ij})+c_{ij}].\]

De manera similar,

    \[A+(B+C)=[a_{ij}+(b_{ij}+c_{ij})].\]

Pero en F la suma es asociativa, de modo que

    \[(a_{ij}+b_{ij})+c_{ij}=a_{ij}+(b_{ij}+c_{ij}).\]

Con esto hemos demostrado que (A+B)+C y A+(B+C) son iguales entrada a entrada, y por lo tanto son iguales como matrices.

\square

La receta para demostrar el resto de las propiedades es la misma:

  1. Usar la definición de suma o producto por escalares para saber cómo es la entrada (i,j) del lado izquierdo y del lado derecho.
  2. Usar las propiedades del campo F para concluir que las entradas son iguales.
  3. Concluir que las matrices son iguales.

Para practicar las definiciones y esta técnica, la demostración del resto de las propiedades queda como tarea moral. A partir de ahora usaremos todas estas propiedades frecuentemente, así que es importante que las tengas en cuenta.

Base canónica de vectores y matrices

Cuando estamos trabajando en F^n, al vector e_i tal que su i-ésima entrada es 1 y el resto son 0 lo llamamos el i-ésimo vector de la base canónica. Al conjunto de vectores \{e_1,\ldots,e_n\} le llamamos la base canónica de F^n.

De manera similar, cuando estamos trabajando en M_{m,n}(F), para cada i=1,\ldots,m y j=1,\ldots,n, la matriz E_{ij} tal que su entrada (i,j) es 1 y todas las otras entradas son cero se le conoce como la matriz (i,j) de la base canónica. Al conjunto de todas estas matrices E_{ij} le llamamos la base canónica de M_{m,n}(F).

Ejemplo. El vector e_2 de F^3 es (0,1,0). Ten cuidado, pues este es distinto al vector e_2 de F^5, que es (0,1,0,0,0).

La matriz E_{12} de M_{2,3}(\mathbb{R}) es

    \[\begin{pmatrix} 0 &  1 & 0\\ 0 & 0 & 0 \end{pmatrix}.\]

\square

Más adelante veremos el concepto de base en general, cuando hablemos de espacios vectoriales. Por el momento, la intuición para álgebra lineal es que una base es un conjunto que nos ayuda a generar elementos que nos interesan mediante sumas y productos escalares. Los siguientes resultados dan una intuición inicial de este fenómeno.

Teorema. Todo vector X en F^n se puede escribir de manera única de la forma

    \[X=x_1e_1+x_2e_2+\ldots+x_ne_n,\]

en donde x_1,\ldots,x_n son escalares en F y \{e_1,\ldots,e_n\} es la base canónica.

Demostración. Si X es un vector en F^n, entonces es de la forma X=(x_1,x_2,\ldots,x_n). Afirmamos que las coordenadas de X son los x_i buscados.

En efecto, tomemos una i=1,\ldots,n. Como e_i tiene 1 en la i-ésima entrada y 0 en el resto, entonces x_ie_i es el vector con x_i en la i-ésima entrada y 0 en el resto. De esta forma, sumando entrada a entrada, tenemos

    \begin{align*}x_1e_1+x_2e_2+\ldots+x_ne_n&=\begin{pmatrix} x_1 \\ 0 \\ 0 \\ \vdots \\ 0 \end{pmatrix} + \begin{pmatrix} 0 \\ x_2 \\ 0 \\ \vdots \\ 0 \end{pmatrix} + \ldots + \begin{pmatrix} 0\\ 0 \\ 0 \\ \vdots \\ x_n \end{pmatrix}\\&=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \end{pmatrix}=X.\end{align*}

Esto muestra la existencia.

Para demostrar la unicidad, un argumento análogo muestra que si tenemos otros escalares y_1,\ldots,y_n que cumplan, entonces:

    \[\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_n \end{pmatrix}=X=y_1e_1+\ldots+y_ne_n=\begin{pmatrix} y_1 \\ y_2 \\ y_3 \\ \vdots \\ y_n \end{pmatrix},\]

de modo que x_i=y_i para todo i=1,\ldots,n.

\square

Tenemos un resultado análogo para matrices.

Teorema. Toda matriz A en M_{m,n}(F) se puede escribir de manera única de la forma

    \[A=\sum_{i=1}^m \sum_{j=1}^n x_{ij} E_{ij},\]

en donde para i=1,\ldots,m y j=1,\ldots,n, se tiene que x_{ij} son escalares en F y E_{ij} son las matrices de la base canónica.

La demostración es muy similar a la del teorema anterior y como práctica queda como tarea moral.

Ejemplo. La matriz

    \[A=\begin{pmatrix} 2 & 0\\ 0 & -1 \\ 3 & 5 \end{pmatrix}\]

en M_{3,2}(\mathbb{C}) se expresa de manera única en términos de la base canónica como

    \[A=2E_{11}-1E_{22}+3E_{31}+5E_{32}.\]

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Explica por qué no puedes sumar la matriz I_5 con la matriz O_4
  • Muestra que la suma de dos matrices diagonales es diagonal. Haz lo mismo para matrices triangulares superiores y para matrices triangulares inferiores.
  • Termina de demostrar el teorema de propiedades de las operaciones de suma y producto escalar.
  • Explica por qué si una matriz es simultáneamente triangular superior y triangular inferior, entonces es diagonal.
  • Expresa a la siguiente matriz como combinación lineal de matrices de la base canónica:

        \[\begin{pmatrix}2 & \frac{1}{2} & 0 & 1\\3 & -3 & 3 & -3\\7 & -8 & -1 & 0\end{pmatrix}.\]

  • Demuestra el teorema de representación de matrices en términos de la base canónica.

Más adelante…

En esta entrada dimos una breve introducción al álgebra lineal. Ya definimos la suma y el producto escalar para vectores y matrices. En la siguiente entrada hablaremos de otro producto que sucede en álgebra lineal: la de una matriz en M_{m,n}(F) por un vector en F^n. Veremos que esta multiplicación nos permite pensar a una matriz A como una función \varphi_A:F^n\to F^m con ciertas propiedades especiales.

Entradas relacionadas

Álgebra Lineal I: Bases duales, recetas y una matriz invertible

Introducción

En la entrada anterior definimos el espacio dual de un espacio vectorial V. Así mismo, definimos las formas coordenadas, que son formas lineales asociadas a una base B de V. Lo que hace la i-ésima forma coordenada en un vector v es “leer” el i-ésimo coeficiente de v expresado en la base B. Nos gustaría ver que estas formas coordenadas conforman bases del espacio dual.

Más concretamente, el objetivo de esta entrada es mostrar el teorema que enunciamos al final de la entrada anterior, hablar de problemas prácticos de bases duales y de mostrar un resultado interesante que relaciona bases, bases duales y la invertibilidad de una matriz.

Pequeño recordatorio

Como recordatorio, dada una base B=\{e_1,\ldots,e_n\} de un espacio vectorial V de dimensión finita n, podemos construir n formas coordenadas e_1^\ast,\ldots,e_n^\ast que quedan totalmente determinadas por lo que le hacen a los elementos de B y esto es, por definición, lo siguiente:

    \[ e_i^\ast(e_j)= \begin{cases} 1\quad \text{ si $i=j$,}\\ 0\quad \text{ si $i\neq j$.} \end{cases}\]

Recordemos también que dado un vector v en V podíamos construir a la forma lineal “evaluar en v“, que era la forma \text{ev}_v:V^\ast \to F dada por \text{ev}_v(f)=f(v). Como manda elementos de V^\ast a F, entonces pertenece a V^\ast ^\ast. A partir de esta definición, construimos la bidualidad canónica \iota:V\to V^\ast ^\ast que manda v a \text{ev}_v.

Finalmente, recordemos que dada una forma lineal l y un vector v, usamos la notación \langle l,v\rangle = l(v), y que esta notación es lineal en cada una de sus entradas. Todo esto lo puedes revisar a detalle en la entrada anterior.

El teorema de bases duales

El resultado que enunciamos previamente y que probaremos ahora es el siguiente.

Teorema. Sea V un espacio vectorial de dimensión finita n y B=\{e_1,\ldots,e_n\} una base de V. Entonces el conjunto de formas coordenadas B^\ast=\{e_1^\ast, \ldots,e_n^\ast\} es una base de V^\ast. En particular, V^\ast es de dimensión finita n. Además, la bidualidad canónica \iota:V\to V^\ast ^\ast es un isomorfismo de espacios vectoriales.

Antes de comenzar, convéncete de que cada una de las e_i^\ast son formas lineales, es decir, transformaciones lineales de V a F.

Demostración. Veremos que B^\ast=\{e_1^\ast,\ldots,e_n^\ast\} es un conjunto linealmente independiente y que genera a V^\ast. Veamos lo primero. Tomemos una combinación lineal igual a cero,

    \[z:=\alpha_1 e_1^\ast + \alpha_2 e_2^\ast+\ldots + \alpha_n e_n^\ast=0.\]

Para cada i=1,2,\ldots,n, podemos evaluar la forma lineal z en e_i.

Por un lado, z(e_i)=0, pues estamos suponiendo que la combinación lineal de e_i^\ast‘s es (la forma lineal) cero. Por otro lado, analizando término a término y usando que los e_i^\ast son la base dual, tenemos que si i\neq j entonces e_j^\ast(e_i) es cero, y si i=j, es 1.

Así que el único término que queda es \alpha_i e_i^\ast(e_i)=\alpha_i. Juntando ambas observaciones, \alpha_i=z(e_i)=0, de modo que todos los coeficientes de la combinación lineal son cero. Asi, B^\ast es linealmente independiente.

Ahora veremos que B^\ast genera a V^\ast. Tomemos una forma lineal arbitraria l, es decir, un elemento en V^\ast. Al evaluarla en e_1,e_2,\ldots,e_n obtenemos escalares

    \[\langle l, e_1\rangle,\langle l, e_2\rangle,\ldots,\langle l, e_n\rangle.\]

Afirmamos que estos son los coeficientes que nos ayudarán a poner a l como combinación lineal de elementos de B^\ast. En efecto, para cualquier vector v tenemos que

    \begin{align*}\left(\sum_{i=1}^{n} \langle l, e_i \rangle e_i^\ast\right)(v) &=  \sum_{i=1}^{n} \langle l, e_i \rangle \langle e_i^\ast, v \rangle \\&= \sum_{i=1}^{n} \langle l,  \langle e_i^\ast, v \rangle  e_i \rangle \\&=\left \langle l, \sum_{i=1}^n \langle e_i^\ast, v\rangle e_i \right \rangle\\&=\left \langle l, v \rangle\\&=\left l(v).\end{align*}

La primer igualdad es por la definición de suma de transformaciones lineales. En la segunda usamos la linealidad de la segunda entrada para meter el escalar \langle e_i^\ast , v\rangle. La siguiente es de nuevo por la linealidad de la segunda entrada. En la penúltima igualdad usamos que justo \langle e_i^\ast , v\rangle es el coeficiente que acompaña a e_i cuando escribimos a v con la base B. Esto muestra que B^\ast genera a V^\ast.

Así, B^\ast es base de V^\ast. Como B^\ast tiene n elementos, entonces V^\ast tiene dimensión n.

La última parte del teorema consiste en ver que \iota:V\to V^\ast ^\ast es un isomorfismo de espacios vectoriales. Por lo que acabamos de demostrar,

    \[\dim V = \dim V^\ast = \dim V^\ast ^\ast.\]

Así que basta con mostrar que \iota es inyectiva pues, de ser así, mandaría a una base de V a un conjunto linealmente independiente de V^{\ast \ast} con n elementos, que sabemos que es suficiente para que sea base. Como \iota es transformación lineal, basta mostrar que el único vector que se va a la forma lineal 0 de V^\ast es el 0 de V.

Supongamos que v es tal que \text{ev}_v=0. Vamos a mostrar que v=0. Si \text{ev}_v=0, en particular para las formas coordenadas e_i^\ast tenemos que \text{ev}_v(e_i^\ast)=0. En otras palabras, e_i^\ast(v)=0 para toda i. Es decir, todas las coordenadas de v en la base B son 0. Así, v=0. Con esto terminamos la prueba.

\square

La demostración anterior muestra cómo encontrar las coordenadas de una forma lineal l en términos de la base B^\ast: basta con evaluar l en los elementos de la base B. Recopilamos esto y la igualdad dual como una proposición aparte, pues resulta ser útil en varios contextos.

Proposición. Sea V un espacio vectorial de dimensión finita n, B=\{e_1,\ldots, e_n\} una base de V y B^\ast=\{e_1^\ast,\ldots,e_n^\ast\} la base dual. Entonces, para todo vector v en V y para toda forma lineal l:V\to F, tenemos que

    \begin{align*}v&=  \sum_{i=1}^n \langle e_i^\ast, v\rangle e_i \quad \text{ y }\\l&= \sum_{i=1}^{n} \langle l, e_i \rangle e_i^\ast.\end{align*}

La traza de una matriz en M_n(F) es la suma de las entradas en su diagonal principal. Es sencillo verificar que la función \text{tr}:M_n(F)\to F que manda a cada matriz a su traza es una forma lineal, es decir, un elemento de M_n(F)^\ast.

Ejemplo. Considera el espacio vectorial de matrices M_3(\mathbb{R}). Sea B=\{E_{ij}\} su base canónica. Expresa a la forma lineal traza en términos de la base dual B^\ast.

Solución. Tenemos que \text{tr}(E_{ii})=1 y que si i\neq j, entonces \text{tr}(E_{ij})=0. De esta forma, usando la fórmula de la proposición anterior,

    \begin{align*}\text{tr}&=\sum_{i,j} \text{tr}(E_{ij}) E_{ij}^\ast\\&=E_{11}^\ast + E_{22}^\ast + E_{33}^\ast.\end{align*}

Observa que, en efecto, esta igualdad es correcta. Lo que hace E_{ii}^\ast por definición es obtener la entrada a_{ii} de una matriz A=[a_{ij}].

La igualdad que encontramos dice que “para obtener la traza hay que extraer las entradas a_{11}, a_{22}, a_{33} de A y sumarlas”. En efecto, eso es justo lo que hace la traza.

\square

Algunos problemas prácticos de bases duales

Ya que introdujimos el concepto de espacio dual y de base dual, hay algunos problemas prácticos que puede que queramos resolver.

  • Dada una base v_1,\ldots,v_n de F^n, ¿cómo podemos encontrar a la base dual v_1^\ast, \ldots, v_n^\ast en términos de la base dual e_1^\ast, \ldots, e_n^\ast de la base canónica?
  • Dada una base L=\{l_1,\ldots, l_n\} de V^\ast, ¿es posible encontrar una base B de V tal que B^\ast = L? De ser así, ¿cómo encontramos esta base?

A continuación mencionamos cómo resolver ambos problemas. Las demostraciones se quedan como tarea moral. En la siguiente entrada veremos problemas ejemplo resueltos.

  • La receta para resolver el primer problema es poner a v_1,\ldots, v_n como vectores columna de una matriz A. Las coordenadas de v_1^\ast,\ldots, v_n^\ast en términos de la base e_1^\ast,\ldots,e_n^\ast están dados por las filas de la matriz A^{-1}.
  • La receta para resolver el segundo problema es tomar una base B'=\{e_1,\ldots, e_n\} cualquiera de V y considerar la matriz A con entradas A=[l_i(e_j)]. La matriz A^{-1} tiene como columnas a los vectores de coordenadas de la base B que buscamos con respecto a la base B'.

¿Por qué la matriz A de la segunda receta es invertible? Esto lo mostramos en la siguiente sección.

Un teorema de bases, bases duales e invertibilidad de matrices

La demostración del siguiente teorema usa varias ideas que hemos estado desarrollando con anterioridad. Usamos que:

  • Si V es de dimensión finita n y B es un conjunto de n vectores de V, entonces basta con que B sea linealmente independiente para ser base. Esto lo puedes repasar en la entrada del lema de intercambio de Steinitz.
  • Una matriz cuadrada A es invertible si y sólo si el sistema de ecuaciones AX=0 sólo tiene la solución trivial X=0. Esto lo puedes repasar en la entrada de equivalencias de matrices invertibles.
  • Una matriz cuadrada A es invertible si y sólo si su transpuesta lo es.
  • El hecho de que la bidualidad canónica \iota es un isomorfismo entre V y V^\ast ^\ast.

Teorema. Sea V un espacio vectorial de dimensión finita n sobre el campo F. Sea B=\{v_1,\ldots, v_n\} un conjunto de vectores en V y L=\{l_1,\ldots, l_n\} un conjunto de elementos de V^\ast, es decir, de formas lineales en V. Consideremos a la matriz A en M_n(F) dada por

    \[A=[l_i(v_j)].\]

La matriz A es invertible si y sólo si B es una base de V y L es una base de V^\ast.

Demostración. Mostraremos primero que si B no es base, entonces A no es invertible. Como B tiene n elementos y no es base, entonces no es linealmente independiente, así que existe una combinación lineal no trivial

    \[\alpha_1 v_1+\ldots+\alpha_n v_n=0.\]

De esta forma, si definimos v=(\alpha_1,\ldots, \alpha_n), este es un vector no cero, y además, la i-ésima entrada de Av es

    \[\alpha_1 l_i(v_1)+\ldots+\alpha_n l_i(v_n) = l_i(\alpha_1 v_1 + \ldots + \alpha_n v_n) = 0.\]

De este modo, AX=0 tiene una no solución trivial y por lo tanto no es invertible.

De manera similar, si L no es base, entonces hay una combinación lineal no trivial

    \[\beta_1 L_1 + \ldots + \beta_n L_n =0\]

y entonces el vector w=(\beta_1,\ldots,\beta_n) es una solución no trivial a la ecuación ^t A X=0, por lo que ^t A no es invertible, y por lo tanto A tampoco lo es.

Ahora veremos que si L y B son bases, entonces A es invertible. Si A no fuera invertible, entonces tendríamos una solución no trivial (\alpha_1,\ldots,\alpha_n) a la ecuación AX=0. Como vimos arriba, esto quiere decir que para cada i tenemos que

    \[l_i(\alpha_1 v_1 + \ldots + \alpha_n v_n) = 0.\]

Como l_i es base de V^\ast, esto implica que l(\alpha_1 v_1 + \ldots + \alpha_n v_n)=0 para toda forma lineal l, y como la bidualidad canónica es un isomorfismo, tenemos que

    \[\alpha_1 v_1 + \ldots + \alpha_n v_n=0.\]

Esto es imposible, pues es una combinación lineal no trivial de los elementos de B, que por ser base, son linealmente independientes.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Usa la definición de linealidad para ver que las formas coordenadas e_i^\ast en efecto son formas lineales.
  • Muestra que \iota:V \to V^\ast ^\ast, la bidualidad canónica, es una transformación lineal.
  • Justifica por qué la primer receta resuelve el primer problema práctico de bases duales.
  • Justifica por qué la segunda receta resuelve el segundo problema práctico de bases duales.
  • Sean a_0,a_1,\ldots,a_n reales distintos. Considera el espacio vectorial V=\mathbb{R}_n[x] de polinomios con coeficientes reales y grado a lo más n. Muestra que las funciones \text{ev}_{a_i}:V\to \mathbb{R} tales que \text{ev}_{a_i}(f)=f(a_i) son formas lineales linealmente independientes, y que por lo tanto son una base de V^\ast. Usa esta base, la base canónica de V y el teorema de la última sección para mostrar que la matriz

        \[\begin{pmatrix} 1 & a_0 & a_0 ^2 & \ldots & a_0^n\\ 1 & a_1 & a_1^2 & \ldots & a_1^n\\  1 & a_2 & a_2^2 & \ldots & a_2^n\\   & \vdots & & \ddots & \vdots \\  1 & a_n & a_n^2 & \ldots & a_n^n\end{pmatrix}\]

    es invertible.

Más adelante…

Esta entrada es un poco abstracta, pues habla de bastantes transformaciones aplicadas a transformaciones, y eso puede resultar un poco confuso. Se verán problemas para aterrizar estas ideas. La importancia de entenderlas y manejarlas correctamente es que serán de utilidad más adelante, cuando hablemos de los espacios ortogonales, de transposición de transformaciones lineales y de hiperplanos.

La teoría de dualidad también tiene amplias aplicaciones en otras áreas de las matemáticas. En cierto sentido, la dualidad que vemos aquí es también la que aparece en espacios proyectivos. Está fuertemente relacionada con la dualidad que aparece en teoremas importantes de optimización lineal, que permiten en ocasiones reformular un problema difícil en términos de uno más fácil, pero con el mismo punto óptimo.

Entradas relacionadas

Álgebra Lineal I: Cambio de base de transformaciones lineales

Introducción

En la entrada anterior definimos las matrices de cambio de base. Vimos algunas de sus propiedades básicas y mostramos cómo nos pueden ayudar para resolver el primero de los siguientes dos problemas.

  • Supongamos que tenemos dos bases B_1 y B_2 de un espacio vectorial V y que tomamos un vector v en V. Si ya sabemos la combinación lineal de elementos de B_1 que da v, ¿cómo podemos saber la combinación lineal de elementos de B_2 que da v? En otras palabras, ¿cómo podemos pasar a v de su expresión en base B_1 a su expresión en base B_2?
  • Supongamos que tenemos una transformación lineal T:V\to W entre dos espacios vectoriales V y W, dos bases B_1 y B_2 de V y dos bases C_1 y C_2 de W. Si ya sabemos qué le hace T a los elementos de V en términos de las bases B_1 y C_1, ¿cómo podemos saber qué hace T en términos de las bases B_2 y C_2?

El objetivo de esta entrada es ver cómo con las matrices de cambio de base también podemos resolver el segundo problema. Después de hacer esto, hablaremos de una noción fundamental en álgebra lineal: la de matrices similares.

Matrices de cambio de base y transformaciones lineales

Las matrices de cambios de base nos ayudan a entender a las matrices de transformaciones lineales en bases diferentes.

Teorema. Sea T:V\to W una transformación lineal entre espacios de dimensión finita V y W. Sean B_1 y B_2 bases de V, y C_1 y C_2 bases de W. Entonces

    \[\Mat_{C_2,B_2}(T) = \Mat_{C_2}(C_1)\Mat_{C_1,B_1}(T)\Mat_{B_1}(B_2).\]

Observa cómo la elección de orden en la notación está rindiendo fruto. En el lado derecho “van apareciendo las bases” en el “orden natural” C_2, C_1, B_1, B_2.

Demostración. Sean P=\Mat_{C_1}(C_2) y Q=\Mat_{B_1}(B_2). Por un resultado de la entrada anterior, P es la matriz que representa a la transformación identidad en W con respecto a las bases C_1 y C_2, es decir, P=\Mat_{C_1,C_2}(\text{id}_W).

Por cómo son las matrices de composiciones de transformaciones lineales, y usando que \text{id}_W\circ T=T, tenemos que

    \[\Mat_{C_1,C_2}(\text{id}_W)\Mat_{C_2,B_2}(T)=\Mat_{C_1,B_2}(T).\]

De manera análoga, Q es la matriz que representa a la transformación identidad en V con respecto a las bases B_1 y B_2, de donde tenemos que

    \[\Mat_{C_1,B_1}(T)\Mat_{B_1,B_2}(\text{id}_V)=\Mat_{C_1,B_2}(T).\]

De esta forma,

    \[P\Mat_{C_2,B_2}(T) = \Mat_{C_1,B_2}(T) = \Mat_{C_1,B_1}(T) Q.\]

El resultado se obtiene multiplicando por la izquierda ambos lados de esta ecuación por P^{-1}=\Mat_{C_2}(C_1).

\square

En la siguiente entrada se verán varios ejemplos que involucran crear matrices para transformaciones lineales, matrices de cambios de base y multiplicarlas para entender una transformación lineal en distintas bases.

Por el momento, dejamos únicamente un corolario del teorema anterior, para el caso en el que tenemos una transformación lineal de un espacio vectorial a sí mismo expresado en términos de dos bases.

Corolario. Sea T:V\to V una transformación lineal de un espacio vectorial V de dimensión finita a sí mismo. Sean B y B' bases de V y P la matriz de cambio de base de B a B'. Entonces

    \[\Mat_{B'}(T)=P^{-1}\Mat_{B}(T)P.\]

Matrices similares

Definición. Decimos que dos matrices A y B en M_{n}(F) son similares o conjugadas si existe una matriz invertible P en M_n(F) tal que B=P^{-1}AP.

En otras palabras, A y B son matrices similares si representan a una misma transformación lineal en diferentes bases.

Proposición. La relación “ser similares” es una relación de equivalencia en M_n(F).

Demostración. Toda matriz es similar a sí misma usando P=I_n, la identidad. Si A y B son similares con matriz invertible P, entonces B y A son similares con matriz invertible P^{-1}. Si A y B son similares con matriz invertible P y B y C son similares con matriz invertible Q, notemos que A=P^{-1}BP=P^{-1}(Q^{-1}CQ)P=(QP)^{-1}C(QP), de modo que A y C son similares con matriz invertible QP.

\square

¿Por qué es importante saber si dos matrices son similares? Resulta que dos matrices similares comparten muchas propiedades, como su traza, su determinante, su rango, etc. Para algunas matrices es más sencillo calcular estas propiedades. Así que una buena estrategia en álgebra lineal es tomar una matriz A “complicada” y de ahí encontrar una matriz similar B “más simple”, y usar B para encontrar propiedades de A.

Veamos un ejemplo de esto. Mediante un sencillo argumento inductivo se puede mostrar lo siguiente.

Proposición. Si A y B son matrices similares con A=P^{-1}BP, entonces A^n=P^{-1}B^nP.

Si B fuera una matriz diagonal, entonces es fácil encontrar B^n: basta con elevar cada una de las entradas de su diagonal a la n (lo cual es mucho más fácil que hacer productos de matrices). Así, esto da una forma muy fácil de encontrar A^n: basta con encontrar B^n, y luego hacer dos multiplicaciones de matrices más, por P^{-1} a la izquierda y por P a la derecha.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Deduce el corolario del teorema principal de esta entrada.
  • Considera \mathbb{R}[x]_2 de polinomios con coeficientes reales y grado a lo más dos. Sea T: \mathbb{R}[x]_2 la transformación tal qur T(p)=p', el polinomio derivado. Encuentra la matriz que representa a la transformación en la base \{1+x+x^2,1+2x,1\} y la matriz que representa a la transformación en la base \{1,x,x^2\}. Encuentra también la matriz de cambio de base de la primera a la segunda. Verifica que se cumple la conclusión del corolario.
  • Sean A y B matrices similares. Muestra que A es invertible si y sólo si B lo es.
  • Sean A y B matrices similares. Muestra que A y B tienen la misma traza.
  • Completa el argumento inductivo para demostrar la última proposición.
  • Considera la matriz con entradas complejas A=\begin{pmatrix}1 & 0 & 0\\ 0 & i & 0\\ 0 & 0 & -1 \end{pmatrix}. Encuentra A^{105}.

Más adelante…

En estas últimas dos entradas aprendimos a hacer “cambios de base”, tanto para coordenadas, como para formas matriciales. También, introdujimos el concepto de similitud de matrices. Cuando A es una matriz similar a una matriz diagonal, decimos que A es diagonalizable. Que una matriz sea diagonalizable trae muchas ventajas. Como ya mencionamos, una de ellas es poder elevar la matriz a potencias de manera sencilla. Otra ventaja es que en las matrices diagonalizables es sencillo calcular rangos, determinantes y otras invariantes de álgebra lineal.

Una parte importante de lo que resta del curso consistirá en entender por qué las matrices simétricas con entradas reales son diagonalizables. El teorema principal del curso (el teorema espectral), consistirá en mostrar que toda matriz simétrica con entradas reales es diagonalizable mediante matrices ortogonales. Para poder demostrarlo, necesitaremos primero estudiar teoría geométrica de espacios vectoriales y teoría de determinantes.

Entradas relacionadas