Archivo de la etiqueta: combinación lineal

Álgebra Lineal I: Cambios de base, parte 2

Introducción

En la entrada anterior definimos las matrices de cambio de base. Vimos algunas de sus propiedades básicas y mostramos cómo nos pueden ayudar para resolver el primero de los siguientes dos problemas.

  • Supongamos que tenemos dos bases B_1 y B_2 de un espacio vectorial V y que tomamos un vector v en V. Si ya sabemos la combinación lineal de elementos de B_1 que da v, ¿cómo podemos saber la combinación lineal de elementos de B_2 que da v? En otras palabras, ¿cómo podemos pasar a v de su expresión en base B_1 a su expresión en base B_2?
  • Supongamos que tenemos una transformación lineal T:V\to W entre dos espacios vectoriales V y W, dos bases B_1 y B_2 de V y dos bases C_1 y C_2 de W. Si ya sabemos qué le hace T a los elementos de V en términos de las bases B_1 y C_1, ¿cómo podemos saber qué hace T en términos de las bases B_2 y C_2?

El objetivo de esta entrada es ver cómo con las matrices de cambio de base también podemos resolver el segundo problema. Después de hacer esto, hablaremos de una noción fundamental en álgebra lineal: la de matrices similares.

Matrices de cambio de base y transformaciones lineales

Las matrices de cambios de base nos ayudan a entender a las matrices de transformaciones lineales en bases diferentes.

Teorema. Sea T:V\to W una transformación lineal entre espacios de dimensión finita V y W. Sean B_1 y B_2 bases de V, y C_1 y C_2 bases de W. Entonces

    \[\Mat_{C_2,B_2}(T) = \Mat_{C_2}(C_1)\Mat_{C_1,B_1}(T)\Mat_{B_1}(B_2).\]

Observa cómo la elección de orden en la notación está rindiendo fruto. En el lado derecho «van apareciendo las bases» en el «orden natural» C_2, C_1, B_1, B_2.

Demostración. Sean P=\Mat_{C_1}(C_2) y Q=\Mat_{B_1}(B_2). Por un resultado de la entrada anterior, P es la matriz que representa a la transformación identidad en W con respecto a las bases C_1 y C_2, es decir, P=\Mat_{C_1,C_2}(\text{id}_W).

Por cómo son las matrices de composiciones de transformaciones lineales, y usando que \text{id}_W\circ T=T, tenemos que

    \[\Mat_{C_1,C_2}(\text{id}_W)\Mat_{C_2,B_2}(T)=\Mat_{C_1,B_2}(T).\]

De manera análoga, Q es la matriz que representa a la transformación identidad en V con respecto a las bases B_1 y B_2, de donde tenemos que

    \[\Mat_{C_1,B_1}(T)\Mat_{B_1,B_2}(\text{id}_V)=\Mat_{C_1,B_2}(T).\]

De esta forma,

    \[P\Mat_{C_2,B_2}(T) = \Mat_{C_1,B_2}(T) = \Mat_{C_1,B_1}(T) Q.\]

El resultado se obtiene multiplicando por la izquierda ambos lados de esta ecuación por P^{-1}=\Mat_{C_2}(C_1).

\square

En la siguiente entrada se verán varios ejemplos que involucran crear matrices para transformaciones lineales, matrices de cambios de base y multiplicarlas para entender una transformación lineal en distintas bases.

Por el momento, dejamos únicamente un corolario del teorema anterior, para el caso en el que tenemos una transformación lineal de un espacio vectorial a sí mismo expresado en términos de dos bases.

Corolario. Sea T:V\to V una transformación lineal de un espacio vectorial V de dimensión finita a sí mismo. Sean B y B' bases de V y P la matriz de cambio de base de B a B'. Entonces

    \[\Mat_{B'}(T)=P^{-1}\Mat_{B}(T)P.\]

Matrices similares

Definición. Decimos que dos matrices A y B en M_{n}(F) son similares o conjugadas si existe una matriz invertible P en M_n(F) tal que B=P^{-1}AP.

En otras palabras, A y B son matrices similares si representan a una misma transformación lineal en diferentes bases.

Proposición. La relación «ser similares» es una relación de equivalencia en M_n(F).

Demostración. Toda matriz es similar a sí misma usando P=I_n, la identidad. Si A y B son similares con matriz invertible P, entonces B y A son similares con matriz invertible P^{-1}. Si A y B son similares con matriz invertible P y B y C son similares con matriz invertible Q, notemos que A=P^{-1}BP=P^{-1}(Q^{-1}CQ)P=(QP)^{-1}C(QP), de modo que A y C son similares con matriz invertible QP.

\square

¿Por qué es importante saber si dos matrices son similares? Resulta que dos matrices similares comparten muchas propiedades, como su traza, su determinante, su rango, etc. Para algunas matrices es más sencillo calcular estas propiedades. Así que una buena estrategia en álgebra lineal es tomar una matriz A «complicada» y de ahí encontrar una matriz similar B «más simple», y usar B para encontrar propiedades de A.

Veamos un ejemplo de esto. Mediante un sencillo argumento inductivo se puede mostrar lo siguiente.

Proposición. Si A y B son matrices similares con A=P^{-1}BP, entonces A^n=P^{-1}B^nP.

Si B fuera una matriz diagonal, entonces es fácil encontrar B^n: basta con elevar cada una de las entradas de su diagonal a la n (lo cual es mucho más fácil que hacer productos de matrices). Así, esto da una forma muy fácil de encontrar A^n: basta con encontrar B^n, y luego hacer dos multiplicaciones de matrices más, por P^{-1} a la izquierda y por P a la derecha.

Cuando A es una matriz similar a una matriz diagonal, decimos que A es diagonalizable. Una parte importante de lo que resta del curso consistirá en entender por qué las matrices simétricas con entradas reales son diagonalizables.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Deduce el corolario del teorema principal de esta entrada.
  • Considera \mathbb{R}[x]_2 de polinomios con coeficientes reales y grado a lo más dos. Sea T: \mathbb{R}[x]_2 la transformación tal qur T(p)=p', el polinomio derivado. Encuentra la matriz que representa a la transformación en la base \{1+x+x^2,1+2x,1\} y la matriz que representa a la transformación en la base \{1,x,x^2\}. Encuentra también la matriz de cambio de base de la primera a la segunda. Verifica que se cumple la conclusión del corolario.
  • Sean A y B matrices similares. Muestra que A es invertible si y sólo si B lo es.
  • Sean A y B matrices similares. Muestra que A y B tienen la misma traza.
  • Completa el argumento inductivo para demostrar la última proposición.
  • Considera la matriz con entradas complejas A=\begin{pmatrix}1 & 0 & 0\\ 0 & i & 0\\ 0 & 0 & -1 \end{pmatrix}. Encuentra A^{105}.

Álgebra Lineal I: Cambios de base, parte 1

Introducción

En la entrada anterior platicamos de cómo podemos comenzar con una transformación lineal T:V\to W entre espacios vectoriales V y W y de ahí obtener una «matriz que la represente». Para ello, necesitamos elegir bases B_V y B_W de V y W respectivamente. Si elegimos bases diferentes, entonces la matriz que obtendremos será diferente, por lo cual es muy importante siempre recordar qué bases elegimos.

Es posible que en algunas aplicaciones de álgebra lineal tengamos una transformación T:V\to W, y que los vectores de V o los de W los tengamos que entender en más de una base. Así, los dos siguientes problemas aparecen frecuentemente:

  • Supongamos que tenemos dos bases B_1 y B_2 de un espacio vectorial V y que tomamos un vector v en V. Si ya sabemos la combinación lineal de elementos de B_1 que da v, ¿cómo podemos saber la combinación lineal de elementos de B_2 que da v? En otras palabras, ¿cómo podemos pasar a v de su expresión en base B_1 a su expresión en base B_2?
  • Supongamos que tenemos una transformación lineal T:V\to W entre dos espacios vectoriales V y W, dos bases B_1 y B_2 de V y dos bases C_1 y C_2 de W. Si ya sabemos qué le hace T a los elementos de V en términos de las bases B_1 y C_1, ¿cómo podemos saber qué hace T en términos de las bases B_2 y C_2?

Las herramientas que necesitamos para responder ambos problemas se llaman matrices de cambios de base. El objetivo de esta entrada es definir estas matrices, ver algunas propiedades básicas que cumplen y ver cómo nos ayudan a resolver el primero de los problemas de aquí arriba. En una segunda entrada veremos cómo también servirán para resolver el segundo.

Matriz de cambio de base

Definición. Sea V un espacio vectorial sobre el campo F. Sean B=(v_1,\ldots,v_n) y B'=(v_1', \ldots, v_n') dos bases ordenadas de V. La matriz de cambio de base de B a B' es la matriz P=[p_{ij}] en M_{n}(F) cuya columna j tiene como entradas a las coordenadas de v_j' escrito en términos de la base B. En otras palabras, las entradas p_{1j},\ldots,p_{nj} de la j-ésima columna de P son los únicos elementos de F para los cuales

    \[v_j'=p_{1j}v_1+\ldots +p_{nj} v_n,\]

para toda j=1,2,\ldots,n.

Ejemplo. Considera la base ordenada B=(1,x,x^2) de R[x]_2, el espacio vectorial de polinomios de coeficientes reales grado a lo más 2. Veremos que B'=(3x^2,2x,1) es una base de R[x]_2. Encontraremos la matriz de cambio de base de B a B' y la matriz de cambio de base de B' a B.

La dimensión de R[x]_2 es 3 y B' tiene 3 elementos, así que basta ver que los elementos de B' son linealmente independientes para ver que B' es base. Una combinación lineal a(3x^2)+b(2x)+c(1)=0 es equivalente a que 3ax^2+2bx+c=0, lo cual sucede si y sólo si a=b=c=0. Esto muestra que B' es base.

Para encontrar a la matriz de cambio de base de B a B' lo que tenemos que hacer es escribir a los elementos de B' como combinación lineal de los elementos de B. Esto lo hacemos de la siguiente manera (recuerda que el orden es importante):

    \begin{align*}3x^2 &= 0 \cdot 1 + 0 \cdot x + 3 \cdot x^2\\2x &= 0\cdot 1+ 2\cdot x + 0 \cdot x^2\\1 & = 1\cdot 1 + 0 \cdot x + 0 \cdot x^2.\end{align*}

Como los coeficientes de 3x^2 en la base ordenada B son 0, 0 y 3, entonces la primer columna de la matriz de cambio de base será (0,0,3). Argumentando de manera similar para 2x y 1, tenemos que la matriz de cambio de base de B a B' es

    \[\begin{pmatrix}0 & 0 & 1\\0 & 2 & 0 \\3 & 0 & 0\end{pmatrix}.\]

Para encontrar a la matriz de cambio de base de B' a B, expresamos a los elementos de B en términos de la base B' como sigue:

    \begin{align*}1 &= 0 \cdot (3x^2) + 0 \cdot (2x) + 1 \cdot 1\\x &= 0\cdot (3x^2)+ \frac{1}{2} \cdot (2x) + 0 \cdot 1\\x^2 & = \frac{1}{3} \cdot (3x^2) + 0 \cdot (2x) + 0 \cdot 1.\end{align*}


De esta manera, tenemos que la matriz de cambio de base de B' a B es

    \[\begin{pmatrix}0 & 0 & \frac{1}{3}\\0 & \frac{1}{2} & 0 \\1 & 0 & 0\end{pmatrix}.\]

\square

La matriz de cambio de base nos ayuda a responder la primer pregunta que planteamos al inicio de esta entrada. Si conocemos las coordenadas de un vector en una base, podemos usar la matriz de cambio de base para encontrar las coordenadas del vector en otra base.

Proposición. Sea V un espacio vectorial de dimensión n, B=(v_1,\ldots,v_n), B'=(v_1',\ldots,v_n') bases ordenadas de V y P la matriz de cambio de base de B a B'. Supongamos que el vector v de V se escribe en base B como

    \[v=c_1v_1+c_2v_2+\ldots+c_nv_n\]

y en base B' como

    \[v=c_1'v_1'+c_2'v_2'+\ldots+c_n'v_n'.\]

Entonces:

    \[P \begin{pmatrix}c_1' \\\vdots \\c'_n\end{pmatrix}=\begin{pmatrix}c_1 \\\vdots \\c_n\end{pmatrix} .\]

En otras palabras, la matriz P de cambio de base de B a B' manda las coordenadas de un vector en base B' a coordenadas en base B al multiplicar por la izquierda. Ojo: para construir P expresamos a B' en términos de B, pero lo que hace P es expresar a alguien en de coordenadas B' a coordenadas en B.

Demostración. El vector de coordenadas de v_j' escrito en base B' es el vector canónico e_j de F^n. Además, Pe_j es la j-ésima columna de P, que por construcción es el vector de coordenadas de v_j' en la base B. Así, el resultado es cierto para los vectores v_j' de la base B'. Para cualquier otro vector v, basta expresarlo en términos de la base B' y usar la linealidad de asignar el vector de coordenadas y la linealidad de P.

\square

Problema. Escribe a los vectores v_1=(4,3,5,2), v_2=(2,2,2,2) y v_3(0,0,0,1) de \mathbb{R}^4 como combinación lineal de los elementos de la base B de \mathbb{R}^4 conformada por los vectores (1,0,0,0), (1,1,0,0), (1,1,1,0) y (1,1,1,1).

Solución. Conocemos las coordenadas de v_1,v_2,v_3 en la base canónica (1,0,0,0), (0,1,0,0), (0,0,1,0), (0,0,0,1). De hecho, el vector de coordenadas de v_1 es exactamente v_1 (esto es algo que sucede pues estamos trabajando en \mathbb{R}^4). Lo que nos estan pidiendo son las coordenadas de v_1,v_2,v_3 en la base B. Nos gustaría usar la proposición anterior. Para ello, necesitamos encontrar la matriz de cambio de base de B a la base canónica. Escribamos entonces a la base canónica en términos de los vectores de B:

    \begin{align*}(1,0,0,0)&=1\cdot (1,0,0,0)+0\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\(0,1,0,0)&= -1\cdot (1,0,0,0)+1\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\(0,0,1,0)&= 0\cdot (1,0,0,0)-1\cdot (1,1,0,0)+1\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\(0,0,0,1)&= 0\cdot (1,0,0,0)+0\cdot (1,1,0,0)-1\cdot (1,1,1,0)+1\cdot (1,1,1,1)\\\end{align*}

A estas coordenadas las ponemos como columnas para encontrar la matriz de cambio de base de B a la base canónica:

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix}.\]

Para encontrar las coordenadas de v_1, v_2, v_3 en términos de la base B, basta con multiplicar esta matriz a la izquierda para cada uno de ellos:

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix} \begin{pmatrix}4 \\3 \\ 5 \\ 2\end{pmatrix} =  \begin{pmatrix}1 \\-2 \\ 3\\ 2\end{pmatrix},\]

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix} \begin{pmatrix}2 \\2 \\ 2 \\ 2\end{pmatrix} = \begin{pmatrix}0 \\0 \\ 0\\ 2\end{pmatrix}\]

y

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix} \begin{pmatrix}0 \\0 \\ 0 \\ 1\end{pmatrix} = \begin{pmatrix}0 \\0 \\ -1\\ 1\end{pmatrix}.\]

En efecto, se puede verificar que estos nuevos vectores dan las combinaciones lineales de la base B que hacen a v_1, v_2 y v_3, por ejemplo, para v_1 tenemos:

    \[(4,5,3,2)=(1,0,0,0)-2(1,1,0,0)+3(1,1,1,0)+2(1,1,1,1).\]

\square

Matriz de cambio de base como matriz de transformación lineal

A la matriz de cambio de base de B a B' la denotamos por \text{Mat}_B(B').

Una observación crucial es que podemos pensar a una matriz de cambio de base en un espacio vectorial V justo como como una matriz correspondiente a una transformación lineal de las que vimos en la entrada pasada. De hecho, la transformación lineal que le corresponde es muy bonita: es la identidad \text{id}_V que manda a cada vector de V a sí mismo.

De manera más concreta, si B y B' son bases de V y \text{Mat}_B(B') es la matriz de cambio de base de B a B', entonces

    \[\text{Mat}_B(B')=\text{Mat}_{B,B'}(\text{id}_V).\]

A estas alturas tienes todas las herramientas necesarias para demostrar esto.

¿Qué sucede si ahora tenemos tres bases B, B' y B'' de V y componemos a la identidad consigo misma? Utilizando los argumentos de la entrada anterior, la matriz correspondiente a la composición es el producto de las matrices de cada transformación. Juntando esto con la observación anterior, tenemos la siguiente propiedad para matrices de cambio de base:

    \[\text{Mat}_B(B'')=\text{Mat}_{B}(B')\cdot \text{Mat}_{B'}(B'').\]

Finalmente, ¿qué sucede si en la igualdad anterior ponemos B''=B? Al lado izquierdo tenemos la matriz de cambio de base de B a sí misma, que puedes verificar que es la identidad. Al lado derecho tenemos al producto de la matriz de cambio de base de B a B' con la matriz de cambio de B' a B. Esto muestra que las matrices de cambio de base son invertibles.

Resumimos todas estas observaciones en la siguiente proposición:

Proposición. Sean B, B' y B'' bases del espacio vectorial de dimensión finita V.

  • La matriz de cambio de base de B a B' corresponde a la matriz de la transformación identidad de V a V, en donde el primer V lo pensamos con la base B' y al segundo con la base B.
  • El producto de matrices de cambio de base de B a B' y de B' a B'' es la matriz de cambio de base de B a B''.
  • La matriz de cambio de base de B a B' es invertible, y su inversa es la de cambio de base de B' a B.

En la próxima entrada veremos cómo las matrices de cambio de base también nos ayudan a entender transformaciones lineales bajo distintas bases.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Qué sucede en el primer ejemplo si multiplicas ambas matrices de cambio de base que encontramos?
  • En el segundo ejemplo, encuentra la matriz de cambio de base de la base canónica a la matriz B
  • Considera las cuatro matrices de 2\times 2 que puedes formar colocando tres unos y un cero. Muestra que estas cuatro matrices forman una base B de M_{2,2}(\mathbb{R}). Determina la matriz de cambio de base de B a la base canónica de M_{2,2}(\mathbb{R}). Ojo: Una cosa son los elementos del espacio vectorial y otra cosa van a ser las matrices de cambio de base. Como M_{2,2}(\mathbb{R}) es de dimensión 4, la matriz de cambio de base que tienes que determinar en realidad es de 4\times 4.
  • Da una demostración de que, en efecto

        \[\text{Mat}_B(B')=\text{Mat}_{B,B'}(\text{id}_V).\]

  • Verifica que la matriz de cambio de base B a sí misma es la identidad.

Álgebra Lineal I: Proyecciones, simetrías y subespacios estables


En la clase pasada subida a este blog, se introdujo el concepto de transformaciones lineales entre dos espacios vectoriales, diversas propiedades que satisfacen, y al final, se presentaron las definiciones del kernel y la imagen de una transformación lineal.

Proyecciones

Ahora, veremos una clase fundamental de transformaciones lineales: las proyecciones sobre subespacios.

Definición. Sea V un espacio vectorial sobre el campo F, y sean W_1 y W_2 dos subespacios de V tales que V=W_1\oplus W_2. La proyección sobre W_1 es el mapeo \pi_1:V\rightarrow W_1 definido como: para cada v\in V, \pi_1(v) es el único vector en W_1 tal que v-\pi_1(v) está en W_2.

De manera similar podemos definir la proyección sobre W_2, llamado \pi_2:V\rightarrow W_2. Dado que V=W_1\oplus W_2, para todo v\in V existen únicos vectores v_1\in W_1 y v_2\in W_2 tales que v=v_1+v_2. Entonces \pi_1(v)=v_1 y \pi_2(v)=v_2.

Ejemplo. Sea V=\mathbb{R}^2, y sean W_1={(a,0): a\in\mathbb{R}} y W_2={(0,b):b\in\mathbb{R}}. Sabemos que W_1 y W_2 son subespacios vectoriales y que V=W_1\oplus W_2. Entonces, si (a,b)\in V, \pi_1((a,b))=(a,0) y \pi_2((a,b))=(0,b).

Al inicio dijimos que las proyecciones eran una clase fundamental de las transformaciones lineales, pero no hemos demostrado que las proyecciones son transformaciones lineales.

Proposición. Sea \pi una proyección de V sobre W_1. Entonces \pi es una transformación lineal.

Demostración. Sean v,v' \in V. Sean w=\pi(v) y w'=\pi(v'), ambos en W_1 por definición, también v-w,v'-w' \in W_2. Como W_1, W_2 son subespacios vectoriales, w+w'\in W_1 y

    \[(v+v')-(w+w')=(v-w)+(v'-w')\in W_2.\]

Por lo tanto, \pi(v+v')=w+w'=\pi(v)+\pi(v').

Ahora sea c\in F. Notemos que cw=c\pi(v). También dado que v=w+(v-w), entonces cv=cw+c(v-w). Por propiedades de subespacios vectoriales, cw\in W_1 y c(v-w)\in W_2, eso implica que \pi(cv)=cw. Entonces, \pi(cv)=cw=c\pi(v). Por lo tanto, las proyecciones son transformaciones lineales.

\square

Además notemos que \pi(v)=v para todo v\in W_1 pero \pi(v)=0 si v\in W_2.

Simetrías

Una segunda clase importante de mapeos lineales son las llamadas simetrías.

Definición. Sea una descomposición V=W_1\oplus W_2, con W_1, W_2 dos subespacios de V. Decimos que s:V\rightarrow V es una simetría con respecto a W_1 a lo largo de W_2 si para todo v\in V, escrito como v=v_1+v_2 con v_1\in W_1 y v_2 \in W_2, tenemos que

    \[s(v)=v_1-v_2.\]

Al igual que con las proyecciones, no es dificil ver que las simetrías son transformaciones lineales.

Proposición. Sea s:V\rightarrow V una simetría con respecto a W_1 a lo largo de W_2. Entonces, s es una transformación lineal.

Demostración. Sean v,v' \in V. Sean v_1,v'_1\in W_1 y v_2,v'_2 \in W_2 tales que v=v_1+v_2 y v'=v'_1+v'_2. Eso implica que v+v'=(v_1+v'_1)+(v_2+v'_2) con v_1+v'_1 \in W_1 y v_2+v'_2 \in W_2. Entonces

    \[s(v)+s(v')=(v_1-v_2)+(v'_1-v'_2) =(v_1+v'_1)-(v_2+v'_2)= s(v+v').\]


Ahora sea a\in F, entonces as(v)=a(v_1-v_2)=av_1-av_2=s(av_1+av_2)=s(av). Por lo tanto, s es una transformación lineal.

\square

Notemos que si v\in W_1, entonces s(v)=v-0=v, y si v\in W_2, entonces s(v)=0-v=-v.

Subespacios estables

Observamos que las proyecciones y las simetrías satisfacen que \pi(W_1)=W_1 y s(W_1)=W_1. Esta es una propiedad muy linda, pero en general, si T:V\rightarrow V una transformación lineal cualquiera y W un subespacio de V, no siempre tenemos que T(W)=W, o ni siquiera que T(W)\subset W. Sin embargo, los subespacios W que sí satisfacen esta útlima propiedad son cruciales en el estudio de este curso, y por ello, merecen un nombre especial.

Definición. Sea T:V\rightarrow V una transformación lineal. Si W es un subespacio de V tal que T(W)\subset W, decimos que W es un subespacio estable bajo T.

En otras palabras, W es estable bajo T si para todo v en W se tiene que T(W) también está en W. Un ejemplo trivial es la transformación identidad con cualquier subespacio W. Otro ejemplo trivial es que V y \{0\} son dos subespacios estables bajo cualquier transformación lineal T:V\rightarrow V. Otros ejemplos son los ya mencionados: las proyecciones y las simetrías.

Ejemplo. Consideremos el mapeo T:\mathbb{R}^2\rightarrow \mathbb{R}^2 con T(x,y)=(y,-x). Claramente T es lineal. Sea W un subespacio estable de \mathbb{R}^2 bajo T. Supongamos que W\neq \mathbb{R}^2,\{ (0,0) \}. Entonces dim(W) es exactamente 1. Eso implica que W=span(v) para algún v\in\mathbb{R}^2, es decir, si w\in W lo podemos escribir como w=av donde a es un escalar. En particular v\in W.

Como W es estable bajo T, entonces T(v)\in W, esto es T(v)=cv para algún c. Si v=(x,y), entonces T(v)=T((x,y))=(y,-x)=cv=c(x,y)=(cx,cy), implica que y=cx y -x=cy, esto sólo es posible si (c^2+1)x=0, y como c es real, esto implica x=0 y y=0. Por lo tanto, W={(0,0)}. Contradicción. Esto demuestra que los únicos subespacios estables bajo T son \mathbb{R}^2 y \{(0,0)\}.

\square

Proposición. Sea T:V\rightarrow V una transformación lineal tal que, para todo v\in V, span(v) es un subespacio estable bajo T. Entonces existe un escalar c\in F tal que T(x)=cx para todo x\in V.

Demostración. Sea x\in V. Si L=span(x), T(L)\subset L por hipótesis, en particular T(x)\in L, existe c_x tal que T(x)=c_x x. Queremos probar que esa constante realmente no depende de x.

Sea y\in V, entonces x,y son linealmente independientes o no. Suponemos que x,y son linealmente independientes. Entonces x+y \neq 0 y la igualdad T(x+y)=T(x)+T(y) puede ser escrita como c_{x+y} (x+y)=c_x x+c_y y, esto es equivalente a (c_{x+y}-c_x)x+(c_{x+y}-c_y) y=0. Por independencia lineal, c_{x+y}=c_x=c_y.

Ahora si x,y no son linealmente independientes, entonces y=ax para algún escalar a no cero. Entonces la igualdad T(y)=T(ax)=aT(x) puede ser escrita como c_y y=ac_x x=c_x y, esto implica que c_y=c_x. Entonces para todo y\in V, c_x=c_y. Definimos c=c_x, cuya constante satisface la proposición.

\square

Las imágenes y kernels son estables

Proposición. Sea T:V\to V una transformación lineal. Entonces \ker(T) e \Ima(T) son subespacios estables bajo T.

Demostración. En la entrada anterior ya vimos que \ker(T) e \Ima(T) son subespacios de V. Veamos que son estables.

Tomemos v\in \ker(T). Tenemos que mostrar que T(v)\in \ker(T). Pero esto es cierto pues

    \[T(T(v))=T(0)=0.\]

Así T(\ker(T))\subset \ker(T) y por lo tanto \ker(T) es estable bajo T.

Ahora tomemos v\in \Ima(T). De manera inmediata, T(v)\in \Ima(T). Así, \Ima(T) es estable bajo T.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Argumenta por qué la transformación \pi:\mathbb{R^3}\to \mathbb{R} dada por \pi(x,y,z)=y es una proyección.
  • ¿Es la transformación T:\mathbb{R}^3 \to \mathbb{R} dada por T(x,y,z)=x+y+z una proyección?
  • Sea B=\{v_1,v_2,\ldots,v_n\} una base para un espacio vectorial V sobre un campo F. Sea V_i el espacio vectorial generado por v_i, es decir, el conjunto de vectores de la forma cv_i con c\in F. Como B es base, cada vector v\in V puede escribirse de la forma

        \[a_1v_1+a_2v_2+\ldots+a_nv_n\]

    de manera única. Muestra que para toda i\in\{1,2,\ldots,n\} la función \pi_i(v)=a_i es una proyección.

Puedes dejar dudas de la entrada o soluciones a algunos de esta tarea moral en los comentarios y les echaremos un ojo.

Otras entradas de Álgebra Lineal

Seminario de Resolución de Problemas: Principio de Inducción

Esta es una serie de entradas de blog para dar seguimiento a los estudiantes del Seminario sobre Enseñanza de las Matemáticas (Resolución de Problemas) durante la época de cuarentena debida al coronavirus.

Introducción

El principio de inducción es una de las piedras angulares de las matemáticas y de la resolución de problemas. Es altamente probable que ya lo hayas utilizado previamente, en cursos como Álgebra Superior I y II, en Álgebra Lineal, en Cálculo y varios otros.

En esta entrada y las siguientes repasaremos la idea general del principio de inducción, pero además veremos lo flexible que puede ser en la resolución de problemas.

La idea general que debes tener cuando hagas inducción es pensar en Tlaloc (dios de la lluvia). Imagina que Tlaloc decide que llueva hoy, y además decide que si llueve un día, entonces lloverá también al día siguiente. Como llueve hoy, entonces lloverá mañana, pero como llueve mañana entonces lloverá pasado mañana. De hecho, ¡va a llover todos los días a partir de hoy!

De manera general, el principio de inducción sirve para cuando se quieren probar afirmaciones «para todo número natural n» y en donde para probar la afirmación para un valor n es útil tener la validez de la afirmación para los valores anteriores. Sin embargo, se puede también utilizar para probar afirmaciones «a partir de cierto natural». Enunciamos esta versión a continuación.

Principio de inducción. Sea P(n) una afirmación (o proposición o propiedad) que depende del número natural n. Si

  • la afirmación P(a) es cierta y
  • la veracidad de la afirmación P(n) implica la veracidad de la afirmación P(n+1),

entonces la afirmación P(n) es cierta para toda n \geq a.

En estos términos, a probar la afirmación para a se le conoce como probar la base de inducción. Suponer la veracidad de P(n) para una n se conoce como suponer la hipótesis inductiva, y a probar la veracidad de P(n+1) se le conoce como hacer el paso inductivo. Así, para hacer una prueba por inducción se tienen que hacer los siguientes pasos:

  • Probar la base de inducción, osea, mostrar que P(a) es válido.
  • Suponer, libremente, la hipótesis inductiva, es decir, suponer que P(n) cierto.
  • A partir de la hipótesis inductiva, y el resto de las hipótesis del problema, hacer el paso inductivo, es decir, demostrar P(n+1).

Es muy importante hacer estos tres pasos. Si no se prueba la base de inducción, es como si Tlaloc no decidiera que lloviera hoy: no hay forma de saber qué pasara. Si no se hace el paso inductivo, es como si Tlaloc no dijera nada de la lluvia de un día a partir del anterior.

La creatividad en el uso de la inducción en la resolución de problemas reside en varios aspectos. A veces:

  • Se requiere ingenio para probar el caso base.
  • Se requiere ingenio para saber exactamente cómo usar la hipótesis inductiva para hacer el paso inductivo.
  • Se requiere crear una afirmación auxiliar Q(n) más fuerte que implique a P(n), tal qué Q(n) sí se pueda probar por inducción, pero P(n) no, de lo cual veremos ejemplos en siguientes entradas.

Problemas con solución

Veamos algunos ejemplos de problemas que se pueden resolver utilizando induccicón. En el primer problema vamos a ser muy explícitos en cómo estamos ejecutando la inducción. Esto te puede ayudar cuando estas haciendo tus primeras pruebas de inducción: te ayudará a ser explícito en demostrar la base, en suponer la hipótesis inductiva y en hacer el paso inductivo.

En algunas otras de las demostraciones, vamos a ser un poco más flexibles con cómo se escribe la demostración. No hay que ser totalmente explícitos en qué parte de demostración por inducción se está haciendo. Esto te puede ayudar para cuando ya estas escribiendo una prueba más larga y la parte inductiva sólo es un pequeño fragmento del argumento.

Problema. Sea n\geq 1 un número entero y a_n>a_{n-1}>\ldots>a_1>0 números reales. Considera todas las expresiones que puedes hacer de la forma

    \[e_1a_1+e_2a_2+\ldots+e_na_n\]

donde cada e_i es 1 o 0. Demuestra que al pasar por todas las 2^n posibilidades para las e_i se forman por lo menos \binom{n+1}{2} números diferentes.

Solución. Vamos a proceder por inducción sobre n. Hagamos primero la base de inducción. Como queremos demostrar la afirmación para toda n\geq 1, el caso base es n=1. Cuando n=1, tenemos un sólo número real a_1>0 y lo que tenemos que demostrar es que hay al menos \binom{2}{2}=1 valor en las expresiones que se pueden formar. Si e_1=0 o 1, obtenemos las expresiones 0 y a_1 respectivamente, que son al menos dos. Esto prueba el caso base.

Ahora supongamos la hipótesis inductiva. Es decir, suponemos libremente que para cierta n, cada que tomamos n números reales se cumple la afirmación del problema, es decir, que al pasar por las 2^n posibilidades de e_i, se obtienen al menos \binom{n+1}{2} expresiones diferentes.

La parte final es hacer el paso inductivo. Es decir, a partir de todas las hipótesis del problema, de la hipótesis inductiva, y de otras ideas, tenemos que probar la afirmación para n+1. Así, tomemos n+1 números reales

    \[a_{n+1}>a_n>\ldots>a_1>0.\]

Tenemos que mostrar que usando coeficientes 0 y 1 podemos formar al menos \binom{n+2}{2} números distintos.

Una buena idea es aprovechar que ya sabemos que los números

    \[a_n>\ldots>a_1>0\]

ya hacen varias expresiones. Podemos aplicar la hipótesis inductiva a estos números, y con ello logramos conseguir al menos \binom{n+1}{2} expresiones diferentes. Notemos que estas expresiones también sirven para cuando tenemos a a_{n+1} y le ponemos coeficiente e_{n+1}=0. Lo que tenemos que hacer ahora es conseguir \binom{n+2}{2}-\binom{n+1}{2}=n+1 expresiones nuevas.

Consideremos la expresión S=a_1+a_2+\ldots+a_n en la que todos los coeficientes son 1. Esta es claramente mayor que cualquiera de las otras que ya tenemos. Además, todas las expresiones S+a_{n+1}, S+a_{n+1}-a_1, S+a_{n+1}-a_2, \ldots, S+a_{n+1}-a_n son mayores que S (pues a_{n+1} es el más grande de los a_i‘s), son todas diferentes, y son de la forma deseada (pues cada a_i con 1\leq i \leq n está en S).

De esta forma, conseguimos n+1 expresiones distintas y todas ellas mayores que S, así que distintas de todas las dadas por la hipótesis inductiva. Con esto completamos la demostración.

\square

La inducción sirve para probar afirmaciones que dependen de un número natural. Sin embargo, no siempre es inmediato de dónde sale este natural. A veces ese natural aparece simplemente como el tamaño de algún conjunto involucrado. A veces hay que hacer una demostración para «todos los polinomios» y entonces podríamos intentar hacer inducción sobre el grado del polinomio. En otro problema puede que se tenga que mostrar algo «para todas las matrices» y entonces tal vez tengamos que demostrarlo por inducción sobre las dimensiones de la matriz.

Problema. Se dibuja una cantidad finita de lineas en el espacio de modo que no haya tres de ellas que pasan por un mismo punto. Estas líneas definen regiones en el plano. Muestra que se pueden colorear estas regiones de blanco o negro de modo que no haya dos regiones del mismo color que tengan un lado en común.

El problema no tiene ningún número natural explícitamente en el enunciado. Sin embargo, se pide demostrar algo para una cantidad finita de cosas, así que basta probar la afirmación para n cosas, para todo entero n\geq 0. De esta forma, la variable «cantidad de líneas que tenemos» ya es una variable sobre la cual podemos hacer inducción. Hagamos la demostración así.

Solución. Procedamos por inducción sobre el número de líneas. Si tenemos 0 líneas, sólo hay una región en el plano. La pintamos de blanco.

Ahora, supongamos que cada que tenemos n líneas, no tres de ellas por un punto, podemos hacer una coloración de su conjunto de regiones R de modo que no haya dos adyacentes del mismo color.

Tomemos cualquier conjunto de n+1 líneas. Tomemos una de ellas L e ignorémosla por el momento. Por hipótesis inductiva, podemos hacer una coloración para las n líneas que quedan. Al regresar L se hacen nuevas regiones. A las regiones que quedan de un lado de L, las dejamos del color que ya tenían. A las que están del otro lado de L, les intercambiamos el color (blanco a negro y viceversa).

El nuevo acomodo funciona pues todas las regiones de R totalmente contenidas en alguno de los lados de L siguen sin problemas. Y aquellas regiones de R cortadas por L sólo pueden tener problemas con un lado que caiga sobre L. Pero de estos problemas tampoco hay pues de un lado quedaron de un color, y del otro del otro.

\square

Observa que en el problema anterior ya no estamos haciendo los pasos de la inducción tan «explícitos».

A veces hay problemas en los que hay una variable entera, pero no necesariamente hay que aplicar inducción para esa variable, sino para otro parámetro que introduzcamos.

Problema. Dado un entero positivo n y un real x\geq 0, muestra que

    \[\floor{x}+\floor{x+\frac{1}{n}}+\floor{x+\frac{2}{n}}+\cdots+\floor{x+\frac{n-1}{n}}=\floor{nx}.\]

Recuerda que \floor{y} es el mayor entero que sea menor o igual a y.

Solución. El problema con hacer inducción en n es que no hay una forma sencilla de relacionar el resultado para n y el resultado para n+1. Tampoco podemos hacer «inducción sobre x» porque x es un número real.

El truco para el problema es probar el resultado para todas las x en el intervalo [\frac{k}{n},\frac{k+1}{n}) para todo entero k\geq 0. Con esos intervalos cubrimos a todos los reales positivos, y por lo tanto cubrimos todas las posibilidades para x. Para probar que se vale en esos intervalos, vamos a proceder por inducción sobre k.

Si k=0, entonces queremos mostrar el resultado para el intervalo [0,\frac{1}{n}). Para las x en este intervalo, cada uno de los términos x+\frac{i}{n} (para i-0,1,\ldots,n-1) es menor que 1 y por lo tanto el lado izquierdo de la igualdad que queremos mostrar tiene puros sumandos 0 y entonces es igual a 0. También para las x en este intervalo tenemos nx<1, y así el lado derecho también es 0. Esto prueba la base inductiva.

Supongamos ahora que el resultado es cierto para x en el intervalo [\frac{k-1}{n},\frac{k}{n}) para cierto entero k. Esto quiere decir que

    \[\floor{x}+\floor{x+\frac{1}{n}}+\floor{x+\frac{2}{n}}+\cdots+\floor{x+\frac{n-1}{n}}=\floor{nx}.\]

Tomemos ahora un entero y en el intervalo [\frac{k}{n},\frac{k+1}{n}). Notemos que x=y-\frac{1}{n} está en el intervalo anterior, de modo que cumple la igualdad de la hipótesis inductiva. Notemos además que si en

    \[\floor{y}+\floor{y+\frac{1}{n}}+\floor{y+\frac{2}{n}}+\cdots+\floor{y+\frac{n-1}{n}}\]

substituimos y=x+\frac{1}{n}, obtenemos

    \[\floor{x+\frac{1}{n}}+\floor{x+\frac{2}{n}}+\floor{x+\frac{3}{n}}+\cdots+\floor{x+\frac{n}{n}}.\]

El último sumando es \floor{x+1}=\floor{x}+1, de modo que en el lado izquierdo tenemos todos los sumandos del lado izquierdo de la hipótesis inductiva y un 1. Así, el lado izquierdo es igual a

    \[\floor{nx}+1=\floor{nx+1}=\floor{ny},\]

como queríamos mostrar.

\square

Más ejemplos

Puedes encontrar más ejemplos en la Sección 2.1 del Problem Solving through Problems de Loren Larson. Otro libro con muchos ejemplos interesantes es el Putnam and Beyond, de Gelca y Andreescu. Así mismo, aquí en el blog hay otras entradas en las que se hacen pruebas por inducción.

El lema del intercambio de Steinitz

En esta entrada platicaré de un lema muy útil en álgebra lineal, sobre todo cuando se están definiendo las nociones de base y de dimensión para espacios vectoriales de dimensión finita.

Supondré que el lector ya sabe un poco de álgebra lineal, pero muy poquito. Basta con saber la definición de espacio vectorial. Lo demás lo definiremos sobre el camino.

El resultado de esta entrada es el lema del intercambio, o el lema de Steinitz (se pronuncia esh-tai-nits). Este último nombre es en honor al matemático alemán Ernst Steinitz. Sin embargo, personalmente a mi me gusta pensarlo como el lema del regalo de vectores, por razones que ahorita platicaremos. El enunciado es el siguiente:

Teorema (Lema del intercambio) Sea V un espacio vectorial. Tomemos un conjunto finito y linealmente independiente L de V, y un conjunto finito y generador S de V. Supongamos que L tiene m elementos y que S tiene n elementos. Entonces:

  • m\leq n
  • Se puede tomar un subconjunto T de S de tamaño n-m tal que L\cup T sea generador de V.

De manera esquemática, está pasando lo siguiente:

Lo que haremos es hablar de las definiciones necesarias para entender el lema, hablar de la intuición detrás, dar un par de ejemplos y luego dar la demostración. La presentación está ligeramente basada en el libro de álgebra lineal de Titu Andreescu.

Definiciones e intuición

Sea V un espacio vectorial sobre un campo F.

Si tenemos vectores v_1,\ldots,v_n de V y escalares a_1,\ldots,a_n en F, podemos considerar al vector formado por multiplicar los vectores por los escalares correspondientes y sumarlos todos, es decir al vector v dado por la expresión a_1v_1+\cdots+a_nv_n . En este caso, decimos que v es una combinación lineal de v_1,\ldots,v_n, o a veces que v_1,\ldots,v_n generanv.

Un conjunto S=\{v_1,v_2,\ldots,v_n\} de vectores de V es generador si para cualquier v de V existen escalares a_1,\ldots,a_n en F para los cuales v=a_1v_1+\cdots+a_nv_n. Dicho de otra forma, «S es generador si cualquier vector del espacio vectorial es combinación lineal de vectores de S«.

De esta definición es fácil ver que si S es un conjunto generador y T es un conjunto que contiene a S (es decir, T\supset S), entonces T también es generador: simplemente para cualquier v usamos la combinación lineal que tenemos en S y al resto de los vectores (los de T\setminus S) les ponemos coeficientes cero.

Un conjunto L=\{w_1,w_2,\ldots,w_m\} de vectores de V es linealmente independiente si la única combinación lineal de vectores de L que da 0 es aquella en la que todos los escalares son 0. Dicho de otra forma, «L es linealmente independiente si a_1w_1+\ldots+a_mw_m=0 implica que a_1=a_2=\ldots=a_m=0

Con los conjuntos linealmente independientes pasa lo contrario a lo de los generadores. Si L es un conjunto linealmente independiente y M está contenido en L (es decir, ahora M\subset L), entonces M es linealmente independiente. Esto es pues cualquier combinación lineal de M también es una combinación lineal de L.

Los párrafos anteriores dejan la idea de que «los conjuntos generadores tienen que ser grandes» y que «los conjuntos linealmente independientes tienen que ser chiquitos». El lema de Steinitz es una manera en la que podemos formalizar esta intuición.

Como los conjuntos generadores son grandes, entonces son bien buena onda y bien generosos. Tienen muchos elementos. Como los conjuntos linealmente independientes son chiquitos, entonces necesitan elementos. Lo que dice el lema de Steinitz es que si tenemos a un generador S y a un linealmente independiente L, entonces S tiene más elementos y que puede regalar al linealmente independiente L algunos elementos T para que ahora L\cup T tenga tantos elementos como tenía S y además se vuelva generador. Una cosa importante es que no cualquier subconjunto T funciona. Este tiene que estar bien elegido.

Ejemplo concreto

Veamos un ejemplo muy concreto. Supongamos que nuestro espacio vectorial es \mathbb{R}^3, osea, los vectores con 3 entradas reales. Tomemos a los siguientes conjuntos de vectores:

  • L=\{(1,2,3), (0,2,0)\}
  • S=\{(0,1,0), (1,0,0), (0,0,-1), (2,4,6)\}

Por un lado, el conjunto L es linealmente idependiente. Una combinación lineal a(1,2,3)+b(4,3,0)=(0,0,0) implica de manera directa que b=0 (por la primer o tercer coordenadas) y de ahí a=0 (por la segunda coordenada).

Por otro lado, el conjunto S es generador, pues con (0,0,-1) podemos obtener a (0,0,1) como combinación lineal, de modo que S genera a los tres de la base canónica y por tanto genera a todo \mathbb{R}^3.

Notemos que en efecto L tiene menos elementos que S. Además, el lema de Steinitz garantiza que S puede pasarle |S|-|L|=4-2=2 elementos a L para volverlo generador. Pero hay que ser cuidadosos. Si le regala los elementos (0,1,0) y (2,4,6), entonces no funciona (se puede verificar que este conjunto no genera a \mathbb{R}^3). Pero si le regala, por ejemplo, los elementos (1,0,0) y (0,0,-1) entonces ahora sí generará (se puede argumentar viendo que entonces ahora genera a los tres de la base canónica).

Demostración

Pasemos ahora a la demostración del lema de Steinitz. Lo demostraremos por inducción en la cantidad de elementos que tiene L, el linealmente independiente. Si |L|=m=0, entonces claramente m=0\leq n, y además S le puede pasar n-0=n elementos (todos) a L y volverlo generador.

Supongamos entonces que es cierta la siguiente afirmación.

Hipótesis inductiva Sea V un espacio vectorial. Tomemos un conjunto finito y linealmente independiente L de V, y un conjunto finito y generador S de V. Supongamos que L tiene m elementos y que S tiene n elementos. Entonces:

  • m\leq n
  • Se puede tomar un subconjunto T de S de tamaño n-m tal que L\cup T sea generador de V.

Para el paso inductivo, tomemos L=\{w_1,w_2,\ldots,w_m,w_{m+1}\} un linealmente independiente de V y S=\{v_1,v_2,\ldots,v_n\} un generador de V. Aplicándole la hipótesis inductiva al linealmente independiente L'=L\setminus \{w_{m+1}\}=\{w_1,\ldots,w_m\} y al generador S, tenemos que:

  • m\leq n
  • Se puede tomar un subconjunto T'=\{s_1,s_2,\ldots,s_{n-m}\} de S tal que L'\cup T'= \{w_1,w_2,\ldots,w_m,s_1,\ldots,s_{n-m}\} sea generador de V.

Como L'\cup T' es generador, entonces podemos poner a w_{m+1} como combinación lineal de elementos de L'\cup T', es decir, existen a_1,\ldots, a_m, b_1,\ldots,b_{n-m} tales que

    \[w_{m+1}=a_1w_1+\ldots+a_mw_m+b_1s_1+\ldots+b_{n-m}s_{n-m}.\]

Ya sabemos que m\leq n. Si m=n, la combinación lineal anterior no tendría ningún s_i, y entonces sería una combinación lineal no trivial para los elementos de L, lo cual es una contradicción pues L es linealmente independiente. Entonces m\neq n y m\leq n, así que m+1\leq n, que era el primer punto que queríamos probar.

También, como L es linealmente independiente, no se vale que todos los b_i sean iguales a cero. Sin perder generalidad, podemos suponer que b_1\neq 0. Así, s_1 se puede despejar como combinación lineal en términos de w_1,\ldots,w_n,w_{n+1}, s_2,\ldots,s_{n-m} y por lo tanto L\cup (T'\setminus \{s_1\}) genera lo mismo que L'\cup T', que era todo V. Así, T:=T'\setminus \{s_1\} es el subconjunto de S de tamaño n-(m+1) tal que L\cup T es generador. Esto termina la prueba del lema.

Algunas aplicaciones

El lema de Steinitz se puede utilizar para probar varias afirmaciones con respecto a bases de un espacio vectorial de dimensión finita.

Como recordatorio, un espacio vectorial es de dimensión finita si tiene un conjunto generador con una cantidad finita de elementos. Una base de un espacio vectorial es un conjunto que sea simultáneamente generador y linealmente independiente.

Las siguientes afirmaciones se siguen directamente del lema de Steinitz.

  1. Todas las bases de un espacio vectorial finito tienen la misma cantidad de elementos.
  2. En un espacio vectorial de dimensión d:
    • Todo conjunto linealmente independiente tiene a lo más d elementos.
    • Todo conjunto generador tiene al menos d elementos.
  3. Si S es un conjunto con n vectores de un espacio vectorial de dimensión n, entonces las siguientes tres afirmaciones son equivalentes:
    • S es base.
    • S es linealmente independiente.
    • S es generador.

Como primer ejemplo, haremos (1). Tomemos B_1 y B_2 bases de un espacio vectorial de dimensión finita B. Pensando a B_1 como linealmente independiente y a B_2 como generador, tenemos |B_1|\leq |B_2|. Pensando a B_2 como linealmente independiente y a B_1 como generador, tenemos |B_2|\leq |B_1|. Así, |B_1|=|B_2|.

Como segundo ejemplo, haremos una parte de (3). Suponiendo que S es linealmente independiente, veremos que S es base. Sea B una base de V. Por el lema de Steinitz, podemos pasar |B|-|S|=n-n=0 elementos de B a S para volverlo generador. Es decir, S ya es generador. Como además es linealmente independiente, entonces es base.

El resto de las demostraciones son igual de sencillas, como puedes verificar.

¿Ahora qué?

Si te gustó esta entrada, puedes compartirla o revisar otras relacionadas con matemáticas a nivel universitario: