Archivo de la etiqueta: base

Álgebra Lineal I: Cambios de base, parte 2

Introducción

En la entrada anterior definimos las matrices de cambio de base. Vimos algunas de sus propiedades básicas y mostramos cómo nos pueden ayudar para resolver el primero de los siguientes dos problemas.

  • Supongamos que tenemos dos bases B_1 y B_2 de un espacio vectorial V y que tomamos un vector v en V. Si ya sabemos la combinación lineal de elementos de B_1 que da v, ¿cómo podemos saber la combinación lineal de elementos de B_2 que da v? En otras palabras, ¿cómo podemos pasar a v de su expresión en base B_1 a su expresión en base B_2?
  • Supongamos que tenemos una transformación lineal T:V\to W entre dos espacios vectoriales V y W, dos bases B_1 y B_2 de V y dos bases C_1 y C_2 de W. Si ya sabemos qué le hace T a los elementos de V en términos de las bases B_1 y C_1, ¿cómo podemos saber qué hace T en términos de las bases B_2 y C_2?

El objetivo de esta entrada es ver cómo con las matrices de cambio de base también podemos resolver el segundo problema. Después de hacer esto, hablaremos de una noción fundamental en álgebra lineal: la de matrices similares.

Matrices de cambio de base y transformaciones lineales

Las matrices de cambios de base nos ayudan a entender a las matrices de transformaciones lineales en bases diferentes.

Teorema. Sea T:V\to W una transformación lineal entre espacios de dimensión finita V y W. Sean B_1 y B_2 bases de V, y C_1 y C_2 bases de W. Entonces

    \[\Mat_{C_2,B_2}(T) = \Mat_{C_2}(C_1)\Mat_{C_1,B_1}(T)\Mat_{B_1}(B_2).\]

Observa cómo la elección de orden en la notación está rindiendo fruto. En el lado derecho «van apareciendo las bases» en el «orden natural» C_2, C_1, B_1, B_2.

Demostración. Sean P=\Mat_{C_1}(C_2) y Q=\Mat_{B_1}(B_2). Por un resultado de la entrada anterior, P es la matriz que representa a la transformación identidad en W con respecto a las bases C_1 y C_2, es decir, P=\Mat_{C_1,C_2}(\text{id}_W).

Por cómo son las matrices de composiciones de transformaciones lineales, y usando que \text{id}_W\circ T=T, tenemos que

    \[\Mat_{C_1,C_2}(\text{id}_W)\Mat_{C_2,B_2}(T)=\Mat_{C_1,B_2}(T).\]

De manera análoga, Q es la matriz que representa a la transformación identidad en V con respecto a las bases B_1 y B_2, de donde tenemos que

    \[\Mat_{C_1,B_1}(T)\Mat_{B_1,B_2}(\text{id}_V)=\Mat_{C_1,B_2}(T).\]

De esta forma,

    \[P\Mat_{C_2,B_2}(T) = \Mat_{C_1,B_2}(T) = \Mat_{C_1,B_1}(T) Q.\]

El resultado se obtiene multiplicando por la izquierda ambos lados de esta ecuación por P^{-1}=\Mat_{C_2}(C_1).

\square

En la siguiente entrada se verán varios ejemplos que involucran crear matrices para transformaciones lineales, matrices de cambios de base y multiplicarlas para entender una transformación lineal en distintas bases.

Por el momento, dejamos únicamente un corolario del teorema anterior, para el caso en el que tenemos una transformación lineal de un espacio vectorial a sí mismo expresado en términos de dos bases.

Corolario. Sea T:V\to V una transformación lineal de un espacio vectorial V de dimensión finita a sí mismo. Sean B y B' bases de V y P la matriz de cambio de base de B a B'. Entonces

    \[\Mat_{B'}(T)=P^{-1}\Mat_{B}(T)P.\]

Matrices similares

Definición. Decimos que dos matrices A y B en M_{n}(F) son similares o conjugadas si existe una matriz invertible P en M_n(F) tal que B=P^{-1}AP.

En otras palabras, A y B son matrices similares si representan a una misma transformación lineal en diferentes bases.

Proposición. La relación «ser similares» es una relación de equivalencia en M_n(F).

Demostración. Toda matriz es similar a sí misma usando P=I_n, la identidad. Si A y B son similares con matriz invertible P, entonces B y A son similares con matriz invertible P^{-1}. Si A y B son similares con matriz invertible P y B y C son similares con matriz invertible Q, notemos que A=P^{-1}BP=P^{-1}(Q^{-1}CQ)P=(QP)^{-1}C(QP), de modo que A y C son similares con matriz invertible QP.

\square

¿Por qué es importante saber si dos matrices son similares? Resulta que dos matrices similares comparten muchas propiedades, como su traza, su determinante, su rango, etc. Para algunas matrices es más sencillo calcular estas propiedades. Así que una buena estrategia en álgebra lineal es tomar una matriz A «complicada» y de ahí encontrar una matriz similar B «más simple», y usar B para encontrar propiedades de A.

Veamos un ejemplo de esto. Mediante un sencillo argumento inductivo se puede mostrar lo siguiente.

Proposición. Si A y B son matrices similares con A=P^{-1}BP, entonces A^n=P^{-1}B^nP.

Si B fuera una matriz diagonal, entonces es fácil encontrar B^n: basta con elevar cada una de las entradas de su diagonal a la n (lo cual es mucho más fácil que hacer productos de matrices). Así, esto da una forma muy fácil de encontrar A^n: basta con encontrar B^n, y luego hacer dos multiplicaciones de matrices más, por P^{-1} a la izquierda y por P a la derecha.

Cuando A es una matriz similar a una matriz diagonal, decimos que A es diagonalizable. Una parte importante de lo que resta del curso consistirá en entender por qué las matrices simétricas con entradas reales son diagonalizables.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Deduce el corolario del teorema principal de esta entrada.
  • Considera \mathbb{R}[x]_2 de polinomios con coeficientes reales y grado a lo más dos. Sea T: \mathbb{R}[x]_2 la transformación tal qur T(p)=p', el polinomio derivado. Encuentra la matriz que representa a la transformación en la base \{1+x+x^2,1+2x,1\} y la matriz que representa a la transformación en la base \{1,x,x^2\}. Encuentra también la matriz de cambio de base de la primera a la segunda. Verifica que se cumple la conclusión del corolario.
  • Sean A y B matrices similares. Muestra que A es invertible si y sólo si B lo es.
  • Sean A y B matrices similares. Muestra que A y B tienen la misma traza.
  • Completa el argumento inductivo para demostrar la última proposición.
  • Considera la matriz con entradas complejas A=\begin{pmatrix}1 & 0 & 0\\ 0 & i & 0\\ 0 & 0 & -1 \end{pmatrix}. Encuentra A^{105}.

Álgebra Lineal I: Problemas de transformaciones lineales, vectores independientes y forma matricial

El objetivo de esta entrada es mostrar algunos problemas resueltos sobre los temas vistos el jueves y viernes de la semana pasada.

Problema 1. Sean

v_1=(1,0,0), v_2=(1,1,0), v_3=(1,1,1)

y sea T:\mathbb{R}^3\longrightarrow \mathbb{R}^2 una transformación lineal tal que

T(v_1)=(3,2), T(v_2)=(-1,2), T(v_3)=(0,1)

Calcula el valor de T(5,3,1).

 

Solución. Primero observemos que {(1,0,0), (1,1,0), (1,1,1)} es una base de \mathbb{R}^3, entonces existen a,b,c\in \mathbb{R} tales que

    \[(5,3,1)=a(1,0,0)+b(1,1,0)+c(1,1,1).\]


Si logramos expresar a (5,3,1) de esta forma, después podremos usar que T es lineal para encontrar el valor que queremos. Encontrar los valores de a,b,c que satisfacen la ecuación anterior lo podemos ver como el sistema de ecuaciones:

    \[\begin{pmatrix}1 & 1 & 1\\0 & 1 & 1\\0 & 0 & 1\end{pmatrix} \begin{pmatrix}a\\b\\c\end{pmatrix} = \begin{pmatrix}5\\3\\1\end{pmatrix}.\]

Ahora consideramos la matriz extendida del sistema y la reducimos

    \[\begin{pmatrix}1 & 1 & 1 & 5\\0 & 1 & 1 & 3\\0 & 0 & 1 & 1\end{pmatrix} \longrightarrow \begin{pmatrix}1 & 0 & 0 & 2\\0 & 1 & 1 & 3\\0 & 0 & 1 & 1\end{pmatrix} \longrightarrow \begin{pmatrix}1 & 0 & 0 & 2\\0 & 1 & 0 & 2\\0 & 0 & 1 & 1\end{pmatrix}\]


Así, a=2, b=2, c=1.

Finalmente, usando que T es transformación lineal,

    \begin{align*}T(5,3,1)&=T(2(1,0,0)+2(1,1,0)+(1,1,1))\\&=2T(1,0,0)+2T(1,1,0)+T(1,1,1)\\&=2(3,2)+2(-1,2)+(0,1)\\&=(6,4)+(-2,4)+(0,1)\\&=(4,9).\end{align*}

\square

Problema 2. Sea P_n(\mathbb{R}) el espacio de los polinomios de grado a los más n con coeficientes reales.

Considera la transformación lineal T:P_3(\mathbb{R})\longrightarrow P_2(\mathbb{R}) dada por T(p(x))=p'(x).

Sean \beta=\{1,x,x^2,x^3\} y \gamma=\{1,x,x^2\} las bases canónicas de P_3(\mathbb{R}) y P_2(\mathbb{R}), respectivamente. Encuentra la representación matricial de la transformación T.

Solución. Primero le aplicamos T a cada uno de los elementos de \beta

T(1)=0\cdot 1 + 0\cdot x + 0\cdot x^2
T(x)=1\cdot 1 + 0\cdot x + 0\cdot x^2
T(x^2)=0\cdot 1 + 2\cdot x + 0\cdot x^2
T(x^3)=0\cdot 1 + 0\cdot x + 3\cdot x^2

Así,

    \[\begin{pmatrix}0 & 1 & 0 & 0\\0 & 0 & 2 & 0\\0 & 0 & 0 & 3\end{pmatrix}\]


es la representación matricial de T con respecto a las bases canónicas.

\square

Problema 3. Sea V=P_2(\mathbb{R}). Considera las transformaciones

T:\mathbb{R}^3\longrightarrow V, T(a,b,c)=a+2bx+3cx^2

y

S:V\longrightarrow M_2(\mathbb{R}), S(a+bx+cx^2)=\begin{pmatrix}a & a+b\\a-c & b\end{pmatrix}.

Consideramos las bases B_1=\{1,x,x^2\} de V, B_2 la base canónica de \mathbb{R}^3 y B_3=\{E_{11}, E_{12}, E_{21}, E_{22}\} de M_2(\mathbb{R}).

  1. Verifica que T y S son transformaciones lineales.
  2. Escribe las matrices asociadas a T y S con respecto a las bases anteriores.
  3. Encuentra la matriz asociada a la composición S\circ T con respecto a las bases anteriores.
  4. Calcula explícitamente S\circ T, después encuentra directamente su matriz asociada con respecto a las bases anteriores y verifica que el resultado obtenido aquí es el mismo que en el inciso anterior.

Solucion. 1. Sea u\in \mathbb{R} y (a,b,c), (a',b',c')\in \mathbb{R}^3.
Entonces

T(u(a,b,c)+(a',b',c'))=T(au+a',bu+b',cu+c')

=(au+a')+2(bu+b')x+3(cu+c')x^2
=u(a+2bx+3cx^2)+(a'+2b'x+3c'x^2)=uT(a,b,c)+T(a',b',c')

Así, T es lineal.

Ahora, sea u\in \mathbb{R} y a+bx+cx^2, a'+b'x+c'x^2\in V.
Entonces

S(u(a+bx+cx^2)+(a'+b'x+c'x^2))=S(ua+a'+(ub+b')x+(uc+c')x^2)
=\begin{pmatrix}ua+a' & (ua+a')+(ub+b')\\ua+a'-(uc+c') & ub+b'\end{pmatrix}
=u\begin{pmatrix}a & a+b\\a-c & b\end{pmatrix} + \begin{pmatrix}a' & a'+b'\\a'-c' & b'\end{pmatrix}
=uS(a+bx+cx^2)+S(a'+b'x+c'x^2)

Así, S es lineal.

2. Empezamos calculando la matrix Mat_{B_1,B_2}(T) de T con respecto de B_1 y B_2.
Sea B_2=\{e_1,e_2,e_3\} la base canónica de \mathbb{R}^3, entonces

T(e_1)=T(1,0,0)=1=1\cdot 1 + 0\cdot x + 0\cdot x^2,
T(e_2)=T(0,1,0)=2x= 0\cdot 1 + 2\cdot x + 0 \cdot x^2,
T(e_3)=T(0,0,1)=3x^2= 0\cdot 1 + 0\cdot x + 3 \cdot x^2,

Así,

Mat_{B_1,B_2}(T)=\begin{pmatrix}1 & 0 & 0\\0 & 2 & 0\\0& 0 & 3\end{pmatrix}.

De manera análoga, calculamos

S(1)=\begin{pmatrix}1 & 1\\1 & 0\end{pmatrix} = 1 \cdot E_{11} + 1 \cdot E_{12} + 1 \cdot E_{21} + 0\cdot E_{22},
S(x)=\begin{pmatrix}0 & 1\\0 & 1\end{pmatrix} = 0 \cdot E_{11} + 1 \cdot E_{12} + 0 \cdot E_{21} + 1\cdot E_{22},
S(x^2)=\begin{pmatrix}0 & 0\\-1 & 0\end{pmatrix} = 0 \cdot E_{11} + 0 \cdot E_{12} + (-1) \cdot E_{21} + 0\cdot E_{22},

Por lo tanto

Mat_{B_3,B_1}(S)=\begin{pmatrix}1 & 0 & 0\\1 & 1 & 0\\1 & 0 & -1\\0 & 1 & 0\end{pmatrix}.

3. Usando el teorema visto en la entrada del viernes pasado 

Mat_{B_3,B_2}(S\circ T)=Mat_{B_3,B_1}(S)\cdot Mat_{B_1,B_2}(T)


=\begin{pmatrix}1 & 0 & 0\\1 & 1 & 0\\1 & 0 & -1\\0 & 1 & 0\end{pmatrix} \begin{pmatrix}1 & 0 & 0\\0 & 2 & 0\\0 & 0 & 3\end{pmatrix} = \begin{pmatrix}1 & 0 & 0\\1 & 2 & 0\\1 & 0 & -3\\0 & 2 & 0\end{pmatrix}.

4. Calculamos

(S\circ T)(a,b,c)=S(T(a,b,c))= S(a+2bx+3cx^2)=\begin{pmatrix}a & a+2b\\a-3c & 2b\end{pmatrix}.

Luego,

(S\circ T)(e_1)=\begin{pmatrix}1 & 1\\1 & 0\end{pmatrix} = 1\cdot E_{11} + 1 \cdot E_{12} + 1 \cdot E_{21} + 0 \cdot E_{22}
(S\circ T)(e_2)=\begin{pmatrix}0 & 2\\0 & 2\end{pmatrix} = 0\cdot E_{11} + 2 \cdot E_{12} + 0 \cdot E_{21} + 2 \cdot E_{22}

y

(S\circ T)(e_2)=\begin{pmatrix}0 & 0\\-3 & 0\end{pmatrix} = 0 \cdot E_{11} + 0 \cdot E_{12} + -3 \cdot E_{21} + 0 \cdot E_{22}

Así, la matriz asociada a S\circ T es

Mat_{B_3,B_2}(S\circ T)= \begin{pmatrix}1 & 0 & 0\\1 & 2 & 0\\1 & 0 & -3\\0 & 2 & 0\end{pmatrix}

Que es justo lo que se obtuvo en el inciso 3.

\square

Seminario de Resolución de Problemas: Bases numéricas y dígitos

Introducción

En las entradas anteriores de teoría de números hemos hablado acerca de divisibilidad, de aritmética modular y de factorización única en primos. En esta entrada vamos a hablar de propiedades que podemos deducir de ciertos números a partir de su dígitos.

Usualmente escribimos a los números en base 10, usando los dígitos de 1 a 9. En realidad, esto es relativamente arbitrario. Podemos usar bases distintas de 10 para expresar cualquier número de manera (casi) única. Conocer la expresión de un número en cierta base nos permite deducir propiedades algebraicas y de divisibilidad que nos ayuden a resolver problemas.

Expresión en una base arbitraria

Para cualquier base entera b\geq 2 que elijamos, cualquier número real se puede expresar de manera (casi) única en base b. La afirmación precisa es el siguiente resultado.

Teorema. Sea r un número real y b\geq 2 un entero. Entonces, existen únicos enteros A_0,A_1,\ldots, a_1,a_2,\ldots en \{0,1,\ldots,b-1\} tales que

    \[r=\sum_{i=0}^\infty A_i b^i + \sum_{i=0}^{\infty} a_i 10^{-i}\]

y a_i\neq b-1 para una infinidad de i‘s.

Para estos a_i y A_i escribimos

    \[r=(\ldots A_2A_1A_0.a_1a_2\ldots)_b,\]

en donde el subíndice indica la base que se está usando.

La condición de a_i\neq b-1 para una infinidad de i's está ahí para garantizar que la expresión sea única pues, por ejemplo, 1=\sum_{i=0}^\infty 9\cdot 10^{-i}=0.9999\ldots, pero esa condición descarta la expresión de la derecha.

Si b=2, a esta expresión le llamamos la expresión binaria de r.

Ejemplo. La expresión binaria de 4/3 es (1.010101\ldots)_2. ¿Por qué?

Multiplicar y dividir entre 10 cuando tenemos números en base 10 es sencillo: simplemente recorremos el punto decimal. Lo mismo sucede en cualquier base b.

Proposición. Cuando tenemos un número en base b y multiplicamos por b, el «punto decimal» se recorre a la derecha. Cuando dividimos entre b se recorre a la izquierda.

Problema. Determina si existe un real x tal que

    \[\floor{x}+\floor{2x}+\floor{4x}+\floor{8x}= 2222.\]

Sugerencia pre-solución. Trabaja hacia atrás suponiendo que la ecuación sí tiene una solución para determinar cómo tiene que verse x. Usa la expresión binaria de x.

Solución. Tenemos que r\geq \floor{r} para todo real r, de modo que si dicho número x existe, se cumple

    \[17x\geq \floor{x}+\floor{2x}+\floor{4x}+\floor{8x} = 2222.\]

De aquí, x\geq 2222/17 = 130.705\ldots\geq 130. También, r\leq \floor{r}+1, de modo que si x existe necesitamos

    \[17x\leq \floor{x}+\floor{2x}+\floor{4x}+\floor{8x} + 4 = 2226.\]

De aquí, x\leq 2226/17 =130.94\leq 131.

Esto nos dice que x es un real entre 130 y 131. Escribámoslo como 130 más una parte fraccional en base 2, es decir, de la forma x=130+(abcde\ldots)_2. Multiplicar por 2 simplemente recorre el punto decimal en base 2 un lugar hacia la derecha, de modo que

    \begin{align*}2x&=260+(a.bcde\ldots)_2\\4x&=520+(ab.cde\ldots)_2\\8x&=1040+(abc.de\ldots)_2,\end{align*}

y por lo tanto

    \begin{align*}\floor{x}&=130\\\floor{2x}&=260+(a)_2=260+a\\\floor{4x}&=520+(ab)_2=520+2a+b\\\floor{8x}&=1040+(abc)_2=1040+4a+2b+c.\end{align*}

Concluimos entonces que la suma buscada es igual a 1950+7a+3b+c. Si existe el número que queremos, la ecuación

    \[1950+7a+3b+c=2222\]

debe tener una solución con a, b y c iguales a 0 o a 1. Pero esto es imposible, pues incluso aunque los tres sean iguales a 1, tenemos a lo más 1950+11=1961. De esta forma, no existe la x que buscamos.

\square

Bases y números racionales

Una sucesión infinita \{a_1,a_2,\ldots,\} es preperiódica si existen enteros positivos n y d tales que a_m=a_{m+d} para todo entero m\geq n. A d se le llama un periodo de la sucesión, y decimos que \{a_1,a_2,\ldots\} es periódica a partir de a_n.

Teorema. Sea r un número real. Las siguientes tres afirmaciones son equivalentes:

  • r es racional
  • Para toda base b la sucesión de dígitos después del punto \{a_1,a_2,\ldots\} es preperiódica.
  • Para alguna base b la sucesión de dígitos después del punto \{a_1,a_2,\ldots\} es preperiódica.

Problema. Considera el número en binario

    \[r=(0.a_1a_2a_3\ldots)_2\]

en donde a_i=0 si i es primo y a_i=1 si no. Determina si r es un número racional o irracional.

Sugerencia pre-solución. Procede por contradicción, suponiendo que r es racional.

Solución. Si r fuera racional, la sucesión \{a_1,a_2,\ldots\} sería preperiódica, de modo que existirían n y d tales que a_{m+d}=a_m para todo m\geq n. Consideremos el bloque de d dígitos (a_na_{n+1}\ldots a_{n+d-1})_2. Como el periodo de la sucesión es d, a partir de a_n este bloque de dígitos se repite.

Los números M=n(2d+1)!+2, M+1=n(2d+1)!+3, \ldots, M+(2d-1)=n(2d+1)!+(2d+1) son 2d números consecutivos mayores a n y tales que ninguno de ellos es primo, pues el primero es divisible entre 2, el segundo entre 3, …, y el último entre 2d+1. Esto muestra que el bloque de d dígitos debe consistir de puros 1‘s, pues uno de los bloques del ciclo queda contenido en el bloque de 2d dígitos (a_Ma_{M+1}\ldots a_{M+2d-1})_2. Así, a partir de a_n todos los dígitos son iguales a 1.

Pero esto es imposible, pues quiere decir que todos los enteros mayores o iguales a n no son primos. Esto contradice que hay una infinidad de números primos.

\square

Criterios de divisibilidad

Si sabemos cómo es la expresión de un número en una base, entonces a veces podemos decir cosas acerca de su divisibilidad o residuo al dividirse entre algunos enteros relacionados con la base. Cuando estamos trabajando módulo 10 tenemos el siguiente resultado.

Proposición (criterios de divisibilidad base 10). Sea n un entero positivo. En base 10,

  • n es congruente con el número formado por sus últimos k dígitos módulo 10^k, y por lo tanto también módulo 2^k y módulo 5^k.
  • n es congruente con la suma de sus dígitos módulo 9, y por lo tanto también módulo 3.
  • Agrupemos los dígitos de n de derecha a izquierda en grupos de j elementos, donde el último puede tener menos de j. Un número es congruente con la suma alternada (más, menos, más, etc) de estos grupos módulo 10^{j}+1.

Demostrar estos criterios es sencillo. Por ejemplo, un número (A_nA_{n-1}\ldots A_0)_{10} en base 10 es igual a

    \[10^{n}A_n+10^{n-1}A_{n-1}+\ldots+10 A_1+ A_0.\]

Trabajando módulo 9, todos los 10 son 1, así que

    \[n=10^nA_n+\ldots+A_0\equiv A_n + A_{n-1}+\ldots+A_0.\]

Como ejemplo del último criterio, considera el siguiente problema:

Problema. ¿Cuál es el residuo que queda al dividir n=1512513514515 entre 13?

Sugerencia pre-solución. Usa el tercer criterio de divisibilidad base 10 para j=3. Factoriza 1001.

Solución. Vamos a estudiar al número módulo 1001. Para esto, agrupamos los dígitos de tres en tres, de derecha a izquierda

    \[515, 514, 513, 512, 1\]

y hacemos la suma alternada

    \[515-514+513-512+1=3.\]

Por el tercer criterio de divisibilidad, tenemos que n\equiv 3 \pmod{1001}. Notemos que 1001=7\cdot 11 \cdot 13, de modo que n\equiv 3 \pmod{13}. Así, el residuo al dividir n entre 13 es 3.

\square

En general, tenemos lo siguiente.

Proposición (criterios de divisibilidad base b). Sea n un entero positivo. En base b:

  • n es congruente con el número formado por sus últimos k dígitos módulo b^k, y por lo tanto también módulo d^k para cualquier divisor d de b.
  • n es congruente con la suma de sus dígitos módulo b-1 (y por lo tanto también módulo cualquier divisor de b-1)
  • Agrupemos los dígitos de n de derecha a izquierda en grupos de j elementos, donde el último puede tener menos de j. Un número es congruente con la suma alternada (más, menos, más, etc) de estos grupos módulo b^{j}+1.

Problema. Considera los números del 1 al 500 (inclusive). ¿Cuántos de estos números tienen una cantidad impar de 1‘s en su expresión en base 3? ¿Cuántos de estos números tienen una cantidad impar de 1‘s en su expresión en binario?

Sugerencia pre-solución. Haz casos pequeños para encontrar un patrón que te diga cuántos números del 1 al n tienen una cantidad impar de 1‘s en su expresión en base 2 y 3. Para demostrar el resultado para base 3, usa criterios de divisibilidad generalizados. Para base 2 usa paridad y aprovecha la simetría.

Solución. Un número en base 3 es congruente con la suma de sus dígitos módulo 2. En base 3 el único dígito impar es el 1. Así, un número en base 3 es congruente a su cantidad de dígitos 1 módulo 2. De esta forma, n tiene una cantidad impar de 1‘s si y sólo si es impar. Por lo tanto, hay 250 números entre 1 y 500 que tienen una cantidad impar de 1‘s en su expresión en base 3.

En base 1 el patrón no es tan claro. Los primeros números son 1, 10, 11, 100, 101, 110, 111. A veces cuando se cambia de cantidad de dígitos se cambia la paridad de 1‘s (como de 11 a 100) y a veces no (como de 111 a 1000). Haremos entonces un argumento de emparejamiento.

Notemos que cualquier número par 2n termina en 0 en binario y que 2n+1 tiene la misma expansión salvo el último dígito, que ahora es 1.Así, a los números del 2 al 499 los podemos agrupar en parejas en donde en cada pareja los números tienen distinta paridad de 1‘s. De esta forma, aquí hay 498/2=249 números con una cantidad impar de 1‘s. El 1 tiene una cantidad impar de 1‘s. El 500 en binario es (111110100)_2, que tiene una cantidad par de 1‘s. Así, hay 250 números entre 1 y 500 con una cantidad impar de 1‘s en binario.

\square

Más ejemplos

Puedes ver más ejemplos del uso de esta teoría en la Sección 3.4 del libro Problem Solving through Problems de Loren Larson.

Álgebra Lineal I: Cambios de base, parte 1

Introducción

En la entrada anterior platicamos de cómo podemos comenzar con una transformación lineal T:V\to W entre espacios vectoriales V y W y de ahí obtener una «matriz que la represente». Para ello, necesitamos elegir bases B_V y B_W de V y W respectivamente. Si elegimos bases diferentes, entonces la matriz que obtendremos será diferente, por lo cual es muy importante siempre recordar qué bases elegimos.

Es posible que en algunas aplicaciones de álgebra lineal tengamos una transformación T:V\to W, y que los vectores de V o los de W los tengamos que entender en más de una base. Así, los dos siguientes problemas aparecen frecuentemente:

  • Supongamos que tenemos dos bases B_1 y B_2 de un espacio vectorial V y que tomamos un vector v en V. Si ya sabemos la combinación lineal de elementos de B_1 que da v, ¿cómo podemos saber la combinación lineal de elementos de B_2 que da v? En otras palabras, ¿cómo podemos pasar a v de su expresión en base B_1 a su expresión en base B_2?
  • Supongamos que tenemos una transformación lineal T:V\to W entre dos espacios vectoriales V y W, dos bases B_1 y B_2 de V y dos bases C_1 y C_2 de W. Si ya sabemos qué le hace T a los elementos de V en términos de las bases B_1 y C_1, ¿cómo podemos saber qué hace T en términos de las bases B_2 y C_2?

Las herramientas que necesitamos para responder ambos problemas se llaman matrices de cambios de base. El objetivo de esta entrada es definir estas matrices, ver algunas propiedades básicas que cumplen y ver cómo nos ayudan a resolver el primero de los problemas de aquí arriba. En una segunda entrada veremos cómo también servirán para resolver el segundo.

Matriz de cambio de base

Definición. Sea V un espacio vectorial sobre el campo F. Sean B=(v_1,\ldots,v_n) y B'=(v_1', \ldots, v_n') dos bases ordenadas de V. La matriz de cambio de base de B a B' es la matriz P=[p_{ij}] en M_{n}(F) cuya columna j tiene como entradas a las coordenadas de v_j' escrito en términos de la base B. En otras palabras, las entradas p_{1j},\ldots,p_{nj} de la j-ésima columna de P son los únicos elementos de F para los cuales

    \[v_j'=p_{1j}v_1+\ldots +p_{nj} v_n,\]

para toda j=1,2,\ldots,n.

Ejemplo. Considera la base ordenada B=(1,x,x^2) de R[x]_2, el espacio vectorial de polinomios de coeficientes reales grado a lo más 2. Veremos que B'=(3x^2,2x,1) es una base de R[x]_2. Encontraremos la matriz de cambio de base de B a B' y la matriz de cambio de base de B' a B.

La dimensión de R[x]_2 es 3 y B' tiene 3 elementos, así que basta ver que los elementos de B' son linealmente independientes para ver que B' es base. Una combinación lineal a(3x^2)+b(2x)+c(1)=0 es equivalente a que 3ax^2+2bx+c=0, lo cual sucede si y sólo si a=b=c=0. Esto muestra que B' es base.

Para encontrar a la matriz de cambio de base de B a B' lo que tenemos que hacer es escribir a los elementos de B' como combinación lineal de los elementos de B. Esto lo hacemos de la siguiente manera (recuerda que el orden es importante):

    \begin{align*}3x^2 &= 0 \cdot 1 + 0 \cdot x + 3 \cdot x^2\\2x &= 0\cdot 1+ 2\cdot x + 0 \cdot x^2\\1 & = 1\cdot 1 + 0 \cdot x + 0 \cdot x^2.\end{align*}

Como los coeficientes de 3x^2 en la base ordenada B son 0, 0 y 3, entonces la primer columna de la matriz de cambio de base será (0,0,3). Argumentando de manera similar para 2x y 1, tenemos que la matriz de cambio de base de B a B' es

    \[\begin{pmatrix}0 & 0 & 1\\0 & 2 & 0 \\3 & 0 & 0\end{pmatrix}.\]

Para encontrar a la matriz de cambio de base de B' a B, expresamos a los elementos de B en términos de la base B' como sigue:

    \begin{align*}1 &= 0 \cdot (3x^2) + 0 \cdot (2x) + 1 \cdot 1\\x &= 0\cdot (3x^2)+ \frac{1}{2} \cdot (2x) + 0 \cdot 1\\x^2 & = \frac{1}{3} \cdot (3x^2) + 0 \cdot (2x) + 0 \cdot 1.\end{align*}


De esta manera, tenemos que la matriz de cambio de base de B' a B es

    \[\begin{pmatrix}0 & 0 & \frac{1}{3}\\0 & \frac{1}{2} & 0 \\1 & 0 & 0\end{pmatrix}.\]

\square

La matriz de cambio de base nos ayuda a responder la primer pregunta que planteamos al inicio de esta entrada. Si conocemos las coordenadas de un vector en una base, podemos usar la matriz de cambio de base para encontrar las coordenadas del vector en otra base.

Proposición. Sea V un espacio vectorial de dimensión n, B=(v_1,\ldots,v_n), B'=(v_1',\ldots,v_n') bases ordenadas de V y P la matriz de cambio de base de B a B'. Supongamos que el vector v de V se escribe en base B como

    \[v=c_1v_1+c_2v_2+\ldots+c_nv_n\]

y en base B' como

    \[v=c_1'v_1'+c_2'v_2'+\ldots+c_n'v_n'.\]

Entonces:

    \[P \begin{pmatrix}c_1' \\\vdots \\c'_n\end{pmatrix}=\begin{pmatrix}c_1 \\\vdots \\c_n\end{pmatrix} .\]

En otras palabras, la matriz P de cambio de base de B a B' manda las coordenadas de un vector en base B' a coordenadas en base B al multiplicar por la izquierda. Ojo: para construir P expresamos a B' en términos de B, pero lo que hace P es expresar a alguien en de coordenadas B' a coordenadas en B.

Demostración. El vector de coordenadas de v_j' escrito en base B' es el vector canónico e_j de F^n. Además, Pe_j es la j-ésima columna de P, que por construcción es el vector de coordenadas de v_j' en la base B. Así, el resultado es cierto para los vectores v_j' de la base B'. Para cualquier otro vector v, basta expresarlo en términos de la base B' y usar la linealidad de asignar el vector de coordenadas y la linealidad de P.

\square

Problema. Escribe a los vectores v_1=(4,3,5,2), v_2=(2,2,2,2) y v_3(0,0,0,1) de \mathbb{R}^4 como combinación lineal de los elementos de la base B de \mathbb{R}^4 conformada por los vectores (1,0,0,0), (1,1,0,0), (1,1,1,0) y (1,1,1,1).

Solución. Conocemos las coordenadas de v_1,v_2,v_3 en la base canónica (1,0,0,0), (0,1,0,0), (0,0,1,0), (0,0,0,1). De hecho, el vector de coordenadas de v_1 es exactamente v_1 (esto es algo que sucede pues estamos trabajando en \mathbb{R}^4). Lo que nos estan pidiendo son las coordenadas de v_1,v_2,v_3 en la base B. Nos gustaría usar la proposición anterior. Para ello, necesitamos encontrar la matriz de cambio de base de B a la base canónica. Escribamos entonces a la base canónica en términos de los vectores de B:

    \begin{align*}(1,0,0,0)&=1\cdot (1,0,0,0)+0\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\(0,1,0,0)&= -1\cdot (1,0,0,0)+1\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\(0,0,1,0)&= 0\cdot (1,0,0,0)-1\cdot (1,1,0,0)+1\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\(0,0,0,1)&= 0\cdot (1,0,0,0)+0\cdot (1,1,0,0)-1\cdot (1,1,1,0)+1\cdot (1,1,1,1)\\\end{align*}

A estas coordenadas las ponemos como columnas para encontrar la matriz de cambio de base de B a la base canónica:

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix}.\]

Para encontrar las coordenadas de v_1, v_2, v_3 en términos de la base B, basta con multiplicar esta matriz a la izquierda para cada uno de ellos:

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix} \begin{pmatrix}4 \\3 \\ 5 \\ 2\end{pmatrix} =  \begin{pmatrix}1 \\-2 \\ 3\\ 2\end{pmatrix},\]

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix} \begin{pmatrix}2 \\2 \\ 2 \\ 2\end{pmatrix} = \begin{pmatrix}0 \\0 \\ 0\\ 2\end{pmatrix}\]

y

    \[\begin{pmatrix}1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1\end{pmatrix} \begin{pmatrix}0 \\0 \\ 0 \\ 1\end{pmatrix} = \begin{pmatrix}0 \\0 \\ -1\\ 1\end{pmatrix}.\]

En efecto, se puede verificar que estos nuevos vectores dan las combinaciones lineales de la base B que hacen a v_1, v_2 y v_3, por ejemplo, para v_1 tenemos:

    \[(4,5,3,2)=(1,0,0,0)-2(1,1,0,0)+3(1,1,1,0)+2(1,1,1,1).\]

\square

Matriz de cambio de base como matriz de transformación lineal

A la matriz de cambio de base de B a B' la denotamos por \text{Mat}_B(B').

Una observación crucial es que podemos pensar a una matriz de cambio de base en un espacio vectorial V justo como como una matriz correspondiente a una transformación lineal de las que vimos en la entrada pasada. De hecho, la transformación lineal que le corresponde es muy bonita: es la identidad \text{id}_V que manda a cada vector de V a sí mismo.

De manera más concreta, si B y B' son bases de V y \text{Mat}_B(B') es la matriz de cambio de base de B a B', entonces

    \[\text{Mat}_B(B')=\text{Mat}_{B,B'}(\text{id}_V).\]

A estas alturas tienes todas las herramientas necesarias para demostrar esto.

¿Qué sucede si ahora tenemos tres bases B, B' y B'' de V y componemos a la identidad consigo misma? Utilizando los argumentos de la entrada anterior, la matriz correspondiente a la composición es el producto de las matrices de cada transformación. Juntando esto con la observación anterior, tenemos la siguiente propiedad para matrices de cambio de base:

    \[\text{Mat}_B(B'')=\text{Mat}_{B}(B')\cdot \text{Mat}_{B'}(B'').\]

Finalmente, ¿qué sucede si en la igualdad anterior ponemos B''=B? Al lado izquierdo tenemos la matriz de cambio de base de B a sí misma, que puedes verificar que es la identidad. Al lado derecho tenemos al producto de la matriz de cambio de base de B a B' con la matriz de cambio de B' a B. Esto muestra que las matrices de cambio de base son invertibles.

Resumimos todas estas observaciones en la siguiente proposición:

Proposición. Sean B, B' y B'' bases del espacio vectorial de dimensión finita V.

  • La matriz de cambio de base de B a B' corresponde a la matriz de la transformación identidad de V a V, en donde el primer V lo pensamos con la base B' y al segundo con la base B.
  • El producto de matrices de cambio de base de B a B' y de B' a B'' es la matriz de cambio de base de B a B''.
  • La matriz de cambio de base de B a B' es invertible, y su inversa es la de cambio de base de B' a B.

En la próxima entrada veremos cómo las matrices de cambio de base también nos ayudan a entender transformaciones lineales bajo distintas bases.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Qué sucede en el primer ejemplo si multiplicas ambas matrices de cambio de base que encontramos?
  • En el segundo ejemplo, encuentra la matriz de cambio de base de la base canónica a la matriz B
  • Considera las cuatro matrices de 2\times 2 que puedes formar colocando tres unos y un cero. Muestra que estas cuatro matrices forman una base B de M_{2,2}(\mathbb{R}). Determina la matriz de cambio de base de B a la base canónica de M_{2,2}(\mathbb{R}). Ojo: Una cosa son los elementos del espacio vectorial y otra cosa van a ser las matrices de cambio de base. Como M_{2,2}(\mathbb{R}) es de dimensión 4, la matriz de cambio de base que tienes que determinar en realidad es de 4\times 4.
  • Da una demostración de que, en efecto

        \[\text{Mat}_B(B')=\text{Mat}_{B,B'}(\text{id}_V).\]

  • Verifica que la matriz de cambio de base B a sí misma es la identidad.

Álgebra Lineal I: Transformaciones lineales en independientes y generadores

Introducción

El objetivo de esta entrada es entender qué le hacen las transformaciones lineales a los conjuntos linealmente independientes, a los conjuntos generadores y a las bases. En la siguiente lista recordamos brevemente estas nociones, pero puedes ver definiciones más formales en las entradas de transformaciones lineales y del Lema de Steinitz.

  • Una transformación lineal T:V\to W entre espacios vectoriales V y W es una función que «abre sumas» (es decir T(x+y)=T(x)+T(y)) y «saca escalares» (es decir T(cx)=cT(x)). Recuerda que es necesario que V y W estén sobre el mismo campo, cosa que asumiremos cuando hablemos de transformaciones lineales.
  • Un conjunto de vectores \{v_1,\ldots, v_n\} en V es linealmente independiente si la única combinación lineal de ellos que da 0 es la trivial, osea en la que todos los coeficientes son 0.
  • Un conjunto de vectores \{v_1,\ldots,v_n\} en V genera a V si cualquier vector de V puede ser escrito como combinación lineal de estos elementos.
  • Un conjunto de vectores en V es base si es linealmente independiente y genera a V.

La idea de esta entrada es entender lo siguiente:

  • ¿Cuándo imagenes de linealmente independientes/generadores/bases son linealmente independientes/generadores/bases?
  • ¿Cómo saber si una transformación lineal es inyectiva?
  • ¿Cómo podemos determinar completamente a una transformación lineal T:V\to W en términos de lo que le hace a una base de V?

Exploración

Tomemos espacios vectoriales V, W y una transformación lineal T:V\to W. Si comenzamos con un conjunto S=\{v_1,\ldots,v_n\} de vectores en V que es linealmente independiente (o generador, o base) en V, ¿cuándo sucede que T(S)=\{T(v_1),\ldots,T(v_n)\} es linealmente independiente (o generador, o base, respectivamente) en W?

Esto definitivamente no sucede siempre. La tranformación Z:\mathbb{R}^3\to \mathbb{R}[x] que manda a todo vector con tres entradas reales al polinomio 0 es una transformación lineal. Sin embargo, a la base canónica \{e_1,e_2,e_3\} la manda al conjunto \{0,0,0\}=\{0\}, que no es un conjunto ni linealmente independiente, ni generador de los polinomios con coeficientes reales.

De esta forma, tenemos que pedirle más a T para que preserve propiedades bonitas.

Intuitivamente, si la imagen de T no cubre a todo W, entonces los vectores de la forma T(v) con v en V no deberían de poder generar a W. Así, para que T mande generadores a generadores, tiene que pasar que «T pase por todo W«. Esta noción queda capturada formalmente al pedir que T sea suprayectiva.

Del mismo modo, también intuitivamente si «T manda elementos distintos al mismo elemento», entonces probablemente perdamos conjuntos linealmente independientes. Así, para preservar conjuntos linealmente independientes, necesitamos que vectores distintos vayan a valores distintos. En términos formales, necesitamos que T sea inyectiva.

Los resultados principales

El primer resultado es que los requisitos que descubrimos intuitivamente en la sección pasada son suficientes.

Teorema. Sea T:V\to W una transformación lineal y S=\{v_1,\ldots,v_n\} un conjunto de vectores de V. Entonces:

  • Si T es inyectiva y S es linealmente independiente, entonces T(S) es linealmente independiente.
  • Si T es suprayectiva y S es generador, entonces T(S) es generador.
  • Si T es biyectiva y S es base, entonces T(S) es base.

Demostración. Comencemos suponiendo que T es inyectiva y S es linealmente independiente. Entonces T(v_1),\ldots,T(v_n) son todos distintos. Tomemos una combinación lineal de elementos de T(S) igual a cero, es decir,

    \[a_1T(v_1)+a_2T(v_2)+\ldots+a_nT(v_n)=0.\]

Como T es transformación lineal,

    \[T(a_1v_1+a_2v_2+\ldots+a_nv_n)=0=T(0).\]

Como T es inyectiva, esto implica que

    \[a_1v_1+a_2v_2+\ldots+a_nv_n=0,\]

pero como S es linealmente independiente, concluimos que a_1=\ldots=a_n=0. Así, T(S) es linealmente independiente.

Supongamos ahora que T es suprayectiva y S es generador. Tomemos un w\in W. Como T es suprayectiva, existe v\in V tal que T(v)=w y como S es generador, existen a_1,\ldots,a_n tales que

    \[a_1v_1+\ldots+a_nv_n=v.\]

Aplicando T en ambos lados, abriendo las sumas y sacando escalares obtenemos que

    \[a_1T(v_1)+\ldots+a_nT(v_n)=T(v)=w.\]

Así, todo elemento de W se puede escribir como combinación lineal de elementos de T(S), como queríamos.

Finalmente, supongamos que T es biyectiva y S es base. Como T es inyectiva y S linealmente independiente, entonces T(S) es linealmente independiente. Como T es suprayectiva y S generador, entonces T(S) es generador. Así, T(S) es base.

\square

Una consecuencia fudamental del resultado anterior es que si V y W son espacios de dimensión finita y existe una transformación lineal inyectiva T:V\to W, entonces \dim(V)\leq \dim(W). En efecto, si B es base de V y T es inyectiva, entonces T(B) es linealmente independiente en W y sabemos que W tiene a lo más \dim(W) vectores linealmente independientes, así que \dim(V)=|B|=|T(B)|\leq \dim(W). De manera similar, si existe una transformación lineal T:V\to W suprayectiva, entonces \dim(V)\geq \dim(W). Demuestra esto. ¿Qué pasa con las dimensiones si existe una transformación lineal biyectiva entre V y W?

El teorema también sugiere que es importante saber cuándo una transformación lineal es inyectiva, suprayectiva o ambas. Resulta que en el caso de la inyectividad hay un criterio que nos ayuda.

Proposición. Una transformación lineal T es inyectiva y si sólo si el único vector que va a 0 bajo T es el 0.

Demostración. Sean V y W espacios vectoriales y T:V\to W una transformación lineal. Recordemos que sabemos que T(0)=0.

Si T es inyectiva y T(x)=0, entonces T(x)=T(0) y por inyectividad x=0, de modo que x es el único vector que va a 0 bajo T.

Si el único vector que bajo T va a 0 es el 0 y tenemos que T(x)=T(y), entonces usando que T es lineal tenemos que 0=T(y)-T(x)=T(y-x). Así, y-x=0, es decir, x=y. Con esto queda mostrado que T es inyectiva.

\square

Conociendo los valores de una transformación lineal en algunos vectores, es posible determinar el valor de la transformación en otros vectores que son combinación lineal de los primeros. Considera el siguiente ejemplo.

Problema. La transformación lineal T:M_{2,2}(\mathbb{R})\to\mathbb{R}^2 cumple que T\begin{pmatrix}1 & 1\\0 & 0\end{pmatrix}=(1,0), T\begin{pmatrix}0 & 1 \\0 & 1\end{pmatrix}=(0,-1), T\begin{pmatrix}0 & 0\\1 & 1\end{pmatrix}=(-1,0) y T\begin{pmatrix}1 & 0\\1 & 0\end{pmatrix}=(0,1). Determina el valor de T\begin{pmatrix} 3 & 3\\ 3 & 3\end{pmatrix}.

Intenta resolver el problema por tu cuenta antes de ver la solución. Para ello, intenta poner a la matriz \begin{pmatrix} 3 & 3\\ 3 & 3\end{pmatrix} como combinación lineal de las otras matrices y usar que T es lineal.

Solución. Sean A, B, C y D las matrices de las cuales conocemos cuánto vale T en ellas y E la matriz con puros 3‘s. Queremos determinar el valor de T(E). Notemos que E=\frac{3}{2}(A+B+C+D). Como T es transformación lineal, tenemos que

    \begin{align*}T(E)&=\frac{3}{2}(T(A)+T(B)+T(C)+T(D))\\&=\frac{3}{2}((1,0)+(0,-1)+(-1,0)+(0,1))\\&=(0,0).\end{align*}

\square

En este problema lo que sirvió para encontrar el valor de T(E) fue poner a la matriz E como combinación lineal de las matrices A,B,C,D. De hecho, para cualquier matriz que sea combinación lineal de las matrices A,B,C,D, pudiéramos haber hecho lo mismo. En general, saber las imágenes de una transformación lineal en los elementos de una base determina toda la transformación lineal.

Teorema. Sean V, W espacios vectoriales, B=\{v_1,v_2,\ldots,v_n\} una base de V y w_1,w_2,\ldots, w_n vectores cualesquiera de W. Entonces, existe una y sólo una transformación lineal T:V\to W tal que

    \[T(v_1)=w_1,\quad T(v_2)=w_2, \quad \ldots,  \quad T(v_n)=w_n.\]

Demostración. Probemos primero la parte de existencia. Como B es base, cualquier vector v de V se puede escribir como

    \[a_1v_1+a_2v_2+\ldots+a_nv_n.\]

Construyamos la función T:V\to W tal que

    \[T(v)=a_1w_1+a_2w_2+\ldots+a_nw_n.\]

Como para cada i=1,\ldots,n tenemos que la combinación lineal de v_i en términos de B es v_i=1\cdot v_i, tenemos que T(v_i)=1\cdot w_i=w_i, que es una de las cosas que queremos. La otra que queremos es que T sea lineal. Si

    \[v=a_1v_1+a_2v_2+\ldots+a_nv_n\]

y

    \[w=b_1v_1+b_2v_2+\ldots+b_nv_n,\]

entonces

    \[v+w=(a_1+b_1)v_1+ (a_2+b_2)v_2+\ldots+ (a_n+b_n)v_n,\]

y por definición

    \[T(v+w)=(a_1+b_1)w_1+ (a_2+b_2)w_2+\ldots+ (a_n+b_n)w_n.\]

Notemos que el lado derecho es igual a T(v)+T(w), de modo que T abre sumas. De manera similar se puede mostrar que T saca escalares.

Esbocemos ahora la demostración de la unicidad. Supongamos que T y T' son transformaciones lineales de V a W tales que T(v_i)=T'(v_i)=w_i para toda i=1,\ldots,n. Tenemos que mostrar que T(v)=T'(v) para toda v. Para ello procedemos como en el problema antes de este teorema: escribimos a v como combinación lineal de elementos de v. El valor de T(v) depende únicamente de w_1,\ldots,w_n y de la combinación lineal. El de T'(v) también. Por lo tanto son iguales.

\square

Una consecuencia del teorema anterior, en la que no es necesario enunciar a las imágenes de la base, es la siguiente.

Corolario. Sean V y W espacios vectoriales, B una base de V y T y T' transformaciones lineales de V a W. Si T(v)=T'(v) para toda v\in B, entonces T(v)=T'(v) para toda v\in V.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Encuentra qué le hace al vector (7,3) una transformación lineal T:\mathbb{R}^2\to \mathbb{R} tal que T(2,1)=20 y T(7,2)=5.
  • Determina si las matrices A,B,C,D del problema de la entrada son una base para M_{2,2}(\mathbb{R}). Si no son una base, ¿cuál es la dimensión del subespacio que generan?
  • Muestra que la función construida en el teorema de existencia y unicidad de transformaciones lineales en términos de base, la función que construimos saca escalares.
  • Escribe los detalles de que dicha función es única.
  • Demuestra el corolario enunciado en la entrada.

Puedes dejar dudas de la entrada o soluciones a algunos de esta tarea moral en los comentarios y les echaremos un ojo.

Otras entradas de Álgebra Lineal