Archivo de la etiqueta: coordenadas

Geometría Analítica I: Rectas en forma baricéntrica

Introducción

Abriremos esta entrada con la demostración de una preposición que nos puede ser útil más adelante y con la cuál reforzaremos una vez más lo visto hasta ahora. Después comenzaremos con el tema principal de la entrada al describir las rectas en su forma baricéntrica y analizaremos desde un punto de vista más físico su significado. Cerraremos la entrada con la demostración de que las medianas de un triángulo concurren, haciendo uso en esta, todo el conocimiento generado hasta ahora.

Preposición de rectas en su forma paramétrica

Preposición. Las rectas pasan a lo más una vez por cada punto.

Esta proposición hace referencia a la recta en su forma paramétrica y expresa que conforme el parámetro $r \in \mathbb{R}$ avanza recorre todos los puntos de la recta y además sólo pasa una vez por cada punto.

Demostración. Sea $l$ la recta dada por

$L=\{ P+rQ : r \in \mathbb{R} y P,Q \in \mathbb{R}^2\}$

Haremos la demostración por contradicción para lo cual supondremos que la preposición no se cumple, esto es que existen dos números reales $r_1, r_2 \in \mathbb{R}$ tales que

$P+r_1Q=P+r_2Q$

Si esto fuera cierto, entonces existirían dos números reales que nos llevan al mismo punto en la recta, por lo que queremos llegar a que $r_1=r_2$, es decir sólo hay un número real que nos lleva a ese punto en la recta.

Ya que explicamos un poco nuestro objetivo y el camino que vamos a seguir, comencemos.

Suponemos como cierto que

$P+r_1Q=P+r_2Q$

Si restamos $P$ de ambos lados tenemos:

$-P+P+r_1Q=-P+P+r_2Q$

Usando la asociatividad se tiene que

$(-P+P)+r_1Q=(-P+P)+r_2Q$

Y como $-P+P=0$ y el $0$ es el neutro aditivo tenemos que

$r_1Q=r_2Q$

Sumemos ahora $-rQ_2$ de ambos lados
\begin{align*}
r_1Q-r_2Q=r_2Q-r_2Q
r_1Q-r_2Q=0
\end{align*}

Si factorizamos a $Q$ tenemos

$(r_1-r_2)Q=0$

Aquí es importante realizar dos observaciones, la primera que el cero a la derecha de la igualdad corresponde al vector cero, la segunda es que sabemos el vector $Q$ no puede ser el vector cero, por lo cuál al menos una de sus entradas es distinta de cero. Si $Q=(x,y)$, la igualdad anterior se puede reescribir como

\begin{align*}
(r_1-r_2)(x,y)=0
((r_1-r_2)x,(r_1-r_2)y)=0
\end{align*}

Si ahora retomamos la segunda observación hecha, y suponemos que la entrada $x \neq 0$ tenemos entonces

\begin{align*}
r_1-r_2=0
\Rightarrow r_1=r_2
\end{align*}

Que es a lo que queríamos llegar. Para tener una demostración completa también debe considerarse el caso en el que al menos $y \neq 0$ (este es análogo al que acabamos de desarrollar) y el caso en el que tanto $x \neq 0$ como $y \neq 0 $ (que es la conjunción de los dos casos anteriores).

$\square$

Así hemos demostrado que para cada $r$ existe un único punto en la recta mencionada.

Rectas en forma baricéntrica

Comencemos con el tema central de esta entrada.

Si lo recuerdas de la entrada anterior, en la forma paramétrica de la recta $P$ funge como punto y $Q$ como vector director. En la forma que exploraremos en esta entrada lo que queremos es que no exista diferencia entre $P$ y $Q$. Así que empecemos con la definición de una recta en su forma baricéntrica.

Definición. Sean $P$ y $Q$ dos puntos distintos en $\mathbb{R}^2$, la recta por $P$ y $Q$ en forma baricéntrica es el conjunto

$ l := \{ rP+sQ : r,s \in \mathbb{R}$ y $r+s=1 \}$

Resulta que en esta forma de la recta ya no existe distinción entre el «punto de inicio» y el vector director, ahora se usan simultáneamente los parámetros $s$ y $t$ para ubicar un punto en la recta en cualquiera de las dos direcciones. Podemos pensar en estas coordenadas como «pesos» en la recta que pasa por $P$ y $Q$; esto es que sí $s > r$ , entonces el punto $X$ de la recta se encuentra más cerca del punto $Q$ y viceversa, si $r > s$, entonces el punto $X$ de la recta está más cercano a $P$.

Utiliza el siguiente interactivo para variar los valores de la coordenada baricéntrica $s$ de la recta (recuerda que r=1-s) y ubicar el punto $X$ en la recta que depende de estos valores.

Interpretación física

Ya que definimos las coordenadas baricéntricas, hablemos un poco de la interpretación física de esta con la cuál la idea de «peso» que le asignamos a estas coordenadas toma más sentido. Pensemos a la recta como una barra rígida sobre la cual está distribuida una masa unitaria (esto es que la masa en total es 1), el punto de equilibrio estará dado por las coordenadas baricéntricas correspondientes a las masas.

Ahora que estamos hablando de masas, resulta que podemos asociarle una fuerza a cada una para comprender mejor esta interpretación física. Retomando lo de hace unos párrafos, si $s> r$, entonces la fuerza asociada a $s$ será mayor a la asociada a $r$ ($F_s > F_r$) y si tenemos una de nuestras coordenadas baricéntricas negativas, podemos pensar entonces en una fuerza que va en sentido contrario a la positiva. Si pensamos en la fuerza gravitacional, un signo menos en nuestras coordenadas se podría visualizar como algo jalando hacia arriba.

Apoyate del interactivo anterior para comprender mejor esta idea y analiza el siguiente ejemplo:

Ejemplo: Sea $s=0.3$ y $r=0.7$, nota que el punto está más cercano de $P$.

Relación con la forma paramétrica de una recta

Si bien esta definición es otra forma de expresar algebráicamente una recta, siempre podemos llegar de esta forma a la paramétrica y viceversa. Desarrollemos un poco el primer caso partiendo de la recta en su forma baricéntrica:

$ l := { rP+sQ : r,s \in \mathbb{R} y r+s=1 }$

A la expresión de la recta podemos sumarle un cero conveniente $P-P$ y reacomodar los términos para acercarnos a la forma paramétrica:

\begin{align*}
l &= \{ rP+sQ : r,s \in \mathbb{R} y r+s=1 \} \\
&= \{ rP+sQ+P-P : r,s \in \mathbb{R} y r+s=1 \} \\
&= \{ P+sQ+rP-P : r,s \in \mathbb{R} y r+s=1 \} \\
&= \{ P+sQ+P(r-1): r,s \in \mathbb{R} y r+s=1 \} \\
&= \{ P+sQ-P(1-r): r,s \in \mathbb{R} y r+s=1 \} \\
\end{align*}

De la condición $r+s=1$ al despejar $s$ tenemos $s=1-r$ que podemos sustituir en la última igualdad obteniendo

$l= \{ P+sQ-sP: r,s \in \mathbb{R} y r+s=1 \}$

Y al factorizar se tiene que

$l= \{ P+s(Q-P): r,s \in \mathbb{R} y r+s=1 \}$

Y si te fijas, $r$ ya no aparece explícitamente en nuestra expresión por lo que las restricciónes a ese parámetro ya no tienen sentido. Con esto en mente es posible escribir lo siguiente

$l= \{ P+s(Q-P): s \in \mathbb{R} \}$

De manera análoga se puede llegar a que $l= \{ Q+r(P-Q): r \in \mathbb{R} \}$.

Es así que podemos llegar de la forma baricéntrica de la recta a su forma paramétrica.

Antes de pasar al teorema con el que cerraremos la entrada, definamos algo necesario.

Definición. Una mediana de un triángulo es un segmento de recta que va de un vértice al punto medio del lado opuesto.

Teorema a cerca de las medianas de un triángulo

Cerremos la entrada con la enunciación y la demostración del siguiente teorema.

Teorema. Dado un triángulo PQR, sus tres medianas concurren en un punto que divide al segmento dentro del triángulo (de cada mediana) en proporción 1:2.

Demostración.

Para empezar la demostración, construimos un triángulo PQR.

Para construir las medianas, primero localizamos los puntos medios de cada segmento (A, B, C) cuyas coordenadas baricéntricas están dadas por

\begin{align*}
A&=\frac{1}{2}P + \frac{1}{2}Q \\
B&=\frac{1}{2}Q + \frac{1}{2}R \\
C&=\frac{1}{2}R + \frac{1}{2}P \\
\end{align*}

Ya que queremos que se encuentren justo en el punto medio de cada segmento.

Al trazar la mediana del segmento $PQ$ tenemos lo siguiente

La manera en la que procederemos a partir de ahora, es que localizaremos el punto en el segmento de cada mediana que lo divide en proporción 1:2 esperando llegar a que los tres puntos son el mismo.

Comencemos con el punto $G$ que divide al segmento $AR$ en proporción 1:2, esto es que $G$ sea:

$G=\frac{1}{3}R+\frac{2}{3}A $

AL sustituir el valor de $A$, tenemos como resultado
\begin{align*}
G&=\frac{1}{3}R+\frac{2}{3}\left( \frac{1}{2}P + \frac{1}{2}Q \right) \\
&= \frac{1}{3}R+\frac{1}{3}P+\frac{1}{3}Q \\
\end{align*}

Lo que puede ser replicado para cada segmento. Para el $BP$ se tiene

\begin{align*}
G’ &=\frac{1}{3}P+\frac{2}{3}B \\
&=\frac{1}{3}P+\frac{2}{3} \left( \frac{1}{2}Q + \frac{1}{2}R \right) \\
&= \frac{1}{3}P+\frac{1}{3}Q+\frac{1}{3}R \\
&= \frac{1}{3}R+\frac{1}{3}P+\frac{1}{3}Q \\
\end{align*}

Y para el $CQ$

\begin{align*}
G»&=\frac{1}{3}Q+\frac{2}{3}C \\
&=\frac{1}{3}Q+\frac{2}{3} \left( \frac{1}{2}R + \frac{1}{2}P \right) \\
&= \frac{1}{3}Q+\frac{1}{3}R+\frac{1}{3}P \\
&= \frac{1}{3}R+\frac{1}{3}P+\frac{1}{3}Q \\
\end{align*}

$\therefore$ $G=G’=G»$

Acabamos de demostrar que los puntos que dividen a cada mediana en una proporción 1:2 son el mismo para cada una, por lo que las tres medianas concurren en este punto.

$\square$

A este punto $G$ se le conoce como el baricentro del triángulo, y podrás imaginar después de que discutimos la idea física de estas coordenadas, que $G$ corresponde al centro de masa o punto de equilibrio del triángulo.

Utiliza el siguiente interactivo para asegurarte de que esto es válido con cualquier triángulo, puedes mover los puntos P,Q y R y aún existirá el punto $G$ de intersección de las 3 medianas. Si te da curiosidad, puedes usar la herramienta de distancia de geogebra para medir la longitud de cada segmento de la mediana y verificar que efectivamente, está en una relación 1:2 con respecto al punto $G$.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Concluye la preposición con la que se inició está entrada, es decir, desarrolla los casos para cuando $y \neq 0$ y cuando $x \neq0$ y $y\neq0$.
  • A partir de la forma baricéntrica de la recta, llega a la forma paramétrica $l= \{ Q+r(P-Q): r \in \mathbb{R} \}$
  • Sea $L= \{ (5,3)+r(-7,2) : r \in \mathbb{R} \}$ una recta en su forma paramétrica, llega a su forma baricéntrica.
  • Para asegurarte que entendiste la interpretación física, realiza los siguientes ejercicios:
    • Imagina que tienes una barra rígida de 2 metros de longitud sobre la cuál tienes colgadas dos masas (una en cada extremo), una de 40 kg y otra de 10 gk. ¿cuáles son las coordenadas baricéntricas del punto de apoyo o de quilibrio de esta barra?
    • Si ahora sabes que el punto de apoyo se encuentra en uno de los extremos de la barra rígida y quieres levantar los 40 kg con la fuerza de otra masa de 10 kg, ¿dónde debes colocar la masa para que esto sea posible? Realiza un dibujo.
  • Encuentra el baricentro del triángulo cuyos vértices se encuentran en los puntos $A=(-2,9)$, $B=(7,-1)$ y $C=(3,5)$. Dibújalo a mano o con ayuda de GeoGebra.
  • ¿por qué demostramos aquí el último teorema? ¿Se podrá demostrar en un espacio de 3 dimensiones?

Más adelante…

Hasta ahora hemos avanzado lo suficiente para hablar en entradas próximas de algo que se asomaba desde los postulados de Euclides, la intersección de rectas y las rectas paralelas.

Álgebra Superior II: Problemas de ecuaciones lineales y cambios de coordenadas en los complejos

Introducción

En las entradas anteriores platicamos de cómo resolver sistemas de ecuaciones lineales complejos, y de como pasar de coordenadas polares a rectangulares y viceversa. Ahora veremos un método más para resolver problemas de ecuaciones lineales en los complejos en tres variables. Además, haremos problemas de práctica de estos temas.

La regla de Kramer para tres variables

Cuando platicamos de resolver problemas de ecuaciones lineales complejas en dos variables, vimos que si el determinante no era $0$, entonces podíamos dar la solución de manera explícita. A esto se le conoce como la regla de Kramer. Veremos ahora cuál es la versión de esta regla para tres variables. A continuación enunciamos el método, y más abajo, en el video, se explica un poco más a detalle.

Proposición. Consideremos el siguiente sistema lineal de ecuaciones complejas en variables $x$, $y$ y $z$.
\begin{align*}
ax+by+cz&=j\\
dx+ey+fz&=k\\
gx+hy+iz&=l.
\end{align*}

Supongamos que el determinante $\Delta=\begin{vmatrix} a & b & c\\ d & e & f\\ g & h & i \end{vmatrix}$ no es $0$. Entonces, el sistema tiene una única solución, dada por
\begin{align*}
x&=\frac{\begin{vmatrix} j & b & c\\ k & e & f\\ l & h & i \end{vmatrix}}{\Delta},\\
y&=\frac{\begin{vmatrix} a & j & c\\ d & k & f\\ g & l & i \end{vmatrix}}{\Delta},\\
z&=\frac{\begin{vmatrix} a & b & j\\ d & e & k\\ g & h & l \end{vmatrix}}{\Delta}.
\end{align*}

No veremos la demostración de esta técnica, pues es uno de los temas que estudiarás en álgebra lineal con más generalidad. Sin embargo, veremos algunos ejemplos de cómo se aplica.

Problemas de ecuaciones lineales

Para comenzar, resolveremos un sistema de ecuaciones de dos variables.

Problema. Resuelve en $\mathbb{C}$ el siguiente sistema de ecuaciones:
\begin{align*}
iz+2w&=3+4i\\
2z-iw&=6-3i.
\end{align*}

Pasemos ahora a un ejemplo con tres variables. El el ejemplo 328 del libro Álgebra Superior de Bravo, Rincón, Rincón.

Problema. Resuelve en $\mathbb{C}$ el siguiente sistema de ecuaciones.
\begin{align*}
z_1+z_2+z_3&=6+4i\\
iz_1+(1+i)z_2+(1-i)z_3&=7+4i\\
z_i+iz_2-z_3&=2i.
\end{align*}

El problema está resuelto en los siguientes dos videos.

Problemas de cambio de coordenadas

Finalmente, veremos algunos problemas de cambio entre coordenadas polares y coordenadas rectangulares. Recordemos que la figura clave para cambiar entre coordenadas es la siguiente:

Cambios entre coordenadas polares y rectangulares
Cambio entre coordenadas polares y rectangulares

Problema. Calcula las coordenadas rectangulares del complejo cuyas coordenadas polares son $r=\sqrt{2}$ y $s=45^\circ$, y del complejo cuyas coordenadas polares son $r=3$ y $s=90^\circ$.

Problema. Expresa $7+7i$ y $4+2i$ en coordenadas polares.

Álgebra Superior II: Forma polar y cambios de coordenadas de un complejo

Introducción

En las entradas anteriores comenzamos a hablar acerca de cómo resolver algunas ecuaciones en $\mathbb{C}$. Platicamos de ecuaciones cuadráticas y la fórmula general. Luego, vimos sistemas de ecuaciones lineales y varios métodos para resolverlos. Lo siguiente que haremos será resolver ecuaciones de la forma $z^n=w$, en donde $w$ en $\mathbb{C}$ y $n$ en $\mathbb{N}$ están dados y $z$ es la variable a determinar. Antes de resolver esta ecuación, necesitamos entender mejor la multiplicación en $\mathbb{C}$, y para ello vamos a estudiar la forma polar de un complejo.

En esta entrada comenzaremos recordando las coordenadas rectangulares de un número complejo, además definiremos sus coordenadas polares. Veremos cómo pasar de coordenadas rectangulares a polares de manera biyectiva, con lo cual podremos definir qué es la forma polar.

Más adelante, la forma polar nos ayudará a entender mejor la geometría de la multiplicación y exponenciación en $\mathbb{C}$. Esto será muy útil cuando queramos «sacar raíces $n$-ésimas», lo cual necesitaremos para resolver ecuaciones del estilo $z^n=w$.

De coordenadas rectangulares a coordenadas polares

Tomemos un número complejo $z=x+yi$ y pensémoslo como un punto del plano complejo, es decir, como el punto $(x,y)$ . Diremos que $(x,y)$ son las coordenadas rectangulares de $z$. Es recomendable recordar la siguiente figura, y regresar a ella frecuentemente.

Complejo en forma rectangular y polar
Complejo en forma rectangular y polar

El número complejo $z$ tiene norma $r=\sqrt{x^2+y^2}$. Además, si $z\neq 0$, tenemos que $z$ define un ángulo $\theta$ con el eje real positivo, medido en el sentido contrario al avance de las manecillas del reloj a partir del eje real positivo, al cual le llamaremos el argumento de $z$ y lo denotaremos por $\text{arg}(z)$. Todos los ángulos que manejamos están en radianes.

Sin embargo, este ángulo no es único. El complejo $z$ define al ángulo $\theta$ pero, por ejemplo, también define al ángulo $\theta+2\pi$, pues la suma de $2\pi$ corresponde a dar una vuelta completa alrededor del origen. Por ello, pensaremos que el argumento de $z$ toma todos los valores $$\{\theta+2k\pi:k\in \mathbb{Z}\}.$$ Así, $\text{arg}(z)$ es una multifunción, algo así como una función, pero que toma varios valores. Cuando digamos que un complejo tiene argumento $\theta$, nos referiremos a $\theta$ o cualquier otro ángulo que difiera un múltiplo entero de $2\pi$ Más adelante hablaremos de esto con detalle.

Aunque haya varios ángulos que le correspondan a $z$, hay uno único en el intervalo $[0,2\pi)$.

Definición. Definimos las coordenadas polares de un número complejo $z=x+yi$ como sigue:

  • Si $z=0$, sus coordenadas polares son $(0,0)$.
  • Si $z\neq 0$, entonces tomamos $r=\Vert z \Vert = \sqrt{x^2+y^2}$ y $\theta$ el único ángulo en $[0,2\pi)$ que hace $z$ con el eje real positivo. Las coordenadas polares de $z$ son $(r,\theta)$.

Observa que $r$ siempre es no negativo y es cero si y sólo si $z=0$. Además por trigonometría para el ángulo $\theta$ se cumple que \begin{align*}\sin \theta &= \frac{y}{r}\\ \cos \theta &= \frac{x}{r},\end{align*} lo cual nos da la siguiente forma práctica para encontrar $\theta$:

  • Calculamos $\frac{y}{r}$ o $\frac{x}{r}$ (el que parezca más sencillo).
  • Aplicamos una función trigonométrica inversa para reducir el problema a dos opciones.
  • Elegimos la opción correcta de acuerdo al signo de $x$ o $y$.

Ejemplo. Tomemos al complejo $z=3-3\sqrt{3}i$. Vamos a pasarlo a forma polar. Su norma es $\sqrt{9+27}=\sqrt{36}=6$. Para determinar el ángulo $\theta$ que define con el eje real, podemos notar que $$\cos{\theta}=\frac{3}{6}=\frac{1}{2},$$ así que $\theta = \frac{\pi}{3}$ ó $\theta= 2\pi-\frac{\pi}{3}=\frac{5\pi}{3}$, pues son los únicos ángulos en $[0,2\pi)$ con ese coseno. Como la parte imaginaria es negativa, se da el segundo caso. Por lo tanto, las coordenadas polares de $z$ son $\left(6,\frac{5\pi}{3}\right)$.

$\square$

De coordenadas polares a coordenadas rectangulares

También hay una forma de pasar de coordenadas polares a coordenadas rectangulares. En efecto, tomemos un real no negativo $r$ y consideremos la pregunta ¿quienes son los números complejos de norma $r$?

Por un lado, si $r=0$, necesitamos que $x^2+y^2=0^2=0$, de donde $x=y=0$, así que las coordenadas rectangulares deben ser $(0,0)$. Por otro lado, si $r>0$, se necesita que $$x^2+y^2=r^2,$$ lo cual, por el teorema de Pitágoras, define una circunferencia de radio $r$ con centro en el origen.

Circunferencia de complejos de norma r.
Circunferencia de complejos de norma $r$

Si además elegimos un ángulo, $\theta$ en $[0,2\pi)$, que el complejo haga con el eje real, entonces queda determinado de manera única. Supongamos que este complejo es $z=x+yi$

Por trigonometría, tenemos que
\begin{align*}x&=r\cos \theta\\ y &= r\sin \theta.\end{align*}

Problema. Determina en la forma $x+yi$ al número complejo cuyas coordenadas polares son $\left(7,\frac{3\pi}{4}\right)$.

Solución. Usamos las fórmulas obtenidas arriba. Tenemos que

\begin{align*}\\
x&=7\cos \frac{3\pi}{4}=7\cdot \left(-\frac{1}{\sqrt{2}}\right)=-\frac{7}{\sqrt{2}}\\
y &= 7\sin \frac{3\pi}{4}= 7\cdot \frac{1}{\sqrt{2}}=\frac{7}{\sqrt{2}}.
\end{align*}

De este modo, el complejo buscado es el $$-\frac{7}{\sqrt{2}}+\frac{7}{\sqrt{2}}.$$

$\square$

Los cambios de coordenadas son inversos entre sí

La primer sección explica cómo de coordenadas rectangulares podemos pasar a coordenadas polares. La anterior dice cómo pasar de coordenadas polares a rectangulares. Resulta que estas operaciones son inversas la una de la otra como veremos en la siguiente:

Proposición. Si tomamos coordenadas polares $(r,\theta)$ de un complejo, las pasamos a coordenadas rectangulares $(x,y)$ y luego éstas las pasamos a coordenadas polares $(r’,\theta’)$ de nuevo, tenemos que $$(r,\theta)=(r’,\theta’).$$

Demostración. En el caso $r=0$, sólo definimos coordenadas polares con $\theta=0$. Al ir a coordenadas rectangulares vamos al punto $(0,0)$, que de nuevo regresa a polares $(0,0)$. Podemos suponer entonces que $r>0$.

Como mencionamos en la segunda sección, las coordenadas rectangulares correspondientes a $(r,\theta)$ son exactamente $$(x,y)=(r\cos \theta,r\sin \theta).$$ Pasemos este complejo a coordenadas polares $(r’,\theta’)$. Usando la identidad pitagórica $\cos ^2\theta + \sin^2 \theta = 1$, la norma de este complejo es
\begin{align*}
\sqrt{r^2\cos^2\theta+r^2\sin^2 \theta} &= r\sqrt{\cos ^2\theta +\sin^2 \theta}\\
&=r\sqrt{1}\\
&=r,
\end{align*}

lo que prueba $r=r’$. Además, como discutimos en la primer sección, tenemos que
\begin{align*}
\sin \theta’ = \frac{r\sin \theta}{r} = \sin \theta\\
\cos \theta’ = \frac{r\cos \theta}{r}=\cos \theta.
\end{align*}

De esta forma, $\theta$ y $\theta’$ son ángulos en $[0,2\pi)$ con el mismo seno y coseno, lo cual implica $\theta=\theta’$.

$\square$

Corolario. El cambio de coordenadas rectangulares a polares , visto como una función de $$\mathbb{R}\times \mathbb{R}$$ a $$(\mathbb{R}^+\times [0,2\pi))\cup \{(0,0)\}$$ es biyectivo.

La forma polar de un número complejo

En las secciones anteriores pensamos a los complejos como parejas ordenadas. Podemos regresar los resultados obtenidos a la forma $x+yi$ de los complejos para justificar la siguiente definición.

Definición. La forma polar de un número complejo $z=x+yi$ es $z=r(\cos \theta + i\sin \theta)$, donde $(r,\theta)$ son las coordenadas polares de $(x,y)$.

Por costumbre, en la forma polar se pone $i$ antes de $\sin \theta$, a diferencia de la forma rectangular, en donde se pone $i$ después de $y$. A veces en expresiones como las de la forma polar aparecen ángulos $\theta$ fuera del rango $[0,2\pi)$. Podemos hacer las cuentas que necesitemos fuera de este rango sin problema. Al final podemos sumar o restar un múltiplo entero de $2\pi$ para caer en el rango $[0,2\pi)$. Esto no cambia el seno ni coseno del ángulo, por lo que no cambia al número complejo.

Como la expresión $ \cos \theta + i\sin \theta$ se usa mucho, usualmente se abrevia.

Definición. Para un ángulo $\theta$ definimos $\text{cis}(\theta) = \cos \theta + i \sin \theta$.

Problema. Determina la forma polar de los complejos $1$, $-1$, $i$ y $-i$.

Solución. Todos estos números tienen norma $1$. Además, hacen ángulos $0, \pi, \frac{\pi}{2}, \frac{3\pi}{2}$ con el eje real positivo, respectivamente. De esta forma, sus coordenadas polares son
\begin{align*}
(1,0)\quad (1,\pi)\quad\left(1,\frac{\pi}{2}\right)\quad \left(1,\frac{3\pi}{2}\right),
\end{align*}

respectivamente.

De esta forma, la forma polar de cada uno es:
\begin{align*}
1&=\cos 0+i \sin 0=\text{cis} (0)\\
-1&=\cos \pi + i \sin \pi = \text{cis} (\pi) \\
i&=\cos \frac{\pi}{2} + i \sin \frac{\pi}{2} = \text{cis} \left(\frac{\pi}{2}\right)\\
-i&= \cos \frac{3\pi}{2} + i \sin \frac{3\pi}{2} = \text{cis} \left( \frac{3\pi}{2}\right).
\end{align*}

$\square$

Una aclaración muy importante es que la forma polar de $z=x+yi$ no es $r+\theta i$. La forma polar es exactamente el mismo número complejo que el original, simplemente escrito de manera diferente.

Si la forma polar de un complejo es exactamente el mismo número que el original, ¿de qué nos sirve tenerlo en coordenadas polares? Resulta que la multiplicación compleja se entiende mucho mejor en términos de la forma polar. En la siguiente entrada veremos esto y cómo lo podemos usar para encontrar potencias de números complejos fácilmente.

Tarea moral

  • Determina la forma polar de los siguientes complejos: $7-7i$ y $-2+2\sqrt{3}i$.
  • Determina la forma rectangular de los complejos con coordenadas polares $\left(2,\frac{\pi}{3}\right)$ y $\left(1, \frac{11\pi}{6}\right)$.
  • Si la forma polar del complejo $z$ es $r\text{cis} \theta$, ¿quién es la forma polar del conjugado?
  • ¿Cuáles son aquellos números complejos que se obtienen al variar $\theta$ en la forma polar $3\text{cis}(\theta)$?
  • ¿Qué figura en el plano definen aquellos números complejos que se obtienen al variar $r$ en la forma polar $r\text{cis}(\pi)$?

Puedes practicar más estos temas viendo los videos y haciendo los ejercicios de la página de Khan Academy, de su sección de números complejos.

Álgebra Lineal I: Matrices de cambio de base

Introducción

Anteriormente platicamos de cómo al elegir una base ordenada $B$ de un espacio vectorial $V$ de dimensión finita $n$, podemos expresar a cada uno de sus vectores en términos de «coordenadas», que vienen de los coeficientes de la combinación lineal de elementos de $B$ que da el vector. Así mismo, vimos cómo podemos comenzar con una transformación lineal $T:V\to W$ entre espacios vectoriales $V$ y $W$ y de ahí obtener una «matriz que la represente». Para ello, necesitamos elegir bases ordenadas $B_V$ y $B_W$ de $V$ y $W$ respectivamente. Tanto las coordenadas, como las matrices que representan a transformaciones lineales, dependen fuertemente de las bases ordenadas elegidas. En esta entrada hablaremos de las matrices de cambio de base, pues nos ayudarán a pasar de unas coordenadas a otras.

Siento más concretos, es posible que en algunas aplicaciones de álgebra lineal tengamos una transformación $T:V\to W$, y que los vectores de $V$ o los de $W$ los tengamos que entender en más de una base. Así, los dos siguientes problemas aparecen frecuentemente:

  • Supongamos que tenemos dos bases (ordenadas) $B_1$ y $B_2$ de un espacio vectorial $V$ y que tomamos un vector $v$ en $V$. Si ya sabemos la combinación lineal de elementos de $B_1$ que da $v$, ¿cómo podemos saber la combinación lineal de elementos de $B_2$ que da $v$? En otras palabras, ¿cómo podemos pasar a $v$ de su expresión en base $B_1$ a su expresión en base $B_2$?
  • Supongamos que tenemos una transformación lineal $T:V\to W$ entre dos espacios vectoriales $V$ y $W$, dos bases (ordenadas) $B_1$ y $B_2$ de $V$ y dos bases (ordenadas) $C_1$ y $C_2$ de $W$. Si ya sabemos qué le hace $T$ a los elementos de $V$ en términos de las bases $B_1$ y $C_1$, ¿cómo podemos saber qué hace $T$ en términos de las bases $B_2$ y $C_2$?

La herramienta que necesitamos para responder ambos problemas se le conoce como matrices de cambio de base. El objetivo de esta entrada es definir estas matrices, ver algunas propiedades básicas que cumplen y ver cómo nos ayudan a resolver el primero de los problemas de aquí arriba. En una segunda entrada veremos cómo también sirven para resolver el segundo.

Matrices de cambio de base

Definición. Sea $V$ un espacio vectorial de dimensión $n$ sobre el campo $F$. Sean $B=(v_1,\ldots,v_n)$ y $B’=(v_1′, \ldots, v_n’)$ dos bases ordenadas de $V$. La matriz de cambio de base de $B$ a $B’$ es la matriz $P=[p_{ij}]$ en $M_{n}(F)$ cuya columna $j$ tiene como entradas a las coordenadas de $v_j’$ escrito en términos de la base $B$. En otras palabras, las entradas $p_{1j},\ldots,p_{nj}$ de la $j$-ésima columna de $P$ son los únicos elementos de $F$ para los cuales $$v_j’=p_{1j}v_1+\ldots +p_{nj} v_n,$$ para toda $j=1,2,\ldots,n$.

Ejemplo. Considera la base ordenada $B=(1,x,x^2)$ de $\mathbb{R}_2[x]$, el espacio vectorial de polinomios de coeficientes reales grado a lo más $2$. Veremos que $B’=(3x^2,2x,1)$ es también una base de $\mathbb{R}_2[x]$. Encontraremos la matriz de cambio de base de $B$ a $B’$ y la matriz de cambio de base de $B’$ a $B$.

La dimensión de $\mathbb{R}_2[x]$ es $3$ y $B’$ tiene $3$ elementos, así que basta ver que los elementos de $B’$ son linealmente independientes para ver que $B’$ es base. Una combinación lineal $a(3x^2)+b(2x)+c(1)=0$ es equivalente a que $3ax^2+2bx+c=0$, lo cual sucede si y sólo si $a=b=c=0$. Esto muestra que $B’$ es base.

Para encontrar a la matriz de cambio de base de $B$ a $B’$ lo que tenemos que hacer es escribir a los elementos de $B’$ como combinación lineal de los elementos de $B$. Esto lo hacemos de la siguiente manera (recuerda que el orden es importante):

\begin{align*}
3x^2 &= 0 \cdot 1 + 0 \cdot x + 3 \cdot x^2\\
2x &= 0\cdot 1+ 2\cdot x + 0 \cdot x^2\\
1 & = 1\cdot 1 + 0 \cdot x + 0 \cdot x^2.
\end{align*}

Como los coeficientes de $3x^2$ en la base ordenada $B$ son $0$, $0$ y $3$, entonces la primer columna de la matriz de cambio de base será $\begin{pmatrix} 0 \\ 0 \\ 3\end{pmatrix}$. Argumentando de manera similar para $2x$ y $1$, tenemos que la matriz de cambio de base de $B$ a $B’$ es $$\begin{pmatrix}
0 & 0 & 1\\
0 & 2 & 0 \\
3 & 0 & 0
\end{pmatrix}.$$

Para encontrar a la matriz de cambio de base de $B’$ a $B$, expresamos a los elementos de $B$ en términos de la base $B’$ como sigue:

\begin{align*}
1 &= 0 \cdot (3x^2) + 0 \cdot (2x) + 1 \cdot 1\\
x &= 0\cdot (3x^2)+ \frac{1}{2} \cdot (2x) + 0 \cdot 1\\
x^2 & = \frac{1}{3} \cdot (3x^2) + 0 \cdot (2x) + 0 \cdot 1.
\end{align*}

En este caso fue sencillo hacerlo, pero en otros problemas frecuentemente esto se hace resolviendo un sistema de ecuaciones.

De esta manera, tenemos que la matriz de cambio de base de $B’$ a $B$ es $$\begin{pmatrix}
0 & 0 & \frac{1}{3}\\
0 & \frac{1}{2} & 0 \\
1 & 0 & 0
\end{pmatrix}.$$

$\square$

Cambio de coordenadas usando matrices de cambio de base

Las matrices de cambio de base nos ayudan a responder la primer pregunta que planteamos al inicio de esta entrada. Si conocemos las coordenadas de un vector en una base, podemos usar la matriz de cambio de base para encontrar las coordenadas del vector en otra base.

Proposición. Sea $V$ un espacio vectorial de dimensión $n$, $B=(v_1,\ldots,v_n)$, $B’=(v_1′,\ldots,v_n’)$ bases ordenadas de $V$ y $P$ la matriz de cambio de base de $B$ a $B’$. Supongamos que el vector $v$ de $V$ se escribe en base $B$ como $$v=c_1v_1+c_2v_2+\ldots+c_nv_n$$ y en base $B’$ como $$v=c_1’v_1’+c_2’v_2’+\ldots+c_n’v_n’.$$ Entonces: $$
P
\begin{pmatrix}
c_1′ \\
\vdots \\
c_n’
\end{pmatrix}=\begin{pmatrix}
c_1 \\
\vdots \\
c_n
\end{pmatrix} .$$

En otras palabras, la matriz $P$ de cambio de base de $B$ a $B’$ manda las coordenadas de un vector en base $B’$ a coordenadas en base $B$ al multiplicar por la izquierda. Ojo: para construir $P$ expresamos a $B’$ en términos de $B$, pero lo que hace $P$ es expresar a alguien de coordenadas en $B’$ a coordenadas en $B$.

Demostración. El vector de coordenadas de $v_j’$ escrito en base $B’$ es el vector canónico $e_j$ de $F^n$. Además, $Pe_j$ es la $j$-ésima columna de $P$, que por construcción es el vector de coordenadas de $v_j’$ en la base $B$. Así, el resultado es cierto para los vectores $v_j’$ de la base $B’$. Para cualquier otro vector $v$, basta expresarlo en términos de la base $B’$ y usar la linealidad de asignar el vector de coordenadas y la linealidad de $P$.

$\square$

Problema. Escribe a los vectores $v_1=(4,3,5,2)$, $v_2=(2,2,2,2)$ y $v_3(0,0,0,1)$ de $\mathbb{R}^4$ como combinación lineal de los elementos de la base $B$ de $\mathbb{R}^4$ conformada por los vectores $(1,0,0,0)$, $(1,1,0,0)$, $(1,1,1,0)$ y $(1,1,1,1)$.

Solución. Conocemos las coordenadas de $v_1,v_2,v_3$ en la base canónica $(1,0,0,0)$, $(0,1,0,0)$, $(0,0,1,0)$, $(0,0,0,1)$. De hecho, el vector de coordenadas de $v_1$ es exactamente $v_1$ (esto es algo que sucede pues estamos trabajando en $\mathbb{R}^4$). Lo que nos estan pidiendo son las coordenadas de $v_1,v_2,v_3$ en la base $B$. Nos gustaría usar la proposición anterior. Para ello, necesitamos encontrar la matriz de cambio de base de $B$ a la base canónica. Escribamos entonces a la base canónica en términos de los vectores de $B$:

\begin{align*}
(1,0,0,0)&=1\cdot (1,0,0,0)+0\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\
(0,1,0,0)&= -1\cdot (1,0,0,0)+1\cdot (1,1,0,0)+0\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\
(0,0,1,0)&= 0\cdot (1,0,0,0)-1\cdot (1,1,0,0)+1\cdot (1,1,1,0)+0\cdot (1,1,1,1)\\
(0,0,0,1)&= 0\cdot (1,0,0,0)+0\cdot (1,1,0,0)-1\cdot (1,1,1,0)+1\cdot (1,1,1,1)\\
\end{align*}

A estas coordenadas las ponemos como columnas para encontrar la matriz de cambio de base de $B$ a la base canónica:
$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix}.$$

Para encontrar las coordenadas de $v_1, v_2, v_3$ en términos de la base $B$, basta con multiplicar esta matriz a la izquierda para cada uno de ellos:

$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
4 \\
3 \\
5 \\
2
\end{pmatrix} = \begin{pmatrix}
1 \\
-2 \\
3\\
2
\end{pmatrix},$$

$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
2 \\2 \\ 2 \\ 2
\end{pmatrix} = \begin{pmatrix}
0 \\0 \\ 0\\ 2
\end{pmatrix} $$ y

$$\begin{pmatrix}
1 & -1 & 0 & 0\\0 & 1 & -1 & 0\\ 0 & 0 & 1 & -1\\ 0 & 0 & 0 & 1
\end{pmatrix} \begin{pmatrix}
0 \\0 \\ 0 \\ 1
\end{pmatrix} = \begin{pmatrix}
0 \\0 \\ -1\\ 1
\end{pmatrix}. $$

En efecto, se puede verificar que estos nuevos vectores dan las combinaciones lineales de la base $B$ que hacen a $v_1$, $v_2$ y $v_3$, por ejemplo, para $v_1$ tenemos: $$(4,5,3,2)=(1,0,0,0)-2(1,1,0,0)+3(1,1,1,0)+2(1,1,1,1).$$

$\square$

Matrices de cambio de base como la forma matricial de una transformación lineal

A la matriz de cambio de base de $B$ a $B’$ la denotamos por $\text{Mat}_B(B’)$.

Una observación crucial es que podemos pensar a las matrices de cambio de base en un espacio vectorial $V$ justo como formas matriciales correspondientes a una transformación lineal específica. De hecho, la transformación lineal que le corresponde es muy bonita: es la identidad $\text{id}_V$ que manda a cada vector de $V$ a sí mismo.

De manera más concreta, si $B$ y $B’$ son bases de $V$ y $\text{Mat}_B(B’)$ es la matriz de cambio de base de $B$ a $B’$, entonces $$\text{Mat}_B(B’)=\text{Mat}_{B,B’}(\text{id}_V).$$ A estas alturas tienes todas las herramientas necesarias para demostrar esto.

¿Qué sucede si ahora tenemos tres bases $B$, $B’$ y $B»$ de $V$ y componemos a la identidad consigo misma? Utilizando los argumentos de la entrada anterior, la matriz correspondiente a la composición es el producto de las matrices de cada transformación. Juntando esto con la observación anterior, tenemos la siguiente propiedad para matrices de cambio de base:

$$\text{Mat}_B(B»)=\text{Mat}_{B}(B’)\cdot \text{Mat}_{B’}(B»).$$

Finalmente, ¿qué sucede si en la igualdad anterior ponemos $B»=B$? Al lado izquierdo tenemos la matriz de cambio de base de $B$ a sí misma, que puedes verificar que es la identidad. Al lado derecho tenemos al producto de la matriz de cambio de base de $B$ a $B’$ con la matriz de cambio de $B’$ a $B$. Esto muestra que las matrices de cambio de base son invertibles.

Resumimos todas estas observaciones en la siguiente proposición:

Proposición. Sean $B$, $B’$ y $B»$ bases del espacio vectorial de dimensión finita $V$.

  • La matriz de cambio de base de $B$ a $B’$ corresponde a la matriz de la transformación identidad de $V$ a $V$, en donde el primer $V$ lo pensamos con la base $B’$ y al segundo con la base $B$.
  • El producto de matrices de cambio de base de $B$ a $B’$ y de $B’$ a $B»$ es la matriz de cambio de base de $B$ a $B»$.
  • La matriz de cambio de base de $B$ a $B’$ es invertible, y su inversa es la de cambio de base de $B’$ a $B$.

En la próxima entrada veremos cómo las matrices de cambio de base también nos ayudan a entender transformaciones lineales bajo distintas bases.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • ¿Qué sucede en el primer ejemplo si multiplicas ambas matrices de cambio de base que encontramos?
  • En el segundo ejemplo, encuentra la matriz de cambio de base de la base canónica a la matriz $B$
  • Considera las cuatro matrices de $2\times 2$ que puedes formar colocando tres unos y un cero. Muestra que estas cuatro matrices forman una base $B$ de $M_{2,2}(\mathbb{R})$. Determina la matriz de cambio de base de $B$ a la base canónica de $M_{2,2}(\mathbb{R})$. Ojo: Una cosa son los elementos del espacio vectorial y otra cosa van a ser las matrices de cambio de base. Como $M_{2,2}(\mathbb{R})$ es de dimensión $4$, la matriz de cambio de base que tienes que determinar en realidad es de $4\times 4$.
  • Da una demostración de que, en efecto $$\text{Mat}_B(B’)=\text{Mat}_{B,B’}(\text{id}_V).$$
  • Verifica que la matriz de cambio de base $B$ a sí misma es la identidad.

Más adelante…

En esta entrada ya vimos cómo cambian las coordenadas de un vector cuando cambiamos de base. Lo que haremos en la siguiente entrada es estudiar cómo cambia la forma matricial de una transformación lineal cuando cambiamos las bases de su espacio vectorial origen y su espacio vectorial destino.

Entradas relacionadas

Álgebra Lineal I: Forma matricial de una transformación lineal

Introducción

Durante la primera unidad de este curso vimos que las transformaciones lineales $T:F^n \to F^m$ pueden ser descritas por medio de matrices $A\in M_{m,n}(F)$. Nuestro objetivo ahora es extender este resultado para describir transformaciones lineales $T:V\to W$ entre espacios vectoriales de dimensión finita $V$ y $W$. Es decir, para cada una de estas transformaciones, queremos ver cómo se ven en forma matricial.

Sin embargo, a diferencia de lo que sucedía antes, la descripción en esta forma no será única. Para construir una matriz que represente a una transformación lineal, necesitaremos fijar bases para $V$ y $W$. Distintas bases nos darán distintas matrices.

Para esta entrada todos los espacios vectoriales que usemos son de dimensión finita sobre el campo $F$. Usaremos los resultados de la entrada pasada, en la que estudiamos qué le hacen las transformaciones lineales a los conjuntos linealmente independientes, a los generadores y a las bases.

Un paréntesis técnico de isomorfismos

Quizás a estas alturas ya te hayas dado cuenta de que, en cierto sentido, los espacios vectoriales con la misma dimensión se parecen mucho entre sí. Por ejemplo, los espacios vectoriales $\mathbb{R}^4$, $M_2(\mathbb{R}) $ y $\mathbb{R}_3[x]$ pueden pensarse «como el mismo» si identificamos a cada vector $(a,b,c,d)$ con la matriz $\begin{pmatrix} a & b \\ c & d \end{pmatrix}$, o bien con el polinomio $a+bx+cx^2+dx^3$. Esta identificación es biyectiva y «respeta las operaciones».

Con esta motivación, veamos una definición formal.

Definición. Decimos que una transformación lineal $T:V\to W$ es un isomorfismo de espacios vectoriales si es biyectiva. Lo denotamos como $V\simeq_{T} W$, que se lee «$V$ isomorfo a $W$ mediante $T$».

Problema. Sea $T:V\to W$ un isomorfismo de espacios vectoriales. Prueba que su inversa $T^{-1}:W\to V$ es un isomorfismo de espacios vectoriales.

Demostración. La transformación $T^{-1}$ es biyectiva, pues es invertible de inversa $T$, así que sólo hace falta checar que $T^{-1}$ es lineal. Tomemos $w_1$, $w_2$ en $W$, y $c$ en el campo. Como $T$ es suprayectiva, podemos tomar $v_1=T^{-1}(w_1)$ y $v_2=T^{-1}(w_2)$. Entonces $T(v_1)=w_1$ y $T(v_2)=w_2$, así
\begin{align*}
T^{-1}(w_1+cw_2)&=T^{-1}(T(v_1)+cT(v_2))\\
&=T^{-1}(T(v_1+cv_2))\\
&=v_1+cv_2
\end{align*}

En la segunda igualdad estamos usando que $T$ es lineal. De esta forma, concluimos que $T^{-1}$ es lineal también.

$\square$

Formalicemos ahora sí nuestra intuición de que «todos los espacios vectoriales de la misma dimensión finta $n$ sobre un mismo campo se comportan igual». En términos matemáticos, decimos que «es posible clasificar los espacios vectoriales de dimensión finita distintos de $\{0\}$, salvo isomorfismos». Para mostrar esto, veremos que para cada entero positivo $n$ todos los espacios vectoriales de dimensión $n$ son isomorfos a $F^n$. El siguiente resultado da el isomorfismo de manera explícita.

Teorema. Sea $n$ un entero positivo y sea $V$ un espacio vectorial de dimensión finita sobre $F$. Si $B={e_1,\dots,e_n}$ es una base de $V$, entonces la transformación $i_B:F^n\to V$ definida por $$i_B(x_1,\dots,x_n)=x_1e_1+x_2e_2+\dots+x_ne_n$$ es un isomorfismo de espacios vectoriales.

La verificación de los detalles de este teorema queda como tarea moral. Como sugerencia, recuerda que una base $B$ de $V$ te permite expresar a cada vector de $V$ (de aquí saldrá la suprayectividad) de manera única (de aquí saldrá la inyectividad) como combinación lineal de elementos de $B$.

Corolario. Si $T:V\to W$ es un isomorfismo de espacios vectoriales, entonces $\dim V=\dim W$.

Bases ordenadas

Sea $V$ un espacio vectorial de dimensión finita $n$. Una base ordenada de $V$ es simplemente una base para la cual nos importa en qué orden están sus elementos. La escribimos con notación de paréntesis en vez de llaves, es decir, en vez de poner $B=\{v_1,\ldots,v_n\}$, ponemos $B=(v_1,\ldots,v_n)$ para hacer énfasis en el orden.

Ejemplo. El conjunto $\{(1,2),(3,4)\}$ es una base de $\mathbb{R}^2$. De aquí, podemos obtener dos bases ordenadas, $B=((1,2),(3,4))$ y $B’=((3,4),(1,2))$. Aunque tienen a los mismos elementos, las pensamos como bases ordenadas diferentes pues sus elementos aparecen en diferente orden.

Del mismo modo, las bases $B=(1,x,x^2,x^3)$ y $B’=(x^3,x^2,x,1)$ son la misma base de $\mathbb{R}_2[x]$, pero son distintas como bases ordenadas.

$\square$

Por las discusión en la sección anterior, la elección de una base ordenada en un espacio vectorial $V$ de dimensión $n$ nos permite identificar $V$ con $F^{n}$. Es decir, dada una base $B$, podemos «ponerle coordenadas» a los elementos de $V$. Dependiendo de la base ordenada escogida, es posible que obtengamos diferentes coordenadas.

Ejemplo. Consideremos el espacio vectorial $M_2(\mathbb{R})$. Se puede verificar que cada uno de los siguientes conjuntos ordenados son una base:

\begin{align*}
B&=\left(\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}\right)\\
B’&=\left(\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}\right)\\
B»&=\left(\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}\right)
\end{align*}

Como cada uno de ellos es una base, entonces podemos escribir a la matriz $A=\begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}$ como combinación lineal de elementos de cada uno de $B$, $B’$ o $B»$.

Si lo hacemos para $B$, tendríamos (en orden), a los coeficientes $1,2,3,4$, así que las coordenadas de $A$ en la base ordenada $B$ serían $(1,2,3,4)$.

Si lo hacemos para $B’$, tendríamos (en orden), a los coeficientes $1,3,2,4$, así que las coordenadas de $A$ en la base ordenada $B’$ serían $(1,3,2,4)$. Aunque $B$ y $B’$ tengan los mismos elementos, las coordenadas difieren pues como bases ordenadas $B$ y $B’$ son distintas.

Si lo hacemos para $B»$, tendríamos (en orden), a los coeficientes $1,1,1,1$, así que las coordenadas de $A$ en la base ordenada $B»$ serían $(1,1,1,1)$. Aquí obtenemos coordenadas muy distintas pues $B$ y $B»$ ni siquiera tienen a los mismos elementos.

$\square$

La forma matricial de una transformación lineal

Consideremos ahora espacios vectoriales $V$ y $W$ de dimensiones $n$ y $m$ respectivamente. Supongamos que tenemos una transformación lineal $T:V\to W$. Escogemos bases ordenadas $B_V=(v_1,\dots, v_n)$ y $B_W=(w_1,\dots,w_m)$ de $V$ y $W$ respectivamente. Ten cuidado, aquí $(v_1,\dots, v_n)$ no es un vector de $F^n$, sino una colección ordenada de vectores de $V$.

Por el teorema de caracterización de espacios vectoriales de dimensión finita, tenemos los isomorfismos $$i_{B_{V}}:F^n\to V, \vspace$$ $$i_{B_{W}}:F^m\to W.$$

¿Cómo podemos usar todas estas transformaciones para construir una transformación $F^n\to F^m$? La idea es usar el inverso de $i_{B_W}$ y componer todo.

Así, consideramos $\psi_T$ como la composición de las transformaciones $i_{B_{V}}, T, i_{B_{W}}^{-1}$, es decir, $$\psi_T:F^n\to F^m,$$ está dada por $$\psi_T=i_{B_W}^{-1}\circ T\circ i_{B_{V}}.$$

De esta forma, $\psi_T$ es una transformación lineal entre $F^n$ y $F^m$. ¡Este tipo de transformaciones ya las conocemos! Sabemos que $\psi_T$ se describe de manera única por medio de una matriz $A\in M_{m,n}(F).$ Esta es, por definición, la matriz asociada a $T$ con respecto a las bases $B_V$ y $B_W$ o bien la forma matricial de $T$. Dicha matriz depende fuertemente de las dos bases, así que la denotaremos como $\text{Mat}_{B_W,B_V}(T)$ . Por el momento sólo pongamos mucha atención en el orden en el que escribimos las bases en los subíndices. Es importante más adelante veremos que resulta útil escribirlo así.

Cuando $T:V\to V$ va de un espacio vectorial a sí mismo y usamos sólo una base $B$, simplificamos la notación a $\text{Mat}_B(T)$.

Evaluar $T$ usando su forma matricial

La construcción anterior parece muy complicada, pero en realidad es muy natural. Lo que está sucediendo es lo siguiente. Ya sabemos que toda transformación lineal entre $F^n$ y $F^m$ está dada por matrices. Podemos extender esto a una descripción de transformaciones lineales entre $V$ y $W$ identificando $V$ con $F^n$ y $W$ con $F^m$ vía la elección de bases en $V$ y $W$.

Notemos que si definimos $A:=\text{Mat}_{B_{W},B_{V}}(T)$, entonces tenemos que

$i_{B_{W}}(Ax)=T(i_{B_{V}}(x))$ … (1)

Esta igualdad nos va a ayudar a decir quién es $T$ en términos de las entradas de la matriz $A$. Sea $\{e_1,\dots,e_n\}$ la base canónica de $F^n$ y $\{f_1,\dots,f_m\}$ la base canónica de $F^m$. Si$ A=[a_{ij}]$, entonces por definición $Ae_i=a_{1i}f_1+\dots+a_{mi}f_{m}$, así para $x=e_i$ se tiene

$i_{B_{W}}(Ax)=i_{B_{W}}(a_{1i}f_1+\dots + a_{mi}f_m) = a_{1i}w_1+\dots + a_{mi}w_m.$

Por otro lado, $i_{B_{V}}(e_i)=v_i$, de manera que la relación (1) es equivalente a la relación

$T(v_i)=a_{1i}w_1+\dots + a_{mi}w_m$

Aquí empieza a haber mucha notación, pero no hay que perderse. Hasta ahora lo que tenemos es que «podemos saber cuánto vale la transformación $T$ en cada elemento de la base de $V$ en términos de la matriz $A$». ¡Este es un paso importante, pues en la entrada anterior vimos que basta saber qué le hace una transformación a los elementos de la base para saber qué le hace a cualquier vector! Resumimos lo obtenido hasta ahora.

Proposición. Sea $T:V\to W$ una transformación lineal y sean $B_V=\{v_1,\dots v_n\}, B_W=\{w_1,\dots,w_m\}$ bases en $V$ y $W$, respectivamente. La columna $j$ de $\text{Mat}_{B_W,B_V}(T)=[a_{ij}]$ entonces para toda $1\leq i\leq n$ se tiene $$T(v_i)=\displaystyle\sum_{j=1}^m a_{ji}w_j.$$

Así, si tenemos la matriz $A$ que representa a $T$ en las bases $B_V$ y $B_W$ y un vector arbitrario $v$ en $V$, para saber quién es $T(V)$ basta:

  • Usar la proposición anterior para saber quién es $T(v_i)$ para cada $v_i$ en la base $B_V$.
  • Expresar a $v$ en términos de la base $B_V$ como, digamos, $v=c_1v_1+\ldots+c_nv_n$.
  • Usar que $T$ es lineal para concluir que $T(v)=c_1T(v_1)+\ldots+c_nT(v_n)$ y usar los valores de $T(v_i)$ encontrados en el primer inciso.

Forma matricial de composiciones de transformaciones lineales

Para finalizar esta entrada queremos entender la relación entre la composición $S\circ T$ de transformaciones lineales y las matrices asociadas de $T$ y $S$. En otras palabras, sean $T:V\to W$ y $S:W\to U$ transformaciones lineales fijas y supongamos que $m=dimV$, $n=dimW$, $p=dimU$. También fijemos las bases $B_U, B_V, B_W$ en $U,V,W$, respectivamente. Para simplificar las cosas escribamos

$\mathcal{A}=\text{Mat}_{B_U,B_W}(S)$ y $\mathcal{B}=\text{Mat}_{B_W,B_V}(T)$

Con respecto a las bases $B_U,B_V,B_W$ se tienen los isomorfismos $i_{B_U}, i_{B_V}, i_{B_W}$ definidos como lo hicimos anteriormente en esta misma entrada del blog, y por definición de $\mathcal{A}, \mathcal{B}$ se tiene

$i_{B_W}(\mathcal{B}x)=T(i_{B_V}(x))$ con $x\in F^m$,

$i_{B_U}(\mathcal{A}y)=S(i_{B_W}(y))$ con $y\in F^n$.

Aplicando $S$ en la primera relación y después usando la segunda relación, se tiene para $x\in F^m$

$(S\circ T)(i_{B_V}(x))=S(i_{B_W}(\mathcal{B}x))=i_{B_U}(\mathcal{A} \mathcal{B}x)$.

Esta última relación y la definición de $\text{Mat}_{B_U,B_V}(S\circ T)$ nos muestra que

$\text{Mat}_{B_U,B_V}(S\circ T)=\mathcal{A} \cdot \mathcal{B}$.

En otras palabras, la composición de transformaciones lineales se reduce a multiplicar sus matrices asociadas o de manera más formal

Teorema. Sean $T:V\to W$ y $S:W\to U$ transformaciones lineales entre espacios vectoriales de dimensión finita y sean $B_U, B_V, B_W$ bases de $U,V,W$, respectivamente. Entonces

$\text{Mat}_{B_U,B_V}(S\circ T)=\text{Mat}_{B_U,B_W}(S)\cdot \text{Mat}_{B_W,B_V}(T).$

Cuando tenemos transformaciones lineales de un espacio vectorial $V$ a sí mismo, y usamos la misma base $B$, el resultado anterior se puede escribir de una manera más sencilla.

Corolario. Sean $T_1,T_2:V\to V$ transformaciones lineales en un espacio vectorial de dimensión finita $V$, y sea $B$ una base de $V$. Entonces

$\text{Mat}_{B}(T_1\circ T_2)=\text{Mat}_{B}(T_1)\cdot \text{Mat}_{B}(T_2)$.

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que la relación «son isomorfos» para espacios vectoriales es una relación de equivalencia.
  • Muestra que la transformación $i_B$ dada en el teorema de clasificación de espacios vectoriales de dimensión finita en efecto es un isomorfismo.
  • Asegúrate de entender el último corolario.

Más adelante…

En esta entrada comenzamos con una transformación lineal $T:V\to W$ y bases ordenadas de de $V$ y $W$ para representar a $T$ como una matriz. Así mismo, vimos cómo tras una elección de base podemos pensar a cualquier vector en términos de sus «coordenadas», usando a los coeficientes que permiten expresarlo (de manera única) como combinación lineal de elementos de la base. Las matrices y coordenadas que así obtenemos nos ayudarán mucho. Sin embargo, será fundamental entender qué es lo que sucede con estas representaciones cuando elegimos bases diferentes, y cómo podemos cambiar de ciertas coordenadas o matrices a otras cuando hacemos un cambio de base. Esto es lo que estudiaremos en las siguientes entradas.

Entradas relacionadas