Archivo de la etiqueta: polinomios

Álgebra Superior II: Ecuaciones cuadráticas complejas

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya platicamos acerca de la construcción de los números complejos. Vimos que, con las operaciones de suma y resta que definimos, $\mathbb{C}$ es un campo. Además, introdujimos las nociones de conjugación compleja y de norma compleja. Como ya entendemos un poco de las operaciones que tenemos en $\mathbb{C}$, podemos empezar a hablar de otro de los temas que interesa al álgebra: resolver ecuaciones. Comenzaremos hablando acerca de ecuaciones cuadráticas complejas.

En entradas posteriores de este parcial, y del siguiente, veremos cómo resolver otro tipo de ecuaciones en los números complejos:

  • Sistemas de ecuaciones lineales complejos.
  • Ecuaciones de la forma $z^n=w$.
  • La ecuación cúbica $ax^3+bx^2+cx+d=0$.
  • La ecuación de grado 4 $ax^4+bx^3+cx^2+dx+e=0$.

En realidad, los números complejos son la estructura numérica correcta para resolver todo tipo de polinomios, es decir, expresiones como las de los últimos tres incisos anteriores. Esto se debe al teorema fundamental del álgebra, que dice lo siguiente.

Teorema (fundamental del álgebra). Sea $n$ un entero positivo y $a_0,\ldots,a_n$ en $\mathbb{C}$ con $a_n\neq 0$. La ecuación en números $$a_nx^n+a_{n-1}x^{n-1}+\ldots+a_1x+a_0=0$$ tiene por lo menos una solución $x$ en $\mathbb{C}$.

La demostración de este teorema en el curso será optativa, y la veremos sólo si tenemos tiempo suficiente. Antes de poder hacer esto, tenemos que seguir discutiendo sobre los números complejos (en esta unidad) y a los polinomios (en la siguiente unidad). Si en algún momento llevas un curso de análisis complejo, también demostrarás el teorema fundamental del álgebra, con ideas un poco más profundas.

Otra aclaración. Si el teorema fundamental del álgebra dice que toda ecuación polinomial tiene solución, ¿por qué sólo estudiamos hasta la ecuación de grado cuatro? La razón es que para grados dos, tres y cuatro podemos dar las soluciones a estas ecuaciones de manera algebraica, es decir, podemos expresar las soluciones con una fórmula (de cierto tipo) en términos de los coeficientes de la ecuación. En el caso de que la ecuación sea de grado 5 en adelante, en cierto sentido matemático no se puede. La demostración de esto la puedes ver en un curso de álgebra moderna intermedio, en el que se discuta teoría de Galois.

Raíces cuadradas en los complejos

Las ecuaciones cuadráticas complejas se resuelven de una forma parecida a lo que hacemos en $\mathbb{R}$: usando la fórmula cuadrática. Es decir, si tenemos la ecuación $ax^2+bx+c=0$ con $a,b,c$ en $\mathbb{C}$ y $a\neq 0$, veremos más abajo que la podemos resolver mediante la fórmula $$x=\frac{-b\pm \sqrt{b^2-4ac}}{2a}.$$

Esta expresión necesita que podamos encontrar la raíz cuadrada de un número complejo arbitrario. Vamos a mostrar que esto siempre es posible. Comencemos notando que el único complejo $z$ tal que $z^2=0$ es el $0$: si hubiera uno $z\neq 0$, multiplicando en ambos lados por $z^{-1}$ tendríamos que $z=0\cdot z^{-1}=0$, una contradicción.

Teorema. Sea $w\neq 0$ un número complejo. Entonces la ecuación $$z^2=w$$ tiene exactamente dos soluciones para $z$ en $\mathbb{C}$ y son inversos aditivos entre ellas.

Demostración. Tomemos $w=a+bi$ un número complejo. Supongamos que $z=x+yi$ es tal que $z^2=w=a+bi$. Tenemos que
\begin{align*}
a+bi=z^2=(x+iy)^2=(x^2-y^2)+2xyi,
\end{align*}

de donde $x^2-y^2=a$ y $2xy=b$. Elevando al cuadrado y sumando ambas ecuaciones, tenemos que
\begin{align*}
a^2+b^2&=(x^2-y^2)^2+(2xy)^2\\
&=(x^2+y^2)^2.
\end{align*}

Como $a$ y $b$ son números reales, tenemos que $a^2+b^2$ es un número real no negativo. Del mismo modo, $x^2+y^2$ es un real no negativo. De esta forma, sacando raíz cuadrada en la ecuación anterior, obtenemos que $$x^2+y^2=\sqrt{a^2+b^2}=\Vert w \Vert.$$

Sabemos además que $x^2-y^2=a=\text{Re}(w)$. Si sumamos ambas ecuaciones obtenemos $$x^2=\frac{\Vert w\Vert + \Rea(w)}{2}$$ y restándolas obtenemos $$y^2=\frac{\Vert w\Vert – \Rea(w)}{2}.$$

Recordemos que $\Vert w\Vert \geq |\Rea(w)|$ para todo complejo $w$, de modo que los términos del lado derecho de las igualdades anteriores son siempre positivos. Por esta razón, podemos sacar raíz de ambos lados. Pero ahora no hay nada que nos garantice que $x$ y $y$ sean positivos, así que hay que considerar dos casos en cada raíz, reflejados por el símbolo $\pm$ en las siguientes expresiones:

\begin{align*}
x&=\pm \sqrt{\frac{\Vert w\Vert + \Rea(w)}{2}}\\
y&=\pm \sqrt{\frac{\Vert w\Vert – \Rea(w)}{2}}.
\end{align*}

Hay que tener cuidado. No se valen las cuatro posibilidades de elecciones de signo. Notemos que de la ecuación $2xy=b$ tenemos que $xy$ tiene el mismo signo que $b=\Ima(w)$, así que si $\Ima(w)>0$ tienen que elegirse $x$ y $y$ con signos iguales y si $\Ima(w)<0$, tienen que elegirse con signos diferentes. Independientemente de la elección, las dos posibilidades dan dos soluciones para $z=x+iy$ que son inversas aditivas entre sí.

$\square$

Por notación. si tenemos un número complejo $w$, llamamos $\sqrt{w}$ a cualquiera de sus raíces cuadradas. Por el teorema anterior, su otra raíz es $-\sqrt{w}$.

Hay que tener cuidado. Para cuando $r$ es un real positivo, la notación $\sqrt{r}$ se refiere, por definición, a la raíz positiva. Cuando $w$ es un complejo arbitrario, no hay una forma «canónica» o «natural» de definir cuál de las dos raíces es «la correcta». Lo importante es que hay dos, y que son inversas aditivas entre sí.

Ejemplos de cómo obtener raíces cuadradas complejas

Antes de discutir cómo resolver ecuaciones cuadráticas complejas en general, veamos algunos ejemplos de cómo se usa el teorema anterior de manera práctica.

Problema 1. Encuentra las raíces cuadradas de $i$.

Solución. Tenemos que $\Vert i \Vert = 1$ y que $\Rea(i) = 0$, así que las soluciones $z=x+yi$ están dadas mediante

\begin{align*}
x&=\pm \sqrt{\frac{1}{2}}=\pm\frac{1}{\sqrt{2}}\\
y&=\pm \sqrt{\frac{1}{2}}=\pm\frac{1}{\sqrt{2}} .
\end{align*}

Como $\Ima(i)=1>0$, tenemos que elegir a $x$ y $y$ con los mismos signos entre sí, así que las soluciones son
\begin{align*}
z_1&=\frac{1}{\sqrt{2}}+\frac{1}{\sqrt{2}}i\\
z_2&=-\frac{1}{\sqrt{2}}-\frac{1}{\sqrt{2}}i.
\end{align*}

$\triangle$

Problema 2. Encuentra las raíces cuadradas de $-21-20i$.

Solución. Tenemos que
\begin{align*}
\Vert -21-20i \Vert &= \sqrt{21^2+20^2}\\
&=\sqrt{841}\\
&=29,
\end{align*}

y que $\Rea(-21-20i)=-21$. Así, las soluciones $z=x+iy$ están dadas mediante

\begin{align*}
x&=\pm \sqrt{\frac{29-21}{2}}=\pm\sqrt{4}=\pm 2\\
y&=\pm \sqrt{\frac{29+21}{2}}=\pm\sqrt{25}=\pm 5.
\end{align*}

Como $\Ima(-21-20i)=-20<0$, debemos elegir $x$ y $y$ de distinto signo, de donde obtenemos las soluciones

\begin{align*}
z_1&=2-5i\\
z_2&=-2+5i.
\end{align*}

$\triangle$

Solución de ecuaciones cuadráticas complejas

Una vez que sabemos obtener la raíz cuadrada de un número complejo, tenemos todo lo necesario para resolver ecuaciones cuadráticas complejas en general. Consideremos $a,b$ y $c$ en $\mathbb{C}$ con $a\neq 0$. Veamos cómo resolver la ecuación $$ax^2+bx+c=0.$$

Para empezar, dividimos entre $a$ de ambos lados y restamos $\frac{c}{a}$, también, de ambos lados. Se obtiene que $$x^2+\frac{b}{a} x = -\frac{c}{a}.$$ El siguiente paso es un truco algebraico útil que se llama «completar el cuadrado». Pensamos a los términos del lado izquierdo como los primeros dos de un binomio cuadrado y nos preguntamos, ¿qué término faltaría? El término faltante es $\frac{b^2}{4a^2}$. Sumando este término en ambos lados, llegamos a $$x^2+\frac{b}{a} x + \frac{b^2}{4a^{2}} = \frac{b^2-4ac}{4a^2}.$$

La razón por la cual completamos el cuadrado es para poder escribir la expresión anterior como

$$(x+\frac{b}{2a})^2= \frac{b^2-4ac}{4a^2},$$

y aquí llegamos al punto en el que necesitamos obtener raíces cuadradas. Afortunadamente, ya sabemos que podemos hacer esto siempre en $\mathbb{C}$ y obtener $$x+\frac{b}{2a}=\pm\sqrt{ \frac{b^2-4ac}{4a^2}},$$ de donde concluimos que las soluciones son

$$x=-\frac{b}{2a}\pm\sqrt{ \frac{b^2-4ac}{4a^2}}.$$

Todos estos pasos son reversibles. Resumimos toda esta discusión en el siguiente resultado.

Teorema. Para $a,b,c$ en $\mathbb{C}$ y $a\neq 0$, la ecuación compleja $ax^2+bx+c=0$ tiene dos soluciones en $\mathbb{C}$ dadas por
\begin{align*}
x_1&=-\frac{b}{2a}+\sqrt{ \frac{b^2-4ac}{4a^2}}\\
x_2&=-\frac{b}{2a}- \sqrt{ \frac{b^2-4ac}{4a^2}}.
\end{align*}

Estas soluciones son iguales si y sólo si $b^2=4ac$ y en otro caso son distintas.

Ejemplos sobre resolución de ecuaciones cuadráticas complejas

Problema 1. Resuelve en $\mathbb{C}$ la ecuación $$x^2-5x+(7+i)=0.$$

Solución. Para usar la fórmula cuadrática, necesitaremos obtener la raíz $$\sqrt{\frac{25-4(7+i)}{4}}= \sqrt{-\frac{3}{4}-i}.$$

Como $$\left \lVert -\frac{3}{4}-i\right\lVert=\frac{\sqrt{25}}{4}=\frac{5}{4}$$ y $$\Rea\left(-\frac{3}{4}-i\right)=-\frac{3}{4},$$ las raíces $a+bi$ están dadas por

\begin{align*}
a=\pm\sqrt{\frac{\frac{5}{4}-\frac{3}{4}}{2}}=\pm\frac{1}{2}\\
b= \pm\sqrt{\frac{\frac{5}{4}+\frac{3}{4}}{2}}=\pm 1.
\end{align*}

Como $\Ima\left(-\frac{3}{4}-i\right)=-1<0$, para obtener las raíces tenemos que elegir signos distintos, es decir, que las raíces son \begin{align*}&\frac{1}{2} – i\\-&\frac{1}{2} +i.\end{align*}

Continuando con el problema original, concluimos, por la fórmula cuadrática, que las dos raíces son

\begin{align*}
x_1&=\frac{5}{2} + \frac{1}{2} – i = 3-i\\
x_2&=\frac{5}{2} – \frac{1}{2} + i =2+i.
\end{align*}

$\triangle$

La fórmula cuadrática funciona siempre para resolver ecuaciones cuadráticas complejas, pero a veces es demasiado. No hay que olvidar que tenemos toda el álgebra de $\mathbb{C}$ a nuestra disposición.

Problema 2. Resuelve en $\mathbb{C}$ la ecuación $$x^2-(3+8i)x=0.$$

Solución. En vez de usar la fórmula cuadrática, factorizamos la expresión del lado izquierdo para obtener que $$x(x-(3+8i))=0.$$

Para que un producto en $\mathbb{C}$ sea $0$, uno de los factores debe ser $0$. Así, $x=0$ ó $x-(3+8i)=0$, de donde las soluciones son \begin{align*}x_1&=0\\x_2&=3+8i.\end{align*}

$\triangle$

Más adelante…

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Verifica que los números complejos que obtuvimos en los ejemplos de raíces cuadráticas en efecto satisfacen que su cuadrado es el número original.
  2. Encuentra las raíces de $3+4i$, de $8-5i$, de $\frac{1}{2}-\frac{1}{3}i$ y de $2-\sqrt{5}i$.
  3. Verifica que las soluciones que obtuvimos en los ejemplos de ecuaciones cuadráticas complejas en efecto satisfacen la ecuación cuadrática dada.
  4. Resuelve la ecuación cuadrática compleja $$ix^2+7x-7-i=0.$$
  5. Si $w$ y $z$ son números complejos, ¿quienes son las raíces de $wz$? Las raíces cuadradas de $w$ son dos, las de $z$ son dos, y los posibles productos de ellas son cuatro números. ¿Por qué esto no contradice que $wz$ tiene dos raíces?

Puedes practicar este tema con los vídeos y ejercicios disponibles en la página de Khan Academy. Para ello, visita su sección de ecuaciones cuadráticas en los complejos.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104522 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 2»

Seminario de Resolución de Problemas: El teorema de Rolle

Por Leonardo Ignacio Martínez Sandoval

Introducción

Las funciones continuas son bonitas pues tienen la propiedad del valor intermedio y además alcanzan sus valores extremos. Las funciones diferenciables en un intervalo también tienen un par de teoremas que hablan acerca de algo que sucede «dentro del intervalo». Estos son el teorema de Rolle y el teorema del valor medio. Ambos nos permiten encontrar en el intervalo un punto en el que la derivada tiene un valor específico.

Teorema de Rolle. Sean $a<b$ reales y $f:[a,b]\to \mathbb{R}$ una función continua en el intervalo $[a,b]$ y diferenciable en el intervalo $(a,b)$. Supongamos que $f(a)=f(b)$. Entonces existe un punto $c\in (a,b)$ tal que $f'(c)=0$.

Teorema del valor medio. Sean $a<b$ reales y $f:[a,b]\to \mathbb{R}$ una función continua en el intervalo $[a,b]$ y diferenciable en el intervalo $(a,b)$. Entonces existe un punto $c\in (a,b)$ tal que $$f'(c)=\frac{f(b)-f(a)}{b-a}.$$

El teorema del valor medio parece más general. Sin embargo, en cierto sentido, estos dos teoremas son «equivalentes», en el sentido de que uno de ellos nos ayuda a probar al otro de manera fácil, y viceversa.

Ya dimos las demostraciones de ambos teoremas en la entrada anterior, que habla del teorema del valor extremo. En esta entrada nos enfocaremos en ver cómo podemos usar el teorema de Rolle para resolver problemas. En la siguiente veremos algunos ejemplos del uso del teorema del valor medio.

Problemas resueltos con teorema de Rolle

Hay algunos problemas que parece que pueden ser resueltos con el teorema del valor intermedio (el de funciones continuas), pero para los cuales no es sencillo encontrar un intervalo correcto en el cual aplicar el teorema. En estas ocasiones, a veces el teorema de Rolle puede entrar al rescate.

Problema. Muestra que $5x^4-4x+1$ tiene una raíz real entre $0$ y $1$.

Sugerencia pre-solución. Primero, convéncete de que no es sencillo resolver este problema usando el teorema del valor intermedio. Luego, escribe a la función como la derivada de otra y aplica el teorema de Rolle. Funciona trabajar hacia atrás: si $f$ es derivada de una función, ¿quién tendría que ser esta función?

Solución. La idea es expresar a $f(x)=5x^4-4x+1$ como la derivada de una función y aplicar el teorema de Rolle. Para ello, podemos integrar o verificar por inspección que si $g(x)=x^5-2x^2+x$, entonces $g'(x)=f(x)$. Ahora, notemos que $g(0)=g(1)=0$. Por el teorema de Rolle, debe existir un $c$ en $(0,1)$ tal que $f(c)=g'(c)=0$, es decir, esta $c$ es justo una raíz de $f$, como queríamos.

$\square$

En algunas ocasiones hay que aplicar el teorema del valor medio repetidas veces dentro de un mismo problema.

Problema. Demuestra que $f(x)=\frac{x^4}{4}-\frac{3}{2}x^2+bx+c$ puede tener como mucho dos ceros el intervalo $[-1,1]$, sin importar los valores de $b$ y de $c$.

Sugerencia pre-solución. Procede por contradicción, suponiendo que hay más de dos ceros. Aplica el teorema del valor medio dos veces.

Solución. Supongamos que $f$ tiene tres o más ceros en ese intervalo, y que son $r,s,t$, con $-1\leq r < s < t < 1$. Tenemos que $f(r)=f(s)$ y que $f(s)=f(t)$, pues estos tres valores son $0$. Por el teorema de Rolle, tenemos que $f'(x)=x^3-3x+b$ debe tener al menos un cero $p$ en el intervalo $(r,s)$ y al menos un cero $q$ en el intervalo $(s,t)$. Aplicando de nuevo el teorema de Rolle, tenemos que $f»(x)=3x^2-3$ debe tener un cero en el intervalo $(p,q)$. Pero $-1<p<q<1$ y $f»(x)$ sólo tiene como ceros a $1$ y $-1$. Esto es una contradicción.

$\square$

Veamos un ejemplo más, en donde es necesario aplicar el teorema de Rolle varias veces y usar otras propiedades de diferenciabilidad.

Problema. Supongamos que la funciónes $f:\mathbb{R}\to \mathbb{R}$ y $g:\mathbb{R}\to \mathbb{R}$ son diferenciables y que $f'(x)g(x)\neq f(x)g'(x)$ para todo real $x$. Muestra que si $f(x)=0$ tiene al menos $2020$ soluciones distintas, entonces $g(x)=0$ tiene al menos $1010$ soluciones distintas.

Sugerencia pre-solución. Modifica el problema y generalízalo de la siguiente manera: bajo las hipótesis del problema, se tiene que entre cualesquiera dos ceros de $f$ hay un cero de $g$. Para demostrar esto, procede por contradicción.

Solución. Mostraremos que entre cualesquiera dos ceros de $f$ hay un cero de $g$. Para ello, procedamos por contradicción. Supongamos $a<b$ son ceros de $f$ y que $g$ no tiene ningún cero en el intervalo $[a,b]$.

Consideremos la función $f/g$. Como $g$ no se anula en $[a,b]$, tenemos que $f/g$ es continua en $[a,b]$ y diferenciable en $(a,b)$. Además, $f(a)/g(a)=f(b)/g(b)=0$. Con esto, por el teorema de Rolle tendríamos que la derivada de $f/g$ en algún punto $c$ en $(a,b)$ es cero. Pero esto es una contradicción, pues la derivada en $c$ es $$\frac{f'(c)g(c)-f(c)g'(c)}{g^2(c)},$$ que por hipótesis nunca es $0$. De esta forma, entre cualesquiera dos ceros de $f$ debe haber un cero de $g$.

Para resolver el problema original, consideremos los $2020$ ceros que tiene $f$, digamos $a_1<\ldots<a_{2020}$. En cada uno de los intervalos $[a_{2i-1},a_{2i}]$ para $i=1,\ldots,1010$ debe haber un cero de $g$, y como estos son intervalos disjuntos, estos deben ser ceros distintos. De este modo, tenemos al menos $1010$ ceros de $g$.

$\square$

Más problemas

Hay más problemas en los que se usa el teorema de Rolle en la Sección 6.5 el libro Problem Solving through Problems de Loren Larson.

Álgebra Lineal I: Introducción a espacio dual

Por Leonardo Ignacio Martínez Sandoval

Introducción

En esta entrada empezamos la tercera unidad del curso de Álgebra Lineal I. Los conceptos fundamentales de esta nueva unidad son el de espacio dual y el de formas bilineales.

Hagamos un pequeño recordatorio, que será útil para entender los temas que vendrán. Ya definimos qué es un espacio vectorial y qué son las transformaciones lineales.

Para los espacios vectoriales, hablamos de subespacios, de conjuntos generadores, independientes y bases. A partir de ellos definimos qué quiere decir que un espacio sea de dimensión finita y, en ese caso, dijimos cómo definir la dimensión. Un lema fundamental para hacer esto fue el lema del intercambio de Steinitz.

Dijimos que las transformaciones lineales son funciones «bonitas» entre espacios vectoriales que «abren sumas» y «sacan escalares». Dimos como ejemplos a las proyecciones y las simetrías. Vimos lo que le hacen a generadores, linealmente independientes y bases. También, vimos que podemos expresarlas a través de matrices.

Un tipo de matrices de trasformaciones lineales muy importante son las matrices de cambios de base, que permiten conocer las coordenadas de vectores en distintas bases y pasar matrices de transformaciones lineales entre distintas bases. Finalmente, hablamos del rango para matrices y transformaciones lineales.

Es muy bueno entender estos temas lo mejor posible antes de continuar. Aunque no te queden 100% claras todas las demostraciones, por lo menos intenta sí conocer las hipótesis y los enunciados de los resultados principales.

Los temas que vendrán están basados en los capítulos 6 y 10 del libro de Titu Andreescu.

Dualidad y espacio dual

Antes de continuar, el siguiente ejemplo te debe de quedar clarísimo. Dice que hay una forma de hacer un espacio vectorial cuyos elementos son transformaciones lineales. Así es, cada vector de este espacio es una transformación lineal. Esto no debería de ser tan raro pues ya estudiamos algunos espacios vectoriales de funciones.

De ser necesario, verifica que en efecto se satisfacen los axiomas de espacio vectorial, para entender todavía mejor el ejemplo.

Ejemplo 1. Si $V$ y $W$ son espacios vectoriales sobre un mismo campo $F$, entonces el conjunto de transformaciones lineales de $V$ a $W$ es un espacio vectorial con las operaciones de suma de funciones y multiplicación por escalar.

Recordemos que la suma de funciones manda a las funciones $S:V\to W$ y $T:V\to W$ a la función $S+T:V\to W$ para la cual $$(S+T)(v)=S(v)+T(v)$$ y que la multiplicación por escalar manda al escalar $c\in F$ y a la función $T:V\to W$ a la función $cT:V\to W$ para la cual $$(cT)(v)=cT(v).$$

La razón por la cual este es un espacio vectorial es que es un subconjunto del espacio vectorial de todas las funciones de $V$ a $W$, y además es cerrado bajo sumas y multiplicaciones por escalar, de modo que es un subespacio.

A este espacio vectorial le llamamos $\text{Hom}(V,W)$.

$\triangle$

En esta unidad vamos a estudiar $\text{Hom}(V,W)$, pero para un caso particular muy concreto: para cuando $W$ es $F$, el campo sobre el cual está $V$. Podemos hacer esto, pues recuerda que podemos pensar al campo $F$ como un espacio vectorial sobre sí mismo.

A partir de ahora fijaremos el campo $F$. Si quieres, puedes pensarlo como $\mathbb{R}$ o $\mathbb{C}$ pero lo que digamos funcionará para campos arbitrarios.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. El espacio dual $V^\ast$ de $V$ es el conjunto de transformaciones lineales $l:V\to F$ dotado con las operaciones suma dada por $$(l_1+l_2)(v)=l_1(v)+l_2(v)$$ y producto por escalar dado por $$(cl)(v)=c(l(v))$$ para $l_1,l_2, l$ en $V^\ast$, $v$ en $V$ y $c$ en $F$.

A cada elemento de $V^\ast$ le llamamos una forma lineal en $V$. Usamos la palabra «forma» para insistir en que es una transformación que va hacia el campo $F$ sobre el cual está $V$.

Ejemplo 2. Consideremos al espacio vectorial $\mathbb{R}^3$. Está sobre el campo $\mathbb{R}$. Una forma lineal aquí es simplemente una transformación lineal $S_1:\mathbb{R}^3\to \mathbb{R}$, por ejemplo $$S_1(x,y,z)=x+y-z.$$ Otra forma lineal es $S_2:\mathbb{R}^3\to \mathbb{R}$ dada por $$S_2(x,y,z)=y+z-x.$$ Si sumamos ambas formas lineales, obtenemos la forma lineal $S_1+S_2$, la cual cumple $$(S_1+S_2)(x,y,z)=(x+y-z)+(y+z-x)=2y.$$

Estas son sólo dos formas lineales de las que nos interesan. Si queremos construir todo el espacio dual $(\mathbb{R}^3)^\ast$, necesitamos a todas las transformaciones lineales de $\mathbb{R}^3$ a $\mathbb{R}$.

Recordemos que cada transformación lineal $T$ de estas está representada de manera única por una matriz en $M_{1,3}(\mathbb{R})$ de la forma, digamos, $\begin{pmatrix} a & b & c\end{pmatrix}$. Así, toda transformación lineal de $\mathbb{R}^3$ a $\mathbb{R}$ lo que hace es enviar a $(x,y,z)$ a $$\begin{pmatrix} a& b & c \end{pmatrix}\begin{pmatrix}x\\ y\\ z\end{pmatrix}=ax+by+cz.$$ Se puede verificar que la suma de matrices y el producto escalar corresponden precisamente con la suma de sus transformaciones lineales asociadas, y su producto escalar.

Dicho de otra forma, $(\mathbb{R}^3)^\ast$ se puede pensar como el espacio vectorial de matrices $M_{1,3}(\mathbb{R})$. Observa que $\mathbb{R}^3$ y $(\mathbb{R}^3)^\ast$ tienen ambos dimensión $3$.

$\triangle$

Ejemplo 3. Consideremos el espacio vectorial $V$ de funciones continuas del intervalo $[0,1]$ a $\mathbb{R}$. Una forma lineal es una transformación lineal que a cada vector de $V$ (cada función) lo manda a un real en $\mathbb{R}$. Un ejemplo es la forma lineal $T:V\to \mathbb{R}$ tal que $$T(f)=\int_0^1 f(t)\,dt.$$ Otro ejemplo es la forma lineal $\text{ev}_0:V\to \mathbb{R}$ que manda a cada función a lo que vale en $0$, es decir, $$\text{ev}_0(f)=f(0).$$ Aquí dimos dos formas lineales, pero hay muchas más. De hecho, en este ejemplo no está tan sencillo decir quienes son todos los elementos de $V^\ast$.

$\triangle$

Espacio dual de un espacio de dimensión finita

Sea $V$ un espacio de dimensión finita $n$ y $B=\{e_1,e_2,\ldots,e_n\}$ una base de $V$. Como ya vimos antes, una transformación lineal queda totalmente definida por lo que le hace a los elementos de una base. Más concretamente, si $v=x_1e_1+\ldots+x_ne_n$, entonces lo que hace una forma lineal $l$ en $v$ es $$l(x_1e_1+\ldots+x_ne_n)=x_1a_1+\ldots+x_na_n,$$ en donde $a_i=l(e_i)$ son elementos en $F$.

Hay una manera canónica de combinar a un elemento $l$ de $V^\ast$ y a un elemento $v$ de $V$: evaluando $l$ en $v$. Así, definimos al emparejamiento canónico entre $V$ y $V^\ast$ como la función $$\langle\cdot, \cdot \rangle: V^\ast \times V$$ definida para $l$ en $V^\ast$ y $v$ en $V$ como $$\langle l,v\rangle = l(v).$$

Observa que $\langle\cdot, \cdot \rangle$ es lineal en cada una de sus entradas por separado, es decir para $c$ en $F$, para $l_1,l_2,l$ en $V^\ast$ y para $v_1,v_2,v$ en $V$ se tiene que $$\langle cl_1+l_2,v\rangle = c\langle l_1,v\rangle + \langle l_2,v\rangle$$ y que $$\langle l,cv_1+v_2\rangle = c\langle l,v_1\rangle +\langle l,v_2\rangle.$$ Esto es un ejemplo de una forma bilineal. Estudiaremos estas formas a detalle más adelante.

Vamos a hacer una pequeña pausa. Hasta ahora, para un espacio vectorial $V$ definimos:

  • Su espacio dual $V^\ast$.
  • El emparejamiento canónico entre $V$ y $V^\ast$.

Si a $V^\ast$ le estamos llamando «el dual» es porque esperamos que sea «muy parecido» a $V$. También, en una operación de dualidad nos gustaría que al aplicar dualidad dos veces «regresemos» al espacio original.

Por esta razón, nos gustaría a cada elemento $v$ de $V$ asociarle un elemento de $V^ {\ast \ast} $, el espacio dual del espacio dual. Afortunadamente, hay una forma muy natural de hacerlo. Para cada $v$ en $V$ podemos considerar la forma lineal $\text{ev}_v:V^\ast \to F$ que a cada forma lineal $l$ en $V^\ast$ le asigna $l(v)$.

Ejemplo. Considera el espacio vectorial de matrices $M_{2}(\mathbb{R})$. El espacio dual $M_{2}(\mathbb{R})^\ast$ consiste de todas las transformaciones lineales $T: M_{2}(\mathbb{R}) \to \mathbb{R}$. Un ejemplo de estas transformaciones es la transformación $T$ que a cada matriz la manda a la suma de sus entradas, $T\begin{pmatrix}a& b\\c & d\end{pmatrix}=a+b+c+d$. Otro ejemplo es la transformación $S$ que a cada matriz la manda a su traza, es decir, $S\begin{pmatrix}a& b\\c & d\end{pmatrix}=a+d$.

Consideremos ahora a la matriz $A=\begin{pmatrix} 5 & 2\\ 1 & 1\end{pmatrix}$.

A esta matriz le podemos asociar la transformación $\text{ev}_A:M_{2}(\mathbb{R})^\ast\to F$ tal que a cualquier transformación lineal $L$ de $ M_{2}(\mathbb{R})$ a $\mathbb{R}$ la manda a $L(A)$. Por ejemplo, a las $T$ y $S$ de arriba les hace lo siguiente $$\text{ev}_A(T)=T(A)=5+2+1+1=9$$ y $$\text{ev}_A(S)=S(A)=5+1=6.$$

$\triangle$

La discusión anterior nos permite dar una transformación lineal $\iota: V \to V {\ast \ast}$ tal que a cada $v$ la manda a $\text{ev}_v$, a la cual le llamamos la bidualidad canónica entre $V$ y $V^ {\ast \ast} $. Nota que $$\langle \iota(v), l\rangle=\langle l, v\rangle.$$ Un teorema importante que no probaremos en general, sino sólo para espacios vectoriales de dimensión finita, es el siguiente.

Teorema. Para cualquier espacio vectorial $V$, la bidualidad canónica es inyectiva.

De hecho, para espacios vectoriales de dimensión finita veremos que es inyectiva y suprayectiva, es decir, que es un isomorfismo entre $V$ y $V^{\ast \ast}$.

Formas coordenadas

En esta sección hablaremos de cómo encontrar una base para el espacio dual de un espacio vectorial $V$ de dimensión finita.

Supongamos que $V$ es de dimensión finita $n$ y sea $B=\{e_1,\ldots,e_n\}$ una base de $V$. A partir de la base $B$ podemos obtener $n$ formas lineales $e_i^\ast:V\to F$ como sigue. Para obtener el valor de $e_i^\ast$ en un vector $v$, expresamos a $v$ en términos de la base $$v=x_1e_1+x_2e_2+\ldots+x_n e_n$$ y definimos $e_i^\ast(v)=x_i$. A $e_i^\ast$ le llamamos la $i$-ésima forma coordenada para la base $B$ de $V$.

Directamente de las definiciones que hemos dado, tenemos que $$v=\sum_{i=1}^n e_i^\ast(v) e_i = \sum_{i=1}^n \langle e_i^\ast, v\rangle e_i.$$

Otra relación importante es que $e_i^\ast(e_j)=0$ si $i\neq j$ y $e_i^\ast(e_j)=1$ si $i=j$. De hecho, muchas veces tomaremos esta como la definición de la base dual.

Ejemplo. Si estamos trabajando en $F^n$ y tomamos la base canónica $e_i$, entonces la forma canónica $e_i^\ast$ manda al vector $(x_1,\ldots,x_n)$ a $x_i$, que es precisamente la $i$-ésima coordenada. De aquí el nombre de formas coordenadas. En efecto, tenemos que $$v=x_1e_1+x_2e_2+\ldots+x_ne_n.$$

$\triangle$

Estamos listos para enunciar el teorema principal de esta entrada introductoria a dualidad lineal.

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ y $B=\{e_1,\ldots,e_n\}$ una base de $V$. Entonces el conjunto de formas coordenadas $B^\ast=\{e_1^\ast, \ldots,e_n^\ast\}$ es una base de $V^\ast$. En particular, $V^\ast$ es de dimensión finita $n$. Además, la bidualidad canónica $\iota:V\to V^{\ast \ast}$ es un isomorfismo de espacios vectoriales.

Más adelante…

Esta primera entrada introduce los conceptos de espacio dual. Estos conceptos son bastante útiles más adelante. Veremos que gracias a ellos, podemos dar una interpretación en términos de transformaciones lineales de la matriz transpuesta. En esta primer entrada también hablamos de formas lineales. Más adelante, veremos como éstas nos llevan de manera natural al concepto de «hiperplanos» en cualquier espacio vectorial. Uno de los resultados clave que demostraremos con la teoría de dualidad es que cualquier subespacio de un espacio vectorial de dimensión finita se puede pensar como intersección de hiperplanos. Gracias a esto encontraremos una fuerte relación entre subespacios y sistemas de ecuaciones lineales.

Antes de poder hacer estas cosas bien, necesitamos desarrollar bases sólidas. Por ello, en la siguiente entrada demostraremos el último teorema enunciado. También, veremos algunas recetas para resolver problemas de bases duales.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  • Revisa por definición que si $V$ y $W$ son espacios vectoriales sobre $F$, entonces $\text{Hom}(V,W)$ es un espacio vectorial sobre $F$.
  • Encuentra más formas lineales en el espacio de funciones continuas del intervalo $[0,1]$ a $\mathbb{R}$.
  • Justifica por qué $\iota:V\to V^{\ast \ast}$ es una transformación lineal y argumenta por qué $\langle \iota (v),l\rangle = \langle l,v\rangle$.
  • En el espacio de polinomios $\mathbb{R}_n[x]$ con coeficientes reales y grado a lo más $n$, ¿quienes son las formas coordenadas para la base ordenada $(1,x,x^2,\ldots,x^{n-1},x^n)$?, ¿quiénes son las formas coordenadas para la base ordenada $(1,1+x,\ldots,1+\ldots+x^{n-1},1+\ldots+x^n)$?
  • Aplica el último teorema a la base canónica $E_{ij}$ de $M_2(\mathbb{R})$ para encontrar una base de $M_2(\mathbb{R})^\ast$
  • Considera el espacio vectorial $V$ de matrices en $M_2(\mathbb{R})$. ¿Quién es el kernel de la forma lineal en $V$ que a cada matriz la manda a su traza? ¿Quién es el kernel de la forma lineal $\text{ev}_A$ en $V^\ast$, donde $A=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Álgebra Lineal I: Transformaciones lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas pasadas ya platicamos de espacios vectoriales y de subespacios. También desarrollamos teoría de dimensión para espacios vectoriales de dimensión finita. Para ello, hablamos de conjuntos generadores, de independientes y de bases. Esto nos ayuda a entender a los espacios vectoriales «uno por uno». Lo que queremos entender ahora es cómo interactúan los espacios vectoriales entre sí. Para ello, hablaremos de transformaciones lineales entre espacios vectoriales.

Ya platicamos un poco de transformaciones lineales cuando estudiamos $F^n$ a detalle. En esa parte del curso, vimos cómo cualquier matriz en $M_{m,n}(F)$ se podía ver como una transformación lineal de $F^n$ a $F^m$ y viceversa. Retomaremos varias de estas ideas, pues son fundamentales para esta unidad y las siguientes.

La idea de esta entrada es:

  • Dar la intuición y definición de transformaciones lineales en general.
  • Probar propiedades básicas de las transformaciones lineales.
  • Dar varios ejemplos de transformaciones lineales.
  • Dar las definiciones de kernel (o núcleo) y de imagen para una transformación lineal.
  • Ver un ejemplo que abarque ambas definiciones.
  • Finalmente, probar que el kernel y la imagen son subespacios vectoriales.

A grandes rasgos, las transformaciones lineales se pueden pensar como «funciones bonitas» entre espacios vectoriales que «preservan las operaciones de suma y multiplicación por escalar».

Definición de transformaciones lineales

Definición. Para $V$ y $W$ espacios vectoriales sobre un campo $F$, una transformación lineal entre $V$ y $W$ es una función $T:V\to W$ tal que:

  • Para todo $v_1$ y $v_2$ en $V$ se tiene que $T(v_1+v_2)=T(v_1)+T(v_2)$. Esto informalmente se le conoce como que «$T$ abre sumas».
  • Para todo $v$ en $V$ y $c$ en el campo $F$ se tiene que $T(cv)=cT(v)$. A esto se le conoce como que «$T$ saca escalares».

En la primer condición la suma de la izquierda (dentro del paréntesis) es «la suma de $V$» y la suma de la derecha es «la suma de $W$». De manera similar, en la segunda condición el producto por escalar de la izquierda (dentro del paréntesis) es el de $V$ y el de la derecha es el de $W$.

En lo que resta de esta entrada, supondremos que los espacios vectoriales son sobre un mismo campo $F$.

Ejemplos de tranformaciones lineales

Ejemplo 1. La función $T:\mathbb{R}^2 \to \mathbb{R}$ dada por $T(x,y)=x+y+1$ no es una transformación lineal. De hecho falla en ambas condiciones. Falla en abrir sumas pues, por ejemplo, $T(1,1)=3$, $T(2,2)=5$, pero $(1,1)+(2,2)=(3,3)$ y $$T(3,3)=7\neq 5 = T(1,1)+T(2,2.)$$ También falla en sacar escalares pues, por ejemplo $$T(4,2)=7\neq 8 = 2T(2,1).$$

$\triangle$

Ejemplo 2. La función $T:\mathbb{R}^3 \to \mathbb{R}^3$ dada por $T(x,y,z)=(2x,2y,2z)$ es una transformación lineal.

Para convencernos de que esto es cierto, notemos que si $v=(x,y,z)$ entonces la transformación está dada por $T(v)=2v$. Ahora, tomemos dos vectores $v_1$ y $v_2$ en $V$, y un real $c$. Tenemos por la asociatividad y conmutatividad de multiplicar por escalares en $\mathbb{R}^3$ que: \begin{align*}T(v_1+v_2)&=2(v_1+v_2)\\&=2v_1+2v_2\\&=T(v_1)+T(v_2),\end{align*} y que $$T(cv_1)=2(cv_1)=c(2v_1)=cT(v_1).$$ Esto muestra que $T$ es transformación lineal.

$\triangle$

Ejemplo 3. De hecho, para cualquier espacio vectorial $V$ sobre el campo $F$ y $c$ un escalar de $F$, la función $T:V\to V$ dada por $T(v)=cv$ es una transformación lineal. El argumento es similar.

$\triangle$

Recuerda que $F_n[x]$ es el espacio vectorial de polinomios con coeficientes en $F$ y grado a lo más $n$. Recuerda también que hemos visto muchos tipos de espacios vectoriales, los $F^n$, los de polinomios, los de matrices, etc. Entre cualesquiera de ellos se pueden tener transformaciones lineales. La única condición es que sean espacios vectoriales sobre el mismo campo $F$.

Ejemplo 4. La función $T:\mathbb{R}^2\to \mathbb{R}_2[x]$ que manda al vector $(a,b)$ al polinomio $x^2+(a-b)x+ab$ no es una transformación lineal. Esto lo podemos verificar viendo que falla la parte de sacar escalares. Por un lado $$2(T(1,1))=2(x^2+1)=2x^2+2,$$ mientras que por otro lado $$T(2,2)=x^2+4,$$ así que $2(T(1,1))\neq T(2,2)$, de modo que $T$ no saca escalares.

$\triangle$

En cambio, si tomamos la función que manda al vector $(a,b)$ al polinomio $ax^2+(a-b)x+a+b$, puedes verificar por tu cuenta que sí es una transformación lineal.

Ejemplo 5. La función $T:M_{2,3}(\mathbb{R})\to \mathbb{R}^3$ que manda a la matriz $$M=\begin{pmatrix}
a & b & c\\
d & e & f
\end{pmatrix}$$ al vector $$T(M):= (a-d, b-e, c-f)$$ es una transfomación lineal.

Veamos que $T$ abre sumas. Tomemos dos matrices $M_1=\begin{pmatrix}
a_1 & b_1 & c_1\\
d_1 & e_1 & f_1
\end{pmatrix}$ y $M_2=\begin{pmatrix}
a_2 & b_2 & c_2\\
d_2 & e_2 & f_2
\end{pmatrix}.$ Por un lado \begin{align*}T(M_1)&=(a_1-d_1,b_1-e_1,c_1-f_1)\\T(M_2)&=(a_2-d_2,b_2-e_2,c_2-f_2),\end{align*} de modo que sumando los vectores y reacomodando tenemos que $$T(M_1)+T(M_2)=((a_1+a_2)-(d_1+d_2),(b_1+b_2)-(e_1+e_2),(c_1+c_2)-(f_1+f_2)).$$

Por otro lado, si primero sumamos las matrices, obtenemos la matriz $$M_1+M_2=\begin{pmatrix}
a_1+a_2 & b_1+b_2 & c_1+c_2\\
d_1+d_2 & e_1+e_2 & f_1+f_2
\end{pmatrix}.$$

Así, $$T(M_1+M_2)=((a_1+a_2)-(d_1+d_2),(b_1+b_2)-(e_1+e_2),(c_1+c_2)-(f_1+f_2)).$$ Esto muestra que $T(M_1+M_2)=T(M_1)+T(M_2)$, es decir, que $T$ abre sumas. Con un argumento parecido se puede mostrar que saca escalares.

$\triangle$

Ejemplo 6. La función $T:\mathbb{R}^2\to \mathbb{R}_2[x]$ que manda al vector $(a,b)$ al polinomio $T(a,b)=(a+b)x^2+(a-b)x+b$ es una transformación lineal.

$\triangle$

Recuerda que $C[0,1]$ es el espacio vectorial de funciones $f:[0,1]\to \mathbb{R}$ continuas.

Ejemplo 7. La función $T:C[0,1]\to \mathbb{R}$ que manda a la función $f$ al real $$T(f):=\int_0^1 f(x)\, dx$$ es una transformación lineal. En efecto, para dos funciones $f$ y $g$ continuas en el $[0,1]$ y un real $c$ se tiene por definición de suma de funciones, de multiplicación por escalar y de propiedades de la integral que \begin{align*}\int_0^1 (f+g)(x)\, dx&=\int_0^1 f(x)+g(x)\, dx\\&=\int_0^1 f(x) \, dx+\int_0^1 g(x)\, dx\end{align*} y que \begin{align*}\int_0^1 (cf)(x)\, dx &= \int_0^1 cf(x)\, dx \\&=c \int_0^1 f(x)\, dx.\end{align*}

En otras palabras, $T(f+g)=T(f)+T(g)$ y $T(cf)=cT(f)$.

$\triangle$

Propiedades básicas de transformaciones lineales

La definición de «transformación lineal» pide dos cosas por separado: abrir sumar y sacar escalares. Es bueno tenerlas por separado para referirnos a ellas individualmente. Sin embargo, la siguiente proposición nos ayuda a probar de manera más práctica que $T$ es una transformación lineal.

Proposición (verificación abreviada). Sean $V$ y $W$ espacios vectoriales sobre un mismo campo $F$. $T:V\to W$ es una transformación lineal si y sólo si para todo $v_1,v_2$ en $V$ y $c$ en $F$ se tiene que $$T(cv_1+v_2)=cT(v_1)+T(v_2).$$

Demostración. En efecto, si $T$ es transformación lineal, entonces $T(cv_1)=cT(v_1)$ porque $T$ saca escalares y así \begin{align*}T(cv_1+v_2)&=T(cv_1)+T(v_2)\\&=cT(v_1)+T(v_2).\end{align*} Por otro lado, si se cumple $T(cv_1+v_2)=cT(v_1)+T(v_2)$ para todos $v_1$ y $v_2$ vectores en $V$ y $c$ escalar en $F$, entonces con $v_2=0$ recuperamos que $T$ saca escalares y con $c=1$ recuperamos que $T$ abre sumas.

$\square$

Las transformaciones lineales mandan al cero de un espacio vectorial al cero del otro.

Proposición (cero va a cero). Sean $V$ y $W$ espacios vectoriales sobre un mismo campo. Si $T:V\to W$ es una transformación lineal, entonces $T(0)=0$.

Demostración. El truco es encontrar $T(0+0)$ de dos formas distintas. Por un lado, como $0+0=0$, tenemos que $T(0+0)=T(0)$. Por otro lado, como $T$ abre sumas, tenemos que $T(0+0)=T(0)+T(0)$. Así, tenemos que $$T(0)+T(0)=T(0).$$ Restando $T(0)$ de ambos lados obtenemos $T(0)=0$.

$\square$

De hecho, hay otra forma de probar la proposición anterior usando que $T$ saca escalares: $T(0)=T(0\cdot 0)=0T(0)=0$. Piensa en por qué cada una de estas igualdades se vale y por qué adentro del paréntesis que hay dos ceros, uno de ellos es vector y el otro escalar.

Las transformaciones lineales también «respetan» inversos aditivos.

Proposición (inversos aditivos van a inversos aditivos). Sean $V$ y $W$ espacios vectoriales sobre un mismo campo. Si $T:V\to W$ es una transformación lineal, entonces $T(-v)=-T(v)$.

La demostración es sencilla y la puedes pensar por tu cuenta.

El haber enunciado estas proposiciones nos puede ayudar para decir, de golpe, que algunas funciones no son transformaciones lineales: si una función falla en tener alguna de las propiedades anteriores, entonces no es transformación lineal.

Ejemplo 1. Sea $V$ el espacio vectorial $\mathbb{R}^2$ y $W$ el espacio vectorial de matrices de $2\times 2$ con entradas complejas, pero visto como espacio vectorial sobre $\mathbb{R}$ (sólo se permite usar reales para la multiplicación escalar).

La transformación $T:V\to W$ que manda al vector real $(a,b)$ a la matriz de entradas complejas $T(a,b)=\begin{pmatrix}
a+ib & a-ib \\
a-ib & 1+abi\end{pmatrix}$ no es una transformación lineal pues manda al $(0,0)$ a la matriz $\begin{pmatrix}
0 & 0 \\
0 & 1\end{pmatrix},$ la cual no es la matriz $0$.

$\triangle$

Sin embargo, una pequeña advertencia. Es posible que $T$ sí mande el $0$ al $0$, pero que de cualquier forma no sea una transformación lineal, debido a que falle por otras razones.

Ejemplo 2. La transformación $T:\mathbb{R}^3 \to \mathbb{R}^3$ dada por $$T(x,y,z)=(x+y+z,xy+yz+zx,xyz)$$ cumple que $T(0,0,0)=(0,0,0)$, pero no es una transformación lineal pues no saca escalares. Por ejemplo, $$T(3,3,3)=(9,27,27)\neq 3(3,3,1)= 3T(1,1,1).$$

$\triangle$

Kernel e imagen de una transformación lineal

Tomemos $T:V\to W$ una transformación lineal. Hay dos conjuntos muy importantes relacionados con $T$.

El kernel (o núcleo) de $T$ es el conjunto de vectores en $V$ que se van al vector $0$ de $W$ cuando les aplicamos $T$. En símbolos, $$\ker(T)=\{v\in V: T(v)=0\}.$$

La imagen de $T$ son los vectores en $W$ que se pueden escribir de la forma $T(v)$ para algún $v$ en $V$, es decir, es la imagen en el sentido clásico de teoría de conjuntos o de cálculo. En símbolos, $$\Ima(T)=\{T(v): v\in V\}.$$

Haciendo énfasis de nuevo: $\ker(T)$ es un subconjunto de vectores de $V$ e $\Ima(T)$ es un subconjunto de vectores de $W$. Veamos un ejemplo que nos ayudará a repasar varios de los conceptos clave de esta entrada.

Problema. Consideremos la transformación $T:M_2(\mathbb{R})\to M_{2,3}(\mathbb{R})$ dada por $$T\begin{pmatrix}a & b \\ c & d\end{pmatrix}=\begin{pmatrix}a & b \\ c & d \end{pmatrix} \begin{pmatrix}
1 & 1 & 1\\
1 & 1 & 1\end{pmatrix}.$$

Muestra que $T$ es una transformación lineal y determina $\ker(T)$ e $\Ima(T)$.

Intenta resolver este problema por tu cuenta antes de seguir.

Solución. Sean $A$ y $B$ matrices de $2\times 2$ con entradas reales y $r$ un real. Nombremos $C=\begin{pmatrix}
1 & 1 & 1\\
1 & 1 & 1\end{pmatrix}$. Por propiedades de producto de matrices, tenemos que \begin{align*}T(rA+B)&=(rA+B)C \\ &=r(AC)+BC\\ &=rT(A)+T(B),\end{align*} así que por la proposición de verificación abreviada, tenemos que $T$ es una transformación lineal.

Ahora, tomemos una matriz $A=\begin{pmatrix}
a & b \\
c & d \end{pmatrix}$ y notemos al hacer la multiplicación de manera explícita, obtenemos que $T(A)$ es la matriz $$\begin{pmatrix}
a+b & a+b & a+b\\
c+d & c+d & c+d \end{pmatrix}.$$

Determinemos quién es $\Ima(T)$. Para que una matriz $M:=\begin{pmatrix}
e & f & g\\
h & i & j \end{pmatrix}$ esté en la imagen de $T$, se tiene que cumplir que $e=f=g$ y que $h=i=j$.

Y viceversa, si $e=f=g$ y $h=i=j$, entonces $M$ está en la imagen de $T$ pues, por ejemplo $$T\begin{pmatrix}
e & 0\\
h & 0 \end{pmatrix}=\begin{pmatrix}
e & e & e\\
h & h & h\end{pmatrix}=M.$$

Esto muestra que $$\Ima (T) = \left\{\begin{pmatrix}
e & e & e\\
h & h & h \end{pmatrix}: e,h \in \mathbb{R}\right\}.$$

Ahora determinemos quién es $\ker(T)$. Para que $A$ esté en el kernel de $T$, necesitamos que todas las entradas de $T(A)$ sean $0$. Para esto es suficiente y necesario que $a+b=0$ y que $c+d=0$, o dicho de otra forma, que $A$ sea de la forma $A=\begin{pmatrix}
a & -a \\
c & -c \end{pmatrix}$. Así, concluimos que $$\ker(T)=\left\{\begin{pmatrix}
a & -a \\
c & -c \end{pmatrix}: a,c \in \mathbb{R}\right\}.$$

$\square$

Con esto ya terminamos lo que pide el problema. Sin embargo, hagamos una observación clave. En el problema anterior, $\ker(T)$ e $\Ima(T)$ no solamente son subconjuntos de $M_2(\mathbb{R})$ y de $M_{2,3}(\mathbb{R})$ respectivamente, sino que además son subespacios. Esto no es casualidad.

Los kernels e imágenes de transformaciones lineales son subespacios

Teorema. Sean $V$ y $W$ espacios vectoriales sobre un mismo campo. Si $T:V\to W$ es una transformación lineal, entonces $\ker(T)$ es un subespacio de $V$ e $\Ima(T)$ es un subespacio de $W$.

Demostración. Demostraremos primero que $\ker(T)$ es un subespacio de $V$. Para ello basta con tomar $v_1,v_2$ en $\ker(T)$ y $c$ en el campo $F$ y mostrar que $cv_1+v_2$ también está en $\ker(T)$, es decir, que también sucede que $T(cv_1+v_2)=0$. Esto se debe a la siguiente cadena de igualdades, que justificamos abajo \begin{align*}
T(cv_1+v_2)&=T(cv_1)+T(v_2)\\
&=cT(v_1)+T(v_2)\\
&=c\cdot 0 + 0 \\
&= 0.
\end{align*}

La primera igualdad se debe a que $T$ abre sumas. La segunda a que $T$ saca escalares. La tercera a que $v_1$ y $v_2$ están en el kernel de $T$ y por lo tanto sabemos que $T(v_1)=T(v_2)=0$. La última es simplemente hacer la operación. Con esto mostramos que $\ker(T)$ es un subespacio de $V$.

Ahora, veremos que $\Ima(T)$ es un subespacio de $W$. Tomemos $w_1$ y $w_2$ en $\Ima(T)$, y un escalar $c$ en el campo $F$. De nuevo, basta mostrar que $cw_1+w_2$ está en $\Ima(T)$. Como $w_1$ y $w_2$ están en la imagen de $T$, esto quiere decir que existen vectores $v_1$ y $v_2$ en $V$ tales que $T(v_1)=w_1$ y $T(v_2)=w_2$. Notemos que entonces:
\begin{align*}
cw_1+w_2&=cT(v_1)+T(v_2)\\
&=T(cv_1)+T(v_2)\\
&=T(cv_1+v_2).
\end{align*}

La segunda y tercera igualdad vienen de que $T$ saca escalares y abre sumas respectivamente. Esta cadena de igualdades muestra que podemos poner a $cw_1+w_2$ como imagen de alguien en $V$ bajo $T$, es decir, que $cw_1+w_2$ pertenece a $\Ima(T)$. Esto es lo que queríamos mostrar.

$\square$

Más adelante…

En esta entrada definimos los conceptos de transformación lineal, de imagen y de kernel. También vimos que la imagen y kernel de transformaciones lineales son subespacios. Más adelante veremos que $\ker(T)$ e $\Ima(T)$ están de hecho relacionados más profundamente.

Por ahora, nota que en el ejemplo antes del teorema tenemos que $\begin{pmatrix}
1 & 1 & 1\\
0 & 0 & 0 \end{pmatrix}$ y $\begin{pmatrix}
0 & 0 & 0\\
1 & 1 & 1 \end{pmatrix}$ forman una base de $\Ima(T)$ pues son linealmente independientes y todo elemento en la imagen es combinación lineal de estas matrices. Además, nota que de manera similar $\begin{pmatrix}
1 & -1 \\
0 & 0 \end{pmatrix}$ y $\begin{pmatrix}
0 & 0 \\
1 & -1 \end{pmatrix}$ forman una base de $\ker(T)$.

Esto nos dice que $\dim(\Ima(T))=2$ y que $\dim(\ker(T))=2$. Si sumamos ambos, nos da la dimensión de $M_2(\mathbb{R})$. ¿Será casualidad?

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que las transformaciones lineales que se pusieron como ejemplo en efecto abren sumas y sacan escalares.
  • Asegúrate de entender los detalles de la prueba de la proposición de la verificación abreviada. Úsala para mostrar que la función que manda al vector $(a,b,c)$ a la matriz $$\begin{pmatrix} a & b & c \\ c & a & b \\ b & c & a \end{pmatrix}$$ es una transformación lineal de $\mathbb{R}^3$ a $M_3(\mathbb{R})$.
  • Muestra la proposición de que inversos aditivos van a inversos aditivos.
  • Determina el kernel y la imagen de las transformaciones lineales $T:V\to W$ que se dieron como ejemplo.
  • Para cada kernel e imagen que encuentres, convéncete de que son subespacios. Determina si tienen dimensión finita y, en ese caso, determina la dimensión. Para estos casos, ¿cómo están relacionados $\dim(\Ima(T)),\dim(\ker(T)),\dim(V)$?

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»

Generalizar el problema

Por Leonardo Ignacio Martínez Sandoval

HeuristicasA veces tener un problema concreto es más difícil que tener un problema más general. En los problemas concretos puede haber números grandes, o un brinco muy difícil, o bien simplemente no existen herramientas para atacarlo por separado. Cuando generalizamos podemos aprovechar más teoría, por ejemplo el principio de inducción.

En estos videos veremos algunos ejemplos en los cuales es más fácil resolver un problema que aparentemente debería de ser más difícil.

Ir a los videos…