Archivo de la categoría: Matemáticas

Posts de matemáticas, la ciencia más cercana a las artes.

Geometría Moderna II: Eje radical de 2 circunferencias

Por Armando Arzola Pérez

Introducción

En la entrada anterior hablamos de la noción de potencia de un punto con respecto a una circunferencia. Lo que haremos ahora es tomar dos circunferencias y preguntarnos por los puntos cuya potencia a ellas coincide. Esto nos llevará a estudiar la noción de eje radical de las circunferencias.

A grandes rasgos, definiremos qué es el eje radical. Luego, mostraremos que es una recta muy específica. Después de hacer eso, estudiaremos qué sucede si tenemos tres circunferencias. Finalmente, hablaremos un poco de cómo dibujar el eje radical de dos circunferencias.

Eje radical de 2 circunferencias

La definición que nos interesa estudiar ahora es el conjunto de puntos del plano cuyas potencias a dos circunferencias coincide. La siguiente definición formaliza esto.

Definición. El eje radical de dos circunferencias no concéntricas $\mathcal{C}_1$ y $\mathcal{C}_2$ es el lugar geométrico de los puntos $P$ tales que $$\text{Pot}(P,\mathcal{C}_1)=\text{Pot}(P,\mathcal{C}_2).$$ Si un punto está en el eje radical de ellas, decimos que es equipotente a ambas.

Ejemplo. Supongamos que tenemos dos circunferencias $\mathcal{C}_1$ y $\mathcal{C}_2$ de centros $O_1$ y $O_2$, y de radios $5$ y $10$ respectivamente. Supongamos que $|O_1O_2|=25$. El punto $X$ entre $O_1$ y $O_2$ que está a distancia $11$ de $O_1$ y a distancia $14$ de $O_2$ es equipotente a ambas circunferencias. Esto se debe a que su potencia a $\mathcal{C}_1$ es $(-6)(-16)=96$ y que su potencia a $\mathcal{C}_2$ es $(4)(24)=96$ también.

$\triangle$

El eje radical es una recta

En esta sección demostraremos el siguiente teorema.

Teorema. Sean $\mathcal{C}_1$ y $\mathcal{C}_2$ circunferencias no concéntricas de de centros $O_1$ y $O_2$. El eje radical de ellas es la recta que perpendicular a la recta $O_1O_2$, y que pasa por el punto $M$ de $O_1O_2$ que cumple $\text{Pot}(M,\mathcal{C}_1)=\text{Pot}(M,\mathcal{C}_2).$

La demostración de este teorema la dividiremos en las siguientes partes:

  1. Probar que existe al menos un punto $P$ en el eje radical.
  2. Mostrar que la proyección $M$ de dicho punto a la recta $O_1O_2$ también está en el eje radical.
  3. Ver que todo punto en la perpendicular a $O_1O_2$ por $M$ está en el eje radical.
  4. Mostrar que no existen otros puntos en el eje radical más allá de los ya localizados.

Veamos cada uno de estos puntos como una proposición por separado.

Proposición. Sean $\mathcal{C}_1$ y $\mathcal{C}_2$ circunferencias no concéntricas. Existe al menos un punto $P$ en el eje radical de $\mathcal{C}_1$ y $\mathcal{C}_2$.

Demostración. Vamos a dar una construcción explícita para encontrar un punto en el eje radical de $\mathcal{C}_1$ y $\mathcal{C}_2$:

Eje radical de 2 circunferencias, construcción de un punto equipotente

Para ello, tracemos una tercera circunferencia $\mathcal{C}_3$ que intersecte a cada una de $\mathcal{C}_1$ y $\mathcal{C}_2$ en dos puntos (una manera de hacer esto esto tomar $\mathcal{C}_3$ como el circuncírculo un punto dentro de $\mathcal{C}_1$, uno dentro de $\mathcal{C}_2$ y otro fuera de ambas).

Llamamos $A_1,B_1$ las intersecciones con $\mathcal{C}_1$ y $A_2,B_2$ las intersecciones con $\mathcal{C}_2$. Tomamos el punto $P$ como la intersección de $A_1B_1$ con $A_2B_2$ como en la siguiente figura.

Las siguientes cuentas muestran que $P$ es equipotente a ambas. Estamos usando el resultado de la entrada anterior que muestra que el cálculo de la potencia con respecto a $\mathcal{C}_3$ no depende de los puntos elegidos.

\begin{align*}
\text{Pot}(P,\mathcal{C}_1)&=PA_1 \cdot PB_1\\
&=\text{Pot}(P,\mathcal{C}_3)\\
&=PA_2 \cdot PB_2\\
&=\text{Pot}(P,\mathcal{C}_2).
\end{align*}

Por lo anterior, en efecto existe al menos un punto en el eje radical.

$\square$

Ahora veremos que la proyección de un punto equipotente en la recta de los centros también es un punto equipotente.

Proposición. Sean $\mathcal{C}_1$ y $\mathcal{C}_2$ circunferencias no concéntricas de centros $O_1$ y $O_2$. Si $P$ es un punto equipotente con respecto a ellas y $M$ es el pie de la perpendicular desde $P$ a la recta $O_1O_2$, entonces $M$ es equipotente con respecto a las dos circunferencias.

Demostración. Sean $r_1$ y $r_2$ los radios de $\mathcal{C}_1$ y $\mathcal{C}_2$, respectivamente. Como $P$ esta en el eje radical de ambas, entonces por cómo se calcula la potencia con la distancia a los centros y el radio, tenemos que

\begin{equation}\label{eq:pot-ambos}PO_1^2 – r_1^2 = PO_2^2 – r_2^2.\end{equation}

Queremos demostrar que $M$ pertenece al eje radical, osea $\text{Pot}(M,\mathcal{C}_1)=\text{Pot}(M,\mathcal{C}_2)$.

Tracemos los segmentos $O_1P$ y $O_2P$. Los triángulos $\triangle PMO_1$ y $\triangle PMO_2$ son rectángulos, ver la siguiente figura.

Por Pitágoras se sigue que $$PO_1^2=MO_1^2+PM^2$$ y $$PO_2^2=MO_2^2+PM^2.$$

Al sustituir en \eqref{eq:pot-ambos}, obtenemos: $$MO_1^2+PM^2-r_1^2=MO_2^2+PM^2-r_2^2.$$

Cancelando $PM^2$, se obtiene la expresión que muestra que $M$ también es equipotente a ambas circunferencias:

\begin{equation}\label{eq:Mradical}MO_1^2-r_1^2=MO_2^2-r_2^2.\end{equation}

$\square$

Ahora veremos que todos los puntos en la perpendicular por $M$ también son equipotentes.

Proposición. Sean $\mathcal{C}_1$ y $\mathcal{C}_2$ circunferencias no concéntricas de centros $O_1$ y $O_2$. Si $M$ es un punto en $O_1O_2$ equipotente a ambas circunferencias, entonces todos los puntos en la perpendicular a $O_1O_2$ por $M$ también lo son.

Demostración. A la perpendicular del enunciado la llamaremos $l$. Sea $X$ un punto en $l$. Debemos mostrar que $$\text{Pot}(X,\mathcal{C}_1)=\text{Pot}(X,\mathcal{C}_2).$$

Para ello, trazamos $O_1X$ y $O_2X$.

Eje radical de 2 circunferencias demostración de proposición.

Como los triángulos $\triangle XMO_1$ y $\triangle XMO_2$ son rectángulos, nuevamente por Pitágoras: $$XO_1^2=MO_1^2+XM^2$$ y $$XO_2^2=MO_2^2+XM^2.$$

Usando las igualdades anteriores y que $M$ está en el eje radical (específicamente, \eqref{eq:Mradical}), tenemos que:

\begin{align*}
\text{Pot}(X,\mathcal{C}_1)&=XO_1^2-r_1^2\\
&= MO_1^2+XM^2 – r_1^2\\
&=MO_2^2+XM^2 – r_2^2\\
&=XO_2^2-r_2^2\\
&=\text{Pot}(X,\mathcal{C}_2).
\end{align*}

Por lo tanto, todo punto $X$ en $l$ es un punto en el eje radical.

$\square$

Ya sólo nos falta ver que no hay más puntos equipotentes.

Proposición. Sean $\mathcal{C}_1$ y $\mathcal{C}_2$ circunferencias no concéntricas de de centros $O_1$ y $O_2$. Si $M$ es un punto en $O_1O_2$ equipotente a ambas circunferencias, entonces únicamente los puntos en la perpendicular a $O_1O_2$ por $M$ son equipotentes a las circunferencias.

Demostración. Primero veremos que el único punto en $O_1O_2$ que puede funcionar es $M$. Para buscar una contradicción supongamos que otro punto $N$ en la recta $O_1O_2$, con $N\neq M$ también cumple que $\text{Pot}(N,\mathcal{C}_1)=\text{Pot}(N,\mathcal{C}_2)$. Entonces, $$NO_1^2-r_1^2=NO_2^2-r_2^2.$$

Restando a esta ecuación la ecuación \eqref{eq:Mradical}, obtenemos que $$NO_1^2-MO_1^2 = NO_2^2-MO_2^2,$$ y por diferencia de cuadrados, $$(NO_1+MO_1)(NO_1-MO_1)=(NO_2+MO_2)(NO_2-MO_2).$$

Tenemos que $NO_1-MO_1=NO_1+O_1M=NM$ y lo análogo para $O_2$, de modo que $$(NO_1+MO_1)NM=(NO_2+MO_2)NM.$$

Como $N\neq M$, tenemos $NM\neq 0$ y lo podemos cancelar. $$NO_1+MO_1=NO_2+MO_2,$$

de donde sale la cuarta igualdad de la siguiente cadena:

\begin{align*}
O_2O_1&=O_2N+NO_1\\
&=-NO_2+NO_1\\
&=-MO_1+MO_2\\
&=O_1M+MO_2\\
&=O_1O_2.
\end{align*}

Obtenemos que $O_2O_1=O_1O_2$. ¡Esto es imposible, pues son segmentos dirigidos y $O_1\neq O_2$! Esta contradicción muesta que $M$ es el único punto en $O_1O_2$ equipotente a ambas circunferencias.

Para finalizar, supongamos que existe un punto $P’$ cualquiera del plano equipotente a $\mathcal{C}_1$ y $\mathcal{C}_2$. Por la proposición de la proyección, la proyección $M’$ de $P’$ en $O_1O_2$ también es equipotente. Por lo que acabamos de mostrar, $M=M’$. Y así, $P’$ está en la perpendicular a $O_1O_2$ por $M$, como queríamos.

$\square$

Los ejes radicales por parejas de 3 circunferencias son concurrentes

Si tenemos tres circunferencias, entonces definen tres ejes radicales. Estos tres ejes radicales siempre concurren.

Teorema. Sean $\mathcal{C}_1$, $\mathcal{C}_2$ y $\mathcal{C}_3$ circunferencias de centros no colineales. Sea $e_1$ el eje radical de $\mathcal{C}_1$ y $\mathcal{C}_2$. Sea $e_2$ el eje radical de $\mathcal{C}_2$ y $\mathcal{C}_3$. Sea $e_3$ el eje radical de $\mathcal{C}_3$ y $\mathcal{C}_1$. Las rectas $e_1,e_2,e_3$ son concurrentes.

Demostración. Consideremos 3 circunferencias $\mathcal{C}_1,\mathcal{C}_2$ y $\mathcal{C}_3$, cuyos centros $O_1$, $O_2$ y $O_3$ no son colineales (en particular, son distintos). Tomemos los ejes radicales $e_1,e_2,e_3$ como en el enunciado.

Llamamos $P$ al punto de intersección de $e_1$ y $e_2$. Como $P$ está en $e_1$, entonces $\text{Pot}(P,\mathcal{C}_1)=\text{Pot}(P,\mathcal{C}_2)$ y como $P$ está en $e_2$, entonces $\text{Pot}(P,\mathcal{C}_2)=\text{Pot}(P,\mathcal{C}_3)$. De esta manera, $$\text{Pot}(P,\mathcal{C}_1)=\text{Pot}(P,\mathcal{C}_3).$$ Esto muestra que también $P$ está en $e_3$. Por lo tanto, los 3 ejes radicales concurren en $P$.

$\square$

Construcción del eje radical

¿Cómo podemos dibujar el eje radical de dos circunferencias no concéntricas $\mathcal{C}_1$ y $\mathcal{C}_2$, digamos, con regla y compás? Podemos seguir la idea que usamos cuando probamos que por lo menos existe un punto en el eje radical. Sean $O_1$ y $O_2$ los centros de estas circunferencias, respectivamente.

Dibujemos una circunferencia $\mathcal{C}$ que corte a las circunferencias $\mathcal{C}_1$ y $\mathcal{C}_2$, en $A,A’$ y $B,B’$. Esto puede hacerse trazando el circuncírculo de $O_1$, $O_2$ y un punto fuera de ambas cirfunferencias. Sean $A$ y $A’$ las intersecciones de $\mathcal{C}$ con $\mathcal{C}_1$. Sean $B$ y $B’$ las intersecciones de $\mathcal{C}$ con $\mathcal{C}_2$. Tomemos $P$ la intersección de $AA’$ y $BB’$. Por lo que mostramos anteriormente, $P$ está en el eje radical de las circunferencias. Y además, también mostramos que la recta perpendicular a $O_1O_2$ por $P$ es el eje radical. Así, al trazar esta perpendicular, obtenemos el eje radical requerido.

Más adelante…

Se seguirá abordando el tema de potencia de un punto y el eje radical con respecto a las circunferencias ortogonales.

Al final de los temas de esta primera unidad se dejará una serie de ejercicios.

Entradas relacionadas

Álgebra Lineal I: Algunas aclaraciones sobre las formas lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Uno de los momentos del curso de Álgebra Lineal I en el que se da un brinco de abstracción es cuando se introduce el espacio dual. En ese momento, empiezan a aparecer objetos que tratamos simultáneamente como funciones y como vectores: las formas lineales. De repente puede volverse muy difícil trasladar incluso conceptos muy sencillos (como el de suma vectorial, o el de independencia lineal) a este contexto. En esta entrada intentaremos dejar esto mucho más claro.

Igualdad de funciones

Para hablar del dual de un espacio vectorial $V$ sobre un campo $F$, necesitamos hablar de las funciones $l:V\to F$. Antes de cualquier cosa, debemos de ponernos de acuerdo en algo crucial. ¿Cuándo dos funciones son iguales?

Definición. Dos funciones $f:A\to B$ y $g:C\to D$ son iguales si y sólo si pasan las siguientes tres cosas:

  • $A=C$, es decir, tienen el mismo dominio.
  • $B=D$, es decir, tienen el mismo codominio
  • $f(a)=g(a)$ para todo $a\in A$, es decir, tienen la misma regla de asignación.

Los dos primeros puntos son importantes. El tercer punto es crucial, y justo es lo que nos permitirá trabajar y decir cosas acerca de las funciones. Implica dos cosas:

  • Que si queremos demostrar la igualdad de dos funciones, en parte necesitamos demostrar que se da la igualdad de las evaluaciones para todos los elementos del conjunto.
  • Que si ya nos dan la igualdad de las funciones, entonces nos están dando muchísima información, pues nos están diciendo la igualdad de todas las evaluaciones posibles.

Veamos algunos ejemplos.

Ejemplo 1. Tomemos las funciones $f:\mathbb{R}^2\to \mathbb{R}$ y $g:\mathbb{R}^2\to\mathbb{R}$ con las reglas de asignación $f(x,y)=2x+3y$ y $g(x,y)=6x-y$. ¿Son iguales? Los primeros dos puntos en la definición de igualdad se cumplen, pues tienen el mismo dominio y codominio. Entonces, debemos estudiar si tienen la misma regla de asignación.

Al evaluar en $(1,1)$ obtenemos que $f(1,1)=2+3=5$ y que $g(1,1)=6-1=5$. Al evaluar en $(2,2)$ obtenemos que $f(2,2)=4+6=10$ y que $g(2,2)=12-2=10$. Hasta aquí parecería que todo va bien, pero dos ejemplos no son suficientes para garantizar que $f=g$. Necesitaríamos la igualdad en todos los valores del dominio, es decir, en todas las parejas $(x,y)$.

Al evaluar en $(2,0)$ obtenemos que $f(2,0)=4+0=4$ y que $g(2,0)=12-0=12$. Los valores de las funciones fueron distintos, así que las funciones son distintas.

$\triangle$

Ejemplo 2. Imagina que $A$ y $B$ son dos números tales que las dos funciones $f:\mathbb{R}^2\to \mathbb{R}$ y $g:\mathbb{R}^2\to\mathbb{R}$ con las siguientes reglas de asignación son iguales:

\begin{align*}
f(x,y)&=2x-5y+A\\
g(x,y)&=Bx-5y+3.
\end{align*}

¿Cuáles tendrían que ser los valores de $A$ y $B$? Por supuesto, una exploración «a simple vista» sugiere que tendríamos que poner $B=2$ y $A=3$. Pero, ¿cómo vemos formalmente esto? ¿Cómo nos aseguramos de que sea la única posibilidad? Lo que tenemos que hacer es usar nuestra definición de igualdad de funciones. Para ello, podemos utilizar los valores $(x,y)$ que nosotros queremos pues la igualdad de funciones garantiza la igualdad en todas las evaluaciones. Así, podemos ponernos creativos y proponer $(3,5)$ para obtener que:

\begin{align*}
f(3,5)&=6-25+A=-19+A\\
g(3,5)&=3B-25+3=3B-22.
\end{align*}

Como las funciones son iguales, debe pasar que $f(3,5)=g(3,5)$, por lo que $-19+A=3B-22$. ¿Esto es suficiente para saber quién es $A$ y $B$? Todavía no, aún hay muchas posibilidades. Propongamos entonces otro valor de $(x,y)$ para evaluar. Veamos qué sucede con $(-2,1)$. Obtenemos:

\begin{align*}
f(-2,1)&=-4-5+A=-9+A\\
g(-2,1)&=-2B-5+3=-2B-2.
\end{align*}

Ahora tenemos más información de $A$ y $B$. Sabemos que $-9+A=-2B-2$. Reordenando ambas cosas que hemos obtenido hasta ahora, tenemos el siguiente sistema de ecuaciones:

\begin{align*}
A-3B=-3\\
A+2B=7.
\end{align*}

Restando la primera de la segunda obtenemos $5B=10$, de donde $B=2$. Sustituyendo en la segunda obtenemos $A+4=7$, de donde $A=3$, justo como queríamos.

$\triangle$

En el ejemplo anterior pudimos haber sido más astutos y evitarnos el sistema de ecuaciones. Recordemos que la igualdad $f(x,y)=g(x,y)$ se tiene para todas todas las parejas $(x,y)$, así que nos conviene usar parejas que 1) Sean sencillas de usar y 2) Nos den suficiente información.

Ejemplo 3. En el ejemplo anterior hicimos un par de sustituciones que finalmente sí nos llevaron a los valores que queríamos. Pero hay «mejores» sustituciones. Si hubiéramos usado la pareja $(0,0)$ obtendríamos inmediatemente $A$ pues: $$A=0-0+A=f(0,0)=g(0,0)=0-0+3=3,$$ de donde $A=3$. Ya sabiendo $A$, pudimos usar la pareja $(1,0)$ para obtener $$B+3=B-0+3=g(1,0)=2-0+3=5.$$ De aquí se obtiene nuevamente $B=2$.

$\triangle$

Veamos un último ejemplo, en el que es imposible encontrar un valor fijo que haga que dos funciones que nos dan sean iguales.

Ejemplo 4. Veamos que es imposible encontrar un número real $A$ para el cual las dos funciones $f:\mathbb{R}^2\to\mathbb{R}$ y $g:\mathbb{R}^2\to \mathbb{R}$ con las siguientes reglas de asignación sean iguales:

\begin{align*}
f(x,y)&=x^2+Ay^2\\
g(x,y)&=Axy.
\end{align*}

Imaginemos, de momento, que esto sí es posible. Entonces, tendríamos la igualdad de funciones y por lo tanto tendríamos la igualdad para todas las evaluaciones. Evaluando en $(1,0)$ obtendríamos que $$0=A\cdot 1 \cdot 0 = g(1,0)=f(1,0)=1^2+A\cdot 0^2=1.$$ Esto nos lleva a la contradicción $0=1$, lo cual muestra que ningún valor de $A$ podría funcionar.

$\triangle$

La forma lineal cero

Otra noción básica, pero que es importante de entender, es la noción de la forma lineal cero.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Sea $0$ el neutro aditivo del campo $F$. La forma lineal cero es la función $L_0:V\to F$ que manda a cualquier vector $v$ de $V$ a $0$, es decir, cuya regla de asignación es $L_0(v)=0$ para todo $v$ en $V$.

En álgebra lineal rápidamente nos queremos deshacer de notación estorbosa, pues muchas cosas son claras a partir del contexto. Pero esto tiene el problema de introducir ambigüedades que pueden ser confusas para alguien que apenas está comenzando a estudiar la materia. Lo que prácticamente siempre se hace es que a la forma lineal cero le llamamos simplemente $0$, y dejamos que el contexto nos diga si nos estamos refiriendo al neutro aditivo de $F$, o a la forma lineal cero $L_0$.

En esta entrada intentaremos apegarnos a llamar a la forma lineal cero siempre como $L_0$, pero toma en cuenta que muy probablemente más adelante te la encuentres simplemente como un $0$. Combinemos esta noción con la de igualdad.

Ejemplo. ¿Cómo tienen que ser los valores de $A$, $B$ y $C$ para que la función $l:\mathbb{R}^3\to \mathbb{R}$ con la siguiente regla de asignación sea igual a la forma lineal cero $L_0$? $$f(x,y,z)=(A+1)x+(B+C)y+(A-C)z$$

Debemos aprovechar la definición de igualdad de funciones: sabemos que la igualdad se da para las ternas que nosotros queramos. Evaluando en $(1,0,0)$ obtenemos $$A+1 = f(1,0,0)=L_0(1,0,0)=0.$$

Aquí a la derecha estamos usando que la forma lineal cero siempre es igual a cero. De manera similar, evaluando en $(0,1,0)$ y $(0,0,1)$ respectivamente obtenemos que \begin{align*}B+C&=f(0,1,0)=L_0(0,0,0)=0\\A-C&=f(0,0,1)=L_0(0,0,0)=0.\end{align*}

Ya tenemos información suficiente para encontrar $A$, $B$ y $C$. De la primer ecuación que obtuvimos, se tiene $A=-1$. De la tercera se tiene $C=A=-1$ y de la segunda se tiene $B=-C=1$.

Pero, ¡momento! Estos valores de $A$, $B$, $C$ funcionan para las tres ternas que dimos. ¿Funcionarán para cualquier otra terna? Si elegimos $A=-1$, $B=1$ y $C=-1$ entonces tendríamos $$f(x,y,z)=0\cdot x + 0\cdot y + 0\cdot z.$$ En efecto, sin importar qué valores de $(x,y,z)$ pongamos, la expresión anterior dará cero. Así, se daría la igualdad de reglas de correspondencia entre $f$ y $L_0$ y como tienen el mismo dominio y codominio concluiríamos que $f=L_0$.

$\triangle$

Suma y producto escalar de formas lineales

Otro aspecto que puede causar confusión es la suma de funciones y el producto escalar. En la duda, siempre hay que regresar a la definición. Enunciaremos los conceptos para formas lineales. Pero en realidad podemos definir la suma de funciones de manera similar siempre que el codominio sea un lugar en donde «se puede sumar». Similarmente, podríamos definir el producto escalar de un elemento con una función siempre que sepamos cómo multiplicar a ese elemento con cada elemento del codominio.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Sean $l:V\to F$ y $m:V\to F$ formas lineales. Definimos la suma de $l$ con $m$, a la cual denotaremos por $l+m$, como la función $l+m:V\to F$ con la siguiente regla de asignación:$$(l+m)(v)=l(v)+m(v),$$ para cualquier $v$ en $V$.

De nuevo nos estamos enfrentando a un posible problema de ambigüedad de símbolos: por un lado estamos usando $+$ para referirnos a la suma en el campo $F$ y por otro lado para referirnos a la suma de funciones que acabamos de definir.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Sea $l:V\to F$ una forma lineal y sea $r$ un elemento de $F$. Definimos el producto escalar de $r$ con $F$, al cual denotaremos por $r\cdot l$ como la función $r\cdot l:V\to F$ con la siguiente regla de asignación:$$(r\cdot l)(v)=r\cdot (l(v))$$ para cualquier $v$ en $V$.

Así, estamos usando tanto la suma en $F$ como el producto en $F$ para definir una nueva suma de funciones y un nuevo producto entre un real y una función. En el caso del producto escalar, como con muchos otros productos, usualmente quitamos el punto central y ponemos $rl$ en vez de $r\cdot l$.

Ejemplo. Tomemos las funciones $f:\mathbb{R}^3\to \mathbb{R}$ y $g:\mathbb{R}^3\to \mathbb{R}$ con las siguientes reglas de asignación:

\begin{align*}
f(x,y,z)&=2x-y+z\\
g(x,y,z)&=3x+y-5z.
\end{align*}

Mostraremos que la función $3f+(-2)g$ es igual a la función $h:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $h(x,y,z)=-5y+13z$. Lo haremos con todo el detalle posible. Primero, notamos que las dos funciones tienen dominio $\mathbb{R}^3$ y codominio $\mathbb{R}$ así que nos podemos enfocar en la regla de asignación. Debemos ver que ambas coinciden para todas las ternas $(x,y,z)$ en $\mathbb{R}^3$. Tomemos entonces una de estas ternas $(x,y,z)$.

Por definición de producto escalar de funciones, tenemos que $$(3f)(x,y,z)=3(f(x,y,z))=3(2x-y+z)=6x-3y+3z.$$. Aquí estamos usando la distributividad en los reales. Por definición de producto escalar de funciones, tenemos que $$ ((-2)g)(x,y,z)=(-2)(g(x,y,z))=(-2)(3x+y-5z)=-6x-2y+10z.$$ Una vez más estamos usando distributividad. Luego, por definición de suma de funciones obtenemos que

\begin{align*}
(3f+(-2)g)(x,y,z)&=(3f)(x,y,z)+(-2g)(x,y,z)\\
&= (6x-3y+3z)+(-6x-2y+10z)\\
& = -5y+13z\\
&= h(x,y,z).
\end{align*}

$\square$

Usualmente tomamos atajos para seguir simplificando la notación. Por ello, típicamente a veces vemos escrito todo lo anterior simplemente como: $$3(2x-y+z)-2(2x+y-5z)=-5y+13z.$$ De hecho esto es muy práctico, pues se puede mostrar que las funciones «sí podemos operarlas como si fueran expresiones en $x$, $y$, $z$ y usáramos las reglas usuales». Así, podemos «trabajar simbólicamente» y concluir rápidamente que $$(x+y)+(3x+2z)-3(x+y-z)$$ en verdad tiene la misma regla de asignación que $-2y+5z$.

Ahora sí, ¿quién es el espacio dual?

Si tenemos un espacio vectorial $V$ sobre un campo $F$ podemos construirnos otro espacio vectorial con otro conjunto base y otras operaciones que no son las del espacio original. Una forma de hacer esto es construir el espacio dual, al que llamaremos $V^\ast$. Los elementos de $V^\ast$ son las formas lineales de $V$, es decir, funciones lineales con dominio $V$ y codominio $F$. Debemos acostumbrarnos a pensar simultáneamente a un elemento de $V^\ast$ tanto como un vector (de $V^\ast$) como una función (de $V$ a $F$).

Para verdaderamente pensar a $V^\ast$ como un espacio vectorial, debemos establecer algunas cosas especiales:

  • La suma vectorial de $V^\ast$ será la suma de funciones que platicamos en la sección anterior.
  • El producto escalar vectorial de $V^\ast$ será el producto escalar que platicamos en la sección anterior.
  • El neutro aditivo vectorial de $V^\ast$ será la forma lineal $L_0$, y se puede verificar que en efecto $l+L_0=l$ para cualquier forma lineal $l$.

Por supuesto, típicamente a la suma vectorial le llamaremos simplemente «suma» y al producto escalar vectorial simplemente «producto escalar». Aquí estamos haciendo énfasis en lo de «vectorial» sólo para darnos cuenta de que nuestras operaciones de funciones se transformaron en operaciones para el espacio vectorial que estamos definiendo.

El espacio dual cumple muchas propiedades bonitas, pero ahorita no nos enfocaremos en enunciarlas y demostrarlas. Esto se puede encontrar en la página del curso de Álgebra Lineal I en el blog. Lo que sí haremos es irnos a los básicos y entender cómo se verían algunas definiciones básicas de álgebra lineal en términos de lo que hemos discutido hasta ahora.

Combinaciones lineales de formas lineales

Para hablar de las nociones de álgebra lineal para formas lineales, hay que pensarlas como vectores y como funciones. ¿Qué sería una combinación lineal de las formas lineales $l_1,\ldots,l_r$ del espacio vectorial, digamos, $\mathbb{R}^n$. Debemos tomar elementos $\alpha_1,\ldots,\alpha_r$ en $\mathbb{R}$ y construir la función $\ell=\alpha_1l_1+\ldots+\alpha_rl_r$. Aquí estamos usando la suma vectorial y el producto escalar vectorial que quedamos que serían la suma como funciones y el producto escalar como funciones. Así, obtenemos un elemento $\ell$ que por un lado es un vector del espacio dual, y por otro es una función $\ell:\mathbb{R}^n\to \mathbb{R}$. ¿Cuál es la regla de asignación? Es precisamente la dada por las definiciones de suma y producto escalar para funciones. Para ser muy precisos, se puede mostrar inductivamente que su regla de asignación es:

\begin{align*}
(\alpha_1l_1+&\ldots+\alpha_rl_r)(x_1,\ldots,x_n)=\\
&\alpha_1(l_1(x_1,\ldots,x_n))+\ldots+\alpha_r(l_r(x_1,\ldots,x_n)).
\end{align*}

Entendiendo esto, ahora sí podemos preguntarnos si una forma lineal es combinación lineal de otras.

Ejemplo. La forma lineal $h:\mathbb{R}^2\to\mathbb{R}$ con regla de asignación $h(x,y)=2x-y$ es combinación lineal de las formas lineales $f(x,y):\mathbb{R}^2\to\mathbb{R}$ y $g(x,y):\mathbb{R}^2\to\mathbb{R}$ con reglas de asignación

\begin{align*}
f(x,y)&=x+y\\
g(x,y)&=x-y.
\end{align*}

En efecto, tenemos que es igual a la combinación lineal $\frac{1}{2}f + \frac{3}{2} g$, pues su regla de asignación es:

$$\left(\frac{1}{2}f + \frac{3}{2} g\right)(x,y)=\left(\frac{x+y}{2}\right)+\left(\frac{3x-3y}{2}\right)=2x-y,$$

que es justo la regla de asignación de $h$. Así, $h=\frac{1}{2}f+\frac{3}{2}g$.

$\triangle$

Independencia lineal de formas lineales

Veamos un ejemplo más de cómo entender nociones de álgebra lineal cuando hablamos de formas lineales (o funciones en general). ¿Cómo sería el concepto de independencia lineal para formas lineales $l_1,\ldots,l_r$? A partir de una combinación lineal de ellas igualada a la forma lineal cero $L_0$, debemos mostrar que todos los coeficientes son iguales a cero. Es decir, a partir de $$\alpha_1l_1+\ldots+\alpha_rl_r=L_0,$$ debemos mostrar que $\alpha_1=\ldots=\alpha_r=0.$$ Usualmente el truco en estas situaciones es que ya nos están dando una igualdad de funciones. Entonces, podemos evaluar en los valores que nosotros queramos de ambos lados de la igualdad pues funciones iguales tienen todas sus evaluaciones iguales. Esto se parece a los ejemplos de la sección de igualdad de funciones.

Ejemplo. Vamos a demostrar que las formas lineales de $\mathbb{R}^4$ dadas por $f(w,x,y,z)=4w+2x+z$, $g(w,x,y,z)=4w+2z+y$, $h(w,x,y,z)=4w+2y+x$, $k(w,x,y,z)=w+x+y+z$ son linealmente independientes. Tomemos una combinación lineal de ellas igualda a cero (¡recordemos que en este espacio vectorial el cero es la forma lineal $L_0$!):

$$Af+Bg+Ch+Dk=L_0.$$

Debemos demostrar que $A=B=C=D=0$. ¿Cómo hacemos esto? Lo que haremos es evaluar: pondremos valores convenientes de $(w,x,y,z)$ en la igualdad anterior para obtener información de $A$, $B$, $C$, $D$. Poniendo $(1,0,0,0)$ obtenemos que:

\begin{align*}
0&=L_0(1,0,0,0)\\
&= (Af+Bg+Ch+Dk)\\
&=Af(1,0,0,0)+ Bg(1,0,0,0) +Ch(1,0,0,0) +Dk(1,0,0,0) \\
&=4A + 4B + 4C + D.
\end{align*}

Así, $4A+4B+4C+D=0$. Usando esta ecuación y las evaluaciones $(0,1,0,0)$, $(0,0,1,0)$ y $(0,0,0,1)$, obtenemos todo lo siguiente:

\begin{align*}
4A+4B+4C+D&=0\\
2A+C+D&=0\\
B+2C+D&=0\\
A+2B+D&=0.
\end{align*}

De aquí se puede mostrar (como puedes verificar como ejercicio) que la única solución posible es $A=B=C=D=0$. De este modo, las formas lineales $f,g,h,k$ son linealmente independientes.

$\square$

Más adelante

Esta es más una entrada auxiliar que una entrada que forma parte del flujo de la teoría principal. Sin embargo, espero que te haya servido para dejar más claros los conceptos de cuándo tenemos formas lineales iguales, cómo se operan, cuándo varias formas lineales son linealmente independientes, etc.

Tarea moral…

  1. Verifica que para cualquier forma lineal $l:\mathbb{R}^n\to \mathbb{R}$ y la forma lineal cero $L_0:\mathbb{R}^n\to\mathbb{R}$ en efecto se tiene que $l+L_0=l$. Usa las definiciones de la forma lineal cero, de la igualdad de funciones y de la suma de funciones.
  2. Verifica que $V^\ast$ con las operaciones de suma, producto escalar y el neutro aditivo que dimos en efecto es un espacio vectorial. ¿Cómo tendrían que ser los inversos aditivos?
  3. Considera las formas lineales $f:\mathbb{R}^3\to \mathbb{R}$ y $g:\mathbb{R}^3 \to \mathbb{R}$ dadas por $f(x,y,z)=x+3y+z$ y $g(x,y,z)=-x+5y-z$.
    1. Demuestra que es imposible encontrar reales $A$ y $B$ ambos distintos de cero tales que $Af+Bg$ sea la forma lineal cero.
    2. Encuentra reales $A$ y $B$ tales que $Af+Bg$ sea la forma lineal $h:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $h(x,y,z) = -x + 21 – z$.
    3. Demuestra que es imposible encontrar reales $A$ y $B$ tales que $Af+Bg$ sea la forma lineal $j:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $j(x,y,z)= -2x + 4y -3z$.
    4. ¿Será posible encontrar reales $A$ y $B$ tales que $Af+Bg$ sea la forma lineal $k:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $k(x,y,z)=5x+5y+5z$?
  4. Para cada uno de los siguientes casos, determina si las formas lineales son linealmente independientes:
    1. $f(x,y)=5x+3y$, $g(x,y)=x-3y$.
    2. $f(x,y,z)=5x+2y-z$, $g(x,y,z)=z$, $h(x,y,z)=x-y-z$.
    3. $f(w,x,y,z)=w+y$, $g(w,x,y,z)=3x-2z$, $h(w,x,y,z)=x+y+z$, $k=(w,x,y,z)=w+2x-3z$.
  5. Considera el espacio vectorial de polinomios con coeficientes reales $\mathbb{R}[x]$. Considera la función $\text{ev}_k:\mathbb{R}[x]\to \mathbb{R}$ que a cada polinomio lo manda a su evaluación en $k$, es decir, con regla de asignación $\text{ev}_k(p)=p(k)$.
    1. Demuestra que cualquier $\text{ev}_k$ es una forma lineal.
    2. Sean $k_1,\ldots,k_r$ reales distintos. Muestra que $\text{ev}_{k_1},\ldots,\text{ev}_{k_r}$ son formas lineales linealmente independientes.

Entradas relacionadas

Álgebra Lineal II: Matrices y transformaciones nilpotentes

Por Elizabeth Chalnique Ríos Alvarado

Introducción

Hemos estudiado varias clases importantes de matrices y transformaciones lineales: diagonales, triangulares superiores, simétricas, ortogonales, normales, etc. Es momento de aprender sobre otro tipo fundamental de matrices y transformaciones lineales: las transformaciones nilpotentes. Nos hemos encontrado con estas matrices ocasionalmente a lo largo del primer curso de álgebra lineal y de éste. Ahora las trataremos de manera más sistemática.

Matrices y transformaciones nilpotentes

En la última unidad estuvimos trabajando únicamente en $\mathbb{R}$ o en $\mathbb{C}$. Los resultados que presentaremos a continuación son válidos para espacios vectoriales sobre cualquier campo $F$.

Definición. Sea $A$ una matriz en $M_n(F)$. Diremos que $A$ es nilpotente si $A^m = O_n$ para algún entero positivo $m$. Al menor entero positivo $m$ para el cual suceda esto le llamamos el índice de $A$.

Ejemplo 1. La matriz $A=\begin{pmatrix} 3 & -9\\ 1 & -3\end{pmatrix}$ es nilpotente. En efecto, tenemos que $A^2=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$. Como $A^1\neq 0$, entonces el índice de $A$ es igual a dos.

$\triangle$

Tenemos una definición correspondiente para transformaciones lineales.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$ y sea $T: V \to V$ una transformación lineal. Diremos que que $T$ es nilpotente si $T^m$ es la transformación lineal cero para algún entero positivo $m$. Al menor entero positivo $m$ para el cual suceda esto le llamamos el índice de $T$.

Recuerda que por definición $T^m$ es la transformación $T$ compuesta consigo misma $m$ veces.

Ejemplo 2. Si estamos trabajando en el espacio $V=\mathbb{R}_n[x]$ de polinomios reales de grado a lo más $n$, entonces la transformación derivada $D:V\to V$ para la cual $D(p)=p’$ es una transformación lineal nilpotente. En efecto, tras aplicarla $n+1$ veces a cualquier polinomio de grado a lo más $n$ obtenemos al polinomio $0$. Su índice es exactamente $n+1$ pues derivar $n$ veces no anula al polinomio $x^n$ de $V$.

Si estuviéramos trabajando en el espacio vectorial $\mathbb{R}[x]$ de todos los polinomios reales, entonces la transformación derivada ya no sería nilpotente. En efecto, para cualquier $m$ siempre existe un polinomio tal que al derivarlo $m$ veces no se anula.

$\triangle$

Bloques de Jordan de eigenvalor cero

Hay una familia importante de matrices nilpotentes.

Definición. Sea $F$ un campo. El bloque de Jordan de eigenvalor $0$ y tamaño $k$ es la matriz $J_{0,k}$ en $M_k(F)$ cuyas entradas son todas cero, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, $J_{0,k}=[a_{ij}]$ con $$a_{ij}=\begin{cases} 1 & \text{si $j=i+1$}\\ 0 & \text{en otro caso.} \end{cases}$$

También podemos expresarlo de la siguiente manera:

$$J_{0,k}=\begin{pmatrix} 0 & 1 & 0 & \cdots & 0 & 0 \\ 0 & 0 & 1 & \cdots & 0 & 0 \\ 0 & 0 & 0 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \cdots & 0 & 1 \\ 0 & 0 & 0 & \cdots & 0 & 0 \end{pmatrix},$$ en donde estamos pensando que la matriz es de $k\times k$.

Ejemplo 3. A continuación tenemos la matriz $J_{0,4}$:

\begin{align*}
J_{0,4}=\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

Esta es una matriz nilpotente. En efecto, haciendo las cuentas de matrices correspondientes tenemos que:

\begin{align*}
J_{0,4}^2&= \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix} \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

Luego que

\begin{align*}
J_{0,4} ^3&= J_{0,4} J_{0,4}^2\\
&=\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix} \begin{pmatrix} 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix} \\
&=\begin{pmatrix} 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

Y finalmente que

\begin{align*}
J_{0,4}^4&= J_{0,4} J_{0,4}^3\\
&=\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix} \begin{pmatrix} 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix} \\
&=\begin{pmatrix} 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

De esta manera, hay una potencia de $ J_{0,4}$ que se hace igual a cero. Como la mínima potencia es $4$, entonces $ J_{0,4} $ es nilpotente de índice $4$. Observa cómo la diagonal de unos «se va recorriendo hacia arriba a la derecha».

$\triangle$

Todos los bloques de Jordan son nilpotentes

El siguiente resultado generaliza el ejemplo anterior y nos da una mejor demostración, interpretando a la matriz como transformación lineal.

Teorema. La matriz $J_{0,k}$ es nilpotente de índice $k$.

Demostración. Veamos qué hace la matriz $J_{0,k}$ cuando la multiplicamos por un vector: $$J_{0,k}\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_{k-1} \\ x_k \end{pmatrix}= \begin{pmatrix} 0 & 1 & 0 & \cdots & 0 & 0 \\ 0 & 0 & 1 & \cdots & 0 & 0 \\ 0 & 0 & 0 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \cdots & 0 & 1 \\ 0 & 0 & 0 & \cdots & 0 & 0 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_{k-1} \\ x_k \end{pmatrix} = \begin{pmatrix} x_2 \\ x_3 \\ x_4 \\ \vdots \\ x_k \\ 0 \end{pmatrix}.$$

En otras palabras, la matriz $J_{0,k}$ «recorre» las entradas del vector hacia arriba «empujando» con ceros desde abajo. Al hacer esto $k$ veces, claramente llegamos al vector $0$, así, $J_{0,k}^k$ está asociada a la transformación lineal cero y por lo tanto es la matriz $O_k$. Y $J_{0,k}^{k-1}$ no es la matriz cero pues al aplicarla en $e_k$, el $k$-ésimo vector de la base canónica de $F^k$ tenemos por las mismas ideas de arriba que $J_{0,k}^{k-1}e_n=e_1$.

$\square$

Una caracterización de matrices y transformaciones nilpotentes

El siguiente resultado nos da algunas equivalencias para que una transformación sea nilpotente.

Proposición. Sea $A\in M_n(F)$ una matriz. Todo lo siguiente es equivalente:

  1. $A$ es nilpotente.
  2. El polinomio mínimo de $A$ es de la forma $\mu_A(X)=X^k$.
  3. El polinomio característico de $A$ es $\chi_A(X)=X^n$.

Demostración. $1)\Rightarrow 2).$ Si $A$ es nilpotente, entonces hay un entero $m$ tal que $A^m=O_n$. Entonces, el polinomio $p(X)=X^m$ anula a la matriz $A$. Pero el polinomio mínimo divide a cualquier polinomio que anule a $A$, entonces $\mu_A(X)|X^m$, de donde $\mu_A(X)$ debe ser también de la forma $X^k$. De hecho, no puede suceder que $k<m$ pues en dicho caso como el polinomio mínimo anula a la matriz, tendríamos que $A^k=O_n$, pero esto es imposible pues $m$ es el menor entero tal que $A^m=O_n$. Así, en este caso $k$ es justo el índice de $A$.

$2) \Rightarrow 3).$ Supongamos que el polinomio mínimo de $A$ es de la forma $\mu_A(X)=X^k$. Como el polinomio mínimo anula a la matriz tenemos que $A^k=O_n$. Tomemos un escalar $\lambda$ en $F$ fijo. Tenemos que:

\begin{align*}
\lambda^k I_n &= \lambda^k I_n – A^{k}\\&= (\lambda I_n – A)(\lambda^{k-1}I_n+\lambda^{k-2}A + \ldots + \lambda A^{k-2} + A^{k-1})
\end{align*}

Al tomar determinante de ambos lados y usando en la derecha la multiplicatividad del determinante, tenemos:

$$\det(\lambda^k I_n) = \det(\lambda I_n – A)\det(\lambda^{k-1}I_n+\lambda^{k-2}A + \ldots + \lambda A^{k-2} + A^{k-1}).$$

Del lado izquierdo tenemos $\det(\lambda^k I_n)=\lambda^{nk}$. Del lado derecho tenemos $\chi_A(\lambda)$ multiplicado por otra expresión polinomial en $\lambda$, digamos $P(\lambda)$. Como esto se vale para todo escalar $\lambda$, se vale polinomialmente que $X^{nk}=\chi_A(X)P(X)$. Así, $\chi_A(X)|X^{nk}$ y como el polinomio característico es de grado exactamente $n$, obtenemos que $\chi_A(X)=X^n$.

$3) \Rightarrow 1).$ Si el polinomio característico de $A$ es $\chi_A(X)=X^n$, entonces por el teorema de Cayley-Hamilton tenemos que $A^n=O_n$, de donde $A$ es nilpotente.

$\square$

Como consecuencia del teorema anterior, obtenemos los siguientes resultados.

Corolario. Si $A$ es una matriz nilpotente en $M_n(F)$, entonces $A^n=O_n$ y por lo tanto el índice de $A$ es menor o igual a $n$. Análogamente, si $T:V\to V$ es nilpotente y $\dim(V)=n$, entonces el índice de $T$ es menor o igual a $n$.

Corolario. Si $A$ es una matriz nilpotente en $M_n(F)$, entonces su traza, su determinante y cualquier eigenvalor son todos iguales a cero.

Más adelante…

En esta entrada definimos a las matrices y transformaciones nilpotentes. También enunciamos algunas de sus propiedades. En la siguiente entrada enunciaremos nuestra primer versión del teorema de Jordan, en donde nos enfocaremos únicamente en lo que nos dice para las matrices nilpotentes. Esto servirá más adelante como uno de los peldaños que usaremos para demostrar el teorema de Jordan en general.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra una matriz nilpotente de índice $2$ en $M_7(\mathbb{R})$. En general, para cualquier entero positivo $n$ y cualquier entero $k$ con $1\leq k \leq n$, da una forma de construir una matriz nilpotente de índice $n$ en $M_n(\mathbb{R})$.
  2. Encuentra una matriz con determinante cero y que no sea una matriz nilpotente. Encuentra una matriz con traza cero y que no sea una matriz nilpotente.
  3. Sea $V$ un espacio vectorial de dimensión finita $n$. Demuestra que las siguientes afirmaciones son equivalentes:
    1. Una transformación $T:V\to V$ es nilpotente de índice $k$.
    2. Alguna forma matricial de $T$ es nilpotente de índice $k$.
    3. Todas las formas matriciales de $T$ son nilpotentes de índice $k$.
    4. $T^n$ es la transformación lineal $0$.
  4. Demuestra los dos corolarios al final de la entrada. Como sugerencia para el segundo, recuerda que la traza, determinante y los eigenvalores de una matriz están muy relacionados con su polinomio característico.
  5. Prueba que la única matriz nilpotente diagonalizable en $M_n(F)$ es $O_n$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Unicidad de la forma de Jordan para nilpotentes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan para matrices nilpotentes. Demostramos una parte: la existencia de la forma canónica de Jordan. Para ello, nos enfocamos en el teorema en su versión en términos de transformaciones lineales. En esta entrada nos enfocaremos en demostrar la unicidad de la forma canónica de Jordan. Curiosamente, en este caso será un poco más cómodo trabajar con la forma matricial del teorema. Para recordar lo que queremos probar, volvemos a poner el enunciado del teorema a continuación. Lo que buscamos es ver que los enteros $k_1,\ldots, k_d$ que menciona el teorema son únicos.

Teorema. Sea $A$ una matriz nilpotente en $M_n(F)$. Entonces existen únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} y para los cuales $A$ es similar a la siguiente matriz de bloques: $$\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

Nuestra estrategia para mostrar la unicidad será el estudio del rango de las potencias de $A$. Si $A$ es similar una matriz en forma canónica $J$, entonces existe $P$ invertible tal que $A=P^{-1}JP$, de donde se puede mostrar indutivamente que $A^k=P^{-1}J^kP$, mostrando que $A^k$ y $J^k$ son similares. Además, sabemos por teoría anterior que matrices similares tienen el mismo rango. De modo que si $A$ es similar a $J$ entonces todas las potencias de $A$ tienen el mismo rango que todas las potencias de $J$. Con esta idea en mente estudiaremos cómo es el rango de matrices de bloques de Jordan de eigenvalor cero.

Rango de potencias de bloques de Jordan

Claramente el rango del bloque de Jordan $J_{0,n}$ es $n-1$, pues ya está en forma escalonada reducida y tiene $n-1$ vectores distintos de cero. El siguiente resultado generaliza esta observación.

Proposición. Sea $n$ un entero positivo, $F$ un campo y $J_{0,n}$ el bloque de Jordan de eigenvalor $0$ y tamaño $n$ en $M_n(F)$. Para $k=1,\ldots,n$ se tiene que el rango de $J_{0,n}^k$ es igual a $n-k$. Para valores de $k$ más grandes, el rango es igual a cero.

Demostración. Si $e_1,\ldots,e_n$ es la base canónica de $F^n$, tenemos que $J_{0,n}e_i=e_{i-1}$ para $i=2,\ldots,n$ y $J_{0,n}e_1=0$. De manera intuitiva, la multiplicación matricial por $J_{0,n}$ va «desplazando los elementos de la base $e_1,\ldots,e_n$ a la izquierda, hasta sacarlos». De este modo, $J_{0,n}^k$ para $k=1,\ldots,n$ hace lo siguiente:

$$J_{0,n}^k e_i=\begin{cases} 0 & \text{para $k\geq i$}\\ e_{i-k} & \text{para $k\leq i-1$.}\end{cases}$$

Así, $J_{0,n}^k$ manda a la base $e_1,\ldots,e_n$ a los vectores $e_1,\ldots,e_{n-k}$ y a $k$ copias del vector cero. Como los primeros son $n-k$ vectores linealmente independientes, obtenemos que el rango de $J_{0,n}^k$ es $n-k$.

Para valores de $k$ más grandes la potencia se hace la matriz cero, así que su rango es cero.

$\square$

Rango de potencias de matrices de bloques de Jordan

¿Qué sucede si ahora estudiamos el rango de las potencias de una matriz de bloques de Jordan? Consideremos, por ejemplo, la siguiente matriz, en donde $k_1,\ldots,k_d$ son enteros positivos de suma $n$ y con $k_1\leq \ldots \leq k_d$:

$$J=\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

Por un lado, es sencillo elevar esta matriz a potencias, pues simplemente los bloques se elevan a las potencias correspondientes. En símbolos:

$$J^r=\begin{pmatrix} J_{0,k_1}^r& 0 & \cdots & 0 \\ 0 & J_{0,k_2}^r& \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}^r\end{pmatrix}.$$

¿Cuál es el rango de esta potencia? Nos conviene cambiar un poco de notación. En vez de considerar a los $k_i$ por separado, los agruparemos de acuerdo a su valor, que puede ir de $1$ a $n$. Así, para cada $j=1,\ldots,n$ definimos $m_j$ como la cantidad de valores $k_i$ iguales a $j$. Bajo esta notación, la igualdad $k_1+\ldots+k_d=n$ se puede reescribir como $$m_1+2m_2+3m_3+\ldots+nm_n=n.$$

Una primera observación es que el rango de $J$ es simplemente la suma de los rangos de cada una de las $J_{0,k_i}$. Cada una de éstas contribuye con rango $k_i-1$. Así, en términos de las $m_j$ tenemos lo siguiente:

\begin{align*}
\text{rango}(J)&=\sum_{i=1}^d (k_i-1)\\
&=\sum_{j=1}^n (j-1) m_j \\
&=0\cdot m_1 + 1\cdot m_2 + 2 \cdot m_3 + \ldots + (n-1) \cdot m_n.
\end{align*}

De manera similar,

\begin{align*}
\text{rango}(J^r)&=\sum_{i=1}^d \text{rango}(J_{0,k_i}^r)\\
&=\sum_{j=1}^n m_j \text{rango}(J_{0,j}^r).
\end{align*}

El término $\text{rango}(J_{0,j}^r)$ lo podemos calcular con la proposición de la sección anterior, cuidando la restricción entre el tamaño y las potencias que queremos. De aquí y de la restricción original para la las $m_j$ salen todas las siguientes igualdades:

\begin{align*}
n&= 1\cdot m_1 + 2\cdot m_2 + 3 \cdot m_3 + \ldots + n \cdot m_n\\
\text{rango}(J)&=0\cdot m_1 + 1\cdot m_2 + 2 \cdot m_3 + \ldots + (n-1) \cdot m_n\\
\text{rango}(J^2)&= 0 \cdot m_1 + 0 \cdot m_2 + 1 \cdot m_3 + \ldots + (n-2)\cdot m_n\\
\text{rango}(J^3)&= 0 \cdot m_1 + 0 \cdot m_2 + 0 \cdot m_3 + \ldots + (n-3)\cdot m_n\\
&\vdots\\
\text{rango}(J^{n-1})&= 0\cdot m_1 + 0 \cdot m_2 + 0 \cdot m_3 + \ldots + 1 \cdot m_n.
\end{align*}

A partir de aquí el rango de $J^n$ es $0$. Esto nos da una manera de entender con mucha precisión el rango de cualquier potencia de una matriz diagonal por bloques hecha con bloques de Jordan.

Unicidad de la forma canónica de Jordan

Estamos listos para justificar la unicidad de la forma canónica de Jordan. Una matriz diagonal por bloques hecha por bloques de Jordan queda totalmente determinada por los valores de $m_j$ de la sección anterior. Supongamos que $A$ tiene como forma canónica de Jordan tanto a una matriz $J$ con valores $m_j$, como a otra matriz $J’$ con valores $m_j’$.

Como dos matrices similares cumplen que sus potencias son todas del mismo rango, entonces para cualquier $r$ de $1$ a $n-1$ se cumple que $$\text{rango}(J^r)=\text{rango}(A^r)=\text{rango}(J’^r).$$ Así, tanto $(m_1,\ldots,m_n)$ como $({m_1}’,\ldots,{m_n}’)$ son soluciones al siguiente sistema de ecuaciones en variables $x_1,\ldots,x_n$.

\begin{align*}
n&= 1\cdot x_1 + 2\cdot x_2 + 3 \cdot x_3 + \ldots + n \cdot x_n\\
\text{rango}(A)&=0\cdot x_1 + 1\cdot x_2 + 2 \cdot x_3 + \ldots + (n-1) \cdot x_n\\
\text{rango}(A^2)&= 0 \cdot x_1 + 0 \cdot x_2 + 1 \cdot x_3 + \ldots + (n-2)\cdot x_n\\
\text{rango}(A^3)&= 0 \cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + (n-3)\cdot x_n\\
&\vdots\\
\text{rango}(A^{n-1})&= 0\cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + 1 \cdot x_n.
\end{align*}

Pero este es un sistema de $n$ ecuaciones en $n$ variables y con matriz asociada de determinante $1$, así que su solución es única. Esto muestra que $(m_1,\ldots,m_n)=({m_1}’,\ldots,{m_n}’)$. Entonces, en $J$ y $J’$ aparecen la misma cantidad de bloques de cada tamaño. Como además los bloques van de tamaño menor a mayor tanto en $J$ como en $J’$, concluimos que $J=J’$.

Como consecuencia de toda esta discusión, obtenemos de hecho lo siguiente.

Corolario. Dos matrices nilpotentes son semejantes si y sólo si tienen la misma forma canónica de Jordan. Distintas formas canónicas de Jordan dan distintas clases de semejanza.

Una receta para encontrar la forma canónica de Jordan de nilpotentes

La demostración anterior no sólo demuestra la unicidad de la forma canónica de Jordan. Además, nos dice exactamente cómo obtenerla. Para ello:

  1. Calculamos todas las potencias de $A$ hasta $n-1$.
  2. Usando reducción gaussiana (o de otro modo), calculamos el rango de cada una de estas potencias.
  3. Resolvemos el sistema de ecuaciones en variables $x_j$ de la sección anterior.
  4. La forma canónica de Jordan de $A$ tiene $x_j$ bloques de tamaño $j$, que debemos colocar en orden creciente de tamaño.

Ejemplo. Consideremos la siguiente matriz en $M_7(\mathbb{R})$: $$C=\begin{pmatrix}-27 & 266 & 1 & -37 & 135 & -125 & 53\\217 & -1563 & 118 & 33 & -1251 & 1020 & 361\\236 & -1784 & 188 & 16 & -1512 & 1234 & 585\\11 & -10 & -25 & 12 & 28 & -29 & -80\\-159 & 1133 & -114 & -98 & 878 & -690 & -232\\197 & -1409 & 88 & -19 & -1151 & 952 & 348\\-230 & 1605 & -179 & -100 & 1316 & -1031 & -440\end{pmatrix}$$

Sus números son muy complicados, sin embargo, nos podemos auxiliar de herramientas computacionales para encontrar sus potencias. Soprendentemente esta es una matriz nilpotente de índice $3$ pues:

$$C^2=\begin{pmatrix}0 & -10209 & -3403 & -6806 & -6806 & 10209 & 0\\0 & 14691 & 4897 & 9794 & 9794 & -14691 & 0\\0 & 2739 & 913 & 1826 & 1826 & -2739 & 0\\0 & 7221 & 2407 & 4814 & 4814 & -7221 & 0\\0 & -14193 & -4731 & -9462 & -9462 & 14193 & 0\\0 & 10956 & 3652 & 7304 & 7304 & -10956 & 0\\0 & -11952 & -3984 & -7968 & -7968 & 11952 & 0\end{pmatrix}$$

y

$$C^3=\begin{pmatrix}0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\end{pmatrix}.$$

Usando reducción gaussiana, o herramientas computacionales, obtenemos que el rango de $C$ es $4$ y que el rango de $C^2$ es $2$. A partir de $k\geq 3$ obtenemos que $\text{rango}(C^k)=\text{rango}(O_7)=0$. Si queremos encontrar la forma canónica de Jordan de $C$, necesitamos entonces resolver el siguiente sistema de ecuaciones, que nos dirá cuántos bloques $x_j$ de tamaño $j$ hay:

\begin{align*}
7&= x_1+2x_2+3x_3+4x_4+5x_5+6x_6+7x_7\\
4&=x_2 + 2x_3 + 3x_4+4x_5+5x_6+6x_7\\
2&= x_3 + 2x_4+3x_5+4x_6+5x_7 \\
0&= x_4+2x_5+3x_6+4x_7\\
0 &= x_5+2x_6+3x_7\\
0&= x_6+2x_7\\
0&= x_7
\end{align*}

Para resolverlo lo mejor es proceder «de abajo hacia arriba». Las últimas cuatro ecuaciones nos dicen que $x_7=x_6=x_5=x_4=0$. Así, el sistema queda un poco más simple, como:

\begin{align*}
7&= x_1+2x_2+3x_3\\
4&=x_2 + 2x_3\\
2&= x_3.
\end{align*}

De la última igualdad, tenemos $x_3=2$, lo que nos dice que la forma canónica de Jordan tendría dos bloques de tamaño $3$. Sustituyendo en la penúltima igualdad obtenemos que $4=x_2+4$, de donde $x_2=0$. Así, no tendremos ningún bloque de tamaño $2$. Finalmente, sustituyendo ambos valores en la primera igualdad obtenemos que $7=x_1+0+6$. De aquí obtenemos $x_1=1$, así que la forma canónica de Jordan tendrá un bloque de tamaño $1$. En resumen, la forma canónica de Jordan es la matriz $$\begin{pmatrix} J_{0,1} & 0 & 0 \\ 0 & J_{0,3} & 0 \\ 0 & 0 & J_{0,3}\end{pmatrix}.$$ Explícitamente, ésta es la siguiente matriz:

$$\begin{pmatrix} 0& 0 & 0 & 0 & 0 & 0 & 0 \\ 0& 0 & 1 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 1 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 1 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \end{pmatrix}.$$

Para verla un poco más «como de bloques» la podemos reescribir de la siguiente manera:

$$\left(\begin{array}{c|ccc|ccc} 0& 0 & 0 & 0 & 0 & 0 & 0 \\ \hline 0& 0 & 1 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 1 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \\ \hline 0& 0 & 0 & 0 & 0 & 1 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \end{array}\right).$$

$\triangle$

Más adelante…

Hemos demostrado la existencia y unicidad de la forma canónica de Jordan para matrices nilpotentes. Este es un resultado interesante por sí mismo. Sin embargo, también es un paso intermedio para un resultado más general. En las siguientes entradas hablaremos de una versión más general del teorema de Jordan, para matrices tales que su polinomio característico se descomponga totalmente en el campo en el que estemos trabajando.

Tarea moral

  1. Considera la siguiente matriz: $$M=\begin{pmatrix}11 & 11 & -11 & -11\\-1 & -1 & 1 & 1\\3 & 3 & -3 & -3\\7 & 7 & -7 & -7\end{pmatrix}.$$
    1. Muestra que $M$ es una matriz nilpotente y determina su índice.
    2. ¿Cuál es la forma canónica de Jordan de $M$?
  2. Describe las posibles formas canónicas de Jordan para una matriz nilpotente $A \in M_{5}(F)$ de índice $2$.
  3. Describe las posibles formas canónicas de Jordan para una matriz nilpotente $A \in M_{7}(F)$ de rango $5$.
  4. Encuentra de manera explícita la inversa de la siguiente matriz en $M_n(\mathbb{R})$ y usa esto para dar de manera explícita la solución al sistema de ecuación en las variables $x_i$ que aparece en la entrada: $$\begin{pmatrix} 1 & 2 & 3 & \cdots & n-1 & n \\ 0 & 1 & 2 & \cdots & n-2 & n-1 \\ 0 & 0 & 1 & \cdots & n-3 & n-2 \\ & \vdots & & \ddots & & \vdots\\ 0 & 0 & 0 & \cdots & 1 & 2 \\ 0 & 0 & 0 & \cdots & 0 & 1\end{pmatrix}.$$
  5. Sea $A$ una matriz nilpotente en $M_n(\mathbb{R})$. Muestra que las matrices $A$ y $5A$ son similares entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Geometría Analítica I: Teoremas de clasificación de polinomios cuadráticos y curvas cuadráticas

Por Leonardo Ignacio Martínez Sandoval

Introducción

Nos hemos estado preparando para enunciar formalmente los resultados de clasificación que nos dirán «cómo son todas las cónicas algebraicamente», o bien que nos dirán «cómo se ven conjuntos de ceros de cualquier polinomio cuadrático en dos variables». En una entrada anterior hablamos de qué es un resultado de clasificación en matemáticas. Después, definimos con toda precisión cuáles son los objetos que clasificaremos: los polinomios cuadráticos en dos variables y las curvas cuadráticas. Finalmente, establecimos las nociones de equivalencia afín y equivalencia isométrica que usaremos para dar nuestra clasificación.

En esta entrada finalmente enunciaremos con toda precisión los teoremas de clasificación que nos interesan. La demostración de estos teoremas no es directa, así que nos tomará algunas entradas más preparar la teoría necesaria para poder hacerlo.

Teoremas de clasificación isométrica

Los primeros teoremas que demostraremos serán bajo la equivalencia dada por las isometrías. Daremos teoremas para clasificar tanto polinomios cuadráticos en dos variables, como curvas cuadráticas.

El resultado para PCDVs es un poco más abstracto. La clasificación es un poco aparatosa, pues habrá muchos posibles parámetros involucrados. Pero tiene la ventaja de que es el que podremos demostrar a partir de las técnicas de matrices que ya conocemos y de algunas más que desarrollaremos sobre la marcha.

El resultado para curvas cuadráticas es muy intuitivo, pues lo podemos pensar en términos puramente geométricos: nos dirá que cualquier curva cuadrática se puede llevar, sin alterar su métrica, a una curva cuadrática mucho más fácil de describir, que viene de una «lista corta» de posibilidades. Como las transformaciones permitidas son las isometrías, esto es lo que más se parece a nuestro entendimiento de «ser la misma figura».

Veamos qué dice cada resultado. El primer teorema clasifica PCDVs a través de isometrías.

Teorema. Cualquier polinomio cuadrático en dos variables es isométricamente equivalente a exactamente alguno de los siguientes polinomios:

  1. A algún polinomio de la forma $\frac{x^2}{a^2}+\frac{y^2}{b^2}-1$ para $a\geq b$ reales distintos de cero
  2. A algún polinomio de la forma $\frac{x^2}{a^2}-\frac{y^2}{b^2}-1$ para $a\geq b$ reales distintos de cero
  3. A algún polinomio de la forma $y^2-cx$ para $c$ real distinto de cero
  4. A algún polinomio de la forma $c^2x^2-y^2$ para $c$ real distinto de cero
  5. A algún polinomio de la forma $c^2x^2-1$ para $c$ real distinto de cero
  6. Al polinomio $x^2$
  7. A algún polinomio de la forma $c^2x^2+y^2$ para $c$ real distinto de cero
  8. A algún polinomio de la forma $\frac{x^2}{a^2}+\frac{x^2}{b^2}+1$ para $a,b$ reales distintos de cero
  9. A algún polinomio de la forma $c^2x^2+1$ para $c$ real distinto de cero

El segundo teorema clasifica curvas cuadráticas bajo isometrías, y será un corolario del teorema anterior.

Teorema. Cualquier curva cuadrática del plano es isométricamente equivalente a exactamente una de las siguientes:

  1. A alguna elipse canónica con centro en $(0,0)$ y focos en el eje $x$
  2. A alguna hipérbola canónica con centro en $(0,0)$ y focos en el eje $x$
  3. A alguna parábola canónica de vértice $(c,0)$ y directriz $y=-c$
  4. A dos rectas que se intersectan en el origen
  5. A dos rectas paralelas de la forma $x=c$ y $x=-c$
  6. A la recta $x=0$
  7. Al origen $(0,0)$
  8. Al conjunto vacío

Teoremas de clasificación afín

Después de realizar la clasificación isométrica, agrandaremos un poco el conjunto de transformaciones que usaremos: permitiremos utilizar cualquier transformación afín. Al hacer esto, tenemos más transformaciones y por lo tanto deberíamos esperar que nuestra clasificación tenga menos posibilidades. En efecto este es el caso.

De hecho, la razón por la cual hacemos esto es que al permitir a todas las transformaciones afines nuestros polinomios cuadráticos en dos variables (o curvas cuadráticas) quedan clasificadas en muy muy pocos tipos: una cantidad finita. A continuación enunciamos los resultados concretos.

El primer teorema es para polinomios cuadráticos en dos variables.

Teorema. Cualquier polinomio cuadrático en dos variables es afínmente equivalente a exactamente uno de los siguientes polinomios:

  1. $x^2+y^2-1$
  2. $x^2-y^2-1$
  3. $y^2-x$
  4. $x^2-y^2$
  5. $x^2+1$
  6. $x^2$
  7. $x^2+y^2$
  8. $x^2+y^2+1$
  9. $x^2+1$

¡Este resultado es fantástico! Existen muchísimas expresiones de la forma $Ax^2+Bxy+Cy^2+Dx+Ey+F$ y el teorema anterior nos dice que, en realidad, podemos «resumirlas» únicamente en nueve posibilidades muy fáciles de enunciar.

Como corolario, obtendremos el segundo resultado para clasificación mediante transformaciones afines: el correspondiente a las curvas cuadráticas.

Teorema. Cualquier curva cuadrática del plano es afínmente equivalente a exactamente una de las siguientes posibilidades:

  1. La circunferencia unitaria
  2. La hipérbola unitaria
  3. La parábola unitaria
  4. Las rectas $y=x$ y $y=-x$
  5. Las rectas $x=1$ y $x=-1$
  6. La recta $x=0$
  7. El origen
  8. El conjunto vacío

Una vez más, es increíble que existiendo tantísimas curvas cuadráticas en el plano, sea posible resumirlas a tan solo ocho posibilidades.

Y, ¿por qué sirve esta clasificación?

En el transcurso de las siguientes entradas nos encontraremos con muchas situaciones concretas en las que clasificar una cónica será de utilidad. Mientras tanto discutimos esto de manera un poco informal. Imagina que comenzamos con el siguiente polinomio cuadrático en dos variables: $$P((x,y))=x^2-5xy-y^2+2x-y+5.$$

Tras hacer una figura en el plano usando alguna herramienta computacional, obtenemos que la curva cuadrática definida por $P$ se ve como en la siguiente figura.

Parece ser que esta es una hipérbola. Una de las ventajas del teorema de clasificación isométrica de curvas cuadráticas es que nos dirá que, en efecto, esto es una hipérbola. De hecho, tendremos una manera práctica de encontrar de manera explícita la transformación $T$ que manda el polinomio $P$ que define esta hipérbola $\mathcal{H}$ a un polinomio isométricamente equivalente $P’$ de una hipérbola canónica $\mathcal{H}’$.

¿Cuáles son los focos de $\mathcal{H}$? ¿Cuál es el centro de $\mathcal{H}$? ¿Cuál es la longitud de sus ejes? Esto no se aprecia claramente a partir del polinomio $P$. Sin embargo, la hipérbola $\mathcal{H}’$ tiene ecuación canónica, así que en $P’$ podemos leer fácilmente los focos, ejes y centro de $\mathcal{H’}$. Y luego usando precisamente la transformación $T$ podemos transferir esta información que sabemos de $\mathcal{H}’$ a $\mathcal{H}$. Por ejemplo, usando que $T$ es isometría obtenemos que $\mathcal{H}$ y $\mathcal{H}’$ tienen la misma longitud de ejes.

Más adelante…

En las siguientes entradas nos enfocaremos en demostrar los teoremas de clasificación aquí enunciados. Antes de hacer esto, debemos desarrollar un poco más de teoría. Por un lado, necesitamos comprender cómo las traslaciones nos pueden ayudar a «eliminar los términos lineales» de algunos polinomios cuadráticos. Luego, necesitamos comprender cómo las rotaciones nos pueden ayudar a «eliminar el término cruzado $xy$».

Las traslaciones las podremos entender fácilmente. Sin embargo, las rotaciones que «eliminan el término cruzado» requerirán que entendamos un nuevo procedimiento para matrices simétricas: el de diagonalizarlas. Esto nos llevará a discutir los eigenvalores, eigenvectores y el polinomio característico de la matriz.

Tarea moral

  1. Demuestra que cualesquiera dos segmentos del plano son afínmente equivalentes.
  2. Demuestra que cualesquiera dos rectángulos del plano son afínmente equivalentes.
  3. Resuelve los siguientes incisos:
    1. Prueba que dos cuadrados del plano son isométricamente equivalentes si y sólo si tienen la misma longitud de lado.
    2. Demuestra que cualquier cuadrado es isométricamente equivalente a algún cuadrado de vértices $(0,0)$, $(c,0)$, $(0,c)$ y $(c,c)$ para $c>0$.
    3. Demuestra que el cuadrado de vértices $(0,0)$, $(c,0)$, $(0,c)$ y $(c,c)$ tiene diagonal de longitud $\sqrt{2}c$.
    4. Usa todo lo anterior para demostrar que en cualquier cuadrado de lado $c$ se tiene que la diagonal mide $\sqrt{2}c$.
  4. En el teorema de clasificación afín de PCDV tenemos que cualquier PCDV es afínmente equivalente a exactamente una de las posibilidades enunciadas. En particular, esto implica que de esos nueve polinomios, no hay dos de ellos que sean afínmente equivalentes entre sí. Demuestra esto.
  5. Enuncia y demuestra un teorema de clasificación isométrico y un teorema de clasificación afín para triángulos en el plano.

Entradas relacionadas