Geometría Moderna II: Eje radical de 2 circunferencias

Por Armando Arzola Pérez

Introducción

En la entrada anterior hablamos de la noción de potencia de un punto con respecto a una circunferencia. Lo que haremos ahora es tomar dos circunferencias y preguntarnos por los puntos cuya potencia a ellas coincide. Esto nos llevará a estudiar la noción de eje radical de las circunferencias.

A grandes rasgos, definiremos qué es el eje radical. Luego, mostraremos que es una recta muy específica. Después de hacer eso, estudiaremos qué sucede si tenemos tres circunferencias. Finalmente, hablaremos un poco de cómo dibujar el eje radical de dos circunferencias.

Eje radical de 2 circunferencias

La definición que nos interesa estudiar ahora es el conjunto de puntos del plano cuyas potencias a dos circunferencias coincide. La siguiente definición formaliza esto.

Definición. El eje radical de dos circunferencias no concéntricas $\mathcal{C}_1$ y $\mathcal{C}_2$ es el lugar geométrico de los puntos $P$ tales que $$\text{Pot}(P,\mathcal{C}_1)=\text{Pot}(P,\mathcal{C}_2).$$ Si un punto está en el eje radical de ellas, decimos que es equipotente a ambas.

Ejemplo.

$\triangle$

El eje radical es una recta

En esta sección demostraremos el siguiente teorema.

Teorema. Sean $\mathcal{C}_1$ y $\mathcal{C}_2$ circunferencias no concéntricas de de centros $O_1$ y $O_2$. El eje radical de ellas es la recta que perpendicular a la recta $O_1O_2$, y que pasa por el punto $M$ de $O_1O_2$ que cumple $\text{Pot}(M,\mathcal{C}_1)=\text{Pot}(M,\mathcal{C}_2).$

La demostración de este teorema la dividiremos en las siguientes partes:

  1. Probar que existe al menos un punto $P$ en el eje radical.
  2. Mostrar que la proyección $M$ de dicho punto a la recta $O_1O_2$ también está en el eje radical.
  3. Ver que todo punto en la perpendicular a $O_1O_2$ por $M$ está en el eje radical.
  4. Mostrar que no existen otros puntos en el eje radical más allá de los ya localizados.

Veamos cada uno de estos puntos como una proposición por separado.

Proposición. Sean $\mathcal{C}_1$ y $\mathcal{C}_2$ circunferencias no concéntricas. Existe al menos un punto $P$ en el eje radical de $\mathcal{C}_1$ y $\mathcal{C}_2$.

Demostración. Vamos a dar una construcción explícita para encontrar un punto en el eje radical de $\mathcal{C}_1$ y $\mathcal{C}_2$:

Eje radical de 2 circunferencias, construcción de un punto equipotente

Para ello, tracemos una tercera circunferencia $\mathcal{C}_3$ que intersecte a cada una de $\mathcal{C}_1$ y $\mathcal{C}_2$ en dos puntos (una manera de hacer esto esto tomar $\mathcal{C}_3$ como el circuncírculo un punto dentro de $\mathcal{C}_1$, uno dentro de $\mathcal{C}_2$ y otro fuera de ambas).

Llamamos $A_1,B_1$ las intersecciones con $\mathcal{C}_1$ y $A_2,B_2$ las intersecciones con $\mathcal{C}_2$. Tomamos el punto $P$ como la intersección de $A_1B_1$ con $A_2B_2$ como en la siguiente figura.

Las siguientes cuentas muestran que $P$ es equipotente a ambas. Estamos usando el resultado de la entrada anterior que muestra que el cálculo de la potencia con respectoa $\mathcal{C}_3$ no depende de los puntos elegidos.

\begin{align*}
\text{Pot}(P,\mathcal{C}_1)&=PA_1 \cdot PB_1\\
&=\text{Pot}(P,\mathcal{C}_3)\\
&=PA_2 \cdot PB_2\\
&=\text{Pot}(P,\mathcal{C}_2)
\end{align*}

Por lo anterior es una realidad que existe al menos un punto en el eje radical.

$\square$

Ahora veremos que la proyección de un punto equipotente en la recta de los centros también es un punto equipotente.

Proposición. Sean $\mathcal{C}_1$ y $\mathcal{C}_2$ circunferencias no concéntricas de centros $O_1$ y $O_2$. Si $P$ es un punto equipotente con respecto a ellas y $M$ es el pie de la perpendicular desde $P$ a la recta $O_1O_2$, entonces $M$ es equipotente con respecto a las dos circunferencias.

Demostración. Sean $r_1$ y $r_2$ los radios de $\mathcal{C}_1$ y $\mathcal{C}_2$, respectivamente. Como $P$ esta en el eje radical de ambas, entonces por cómo se calcula la potencia con la distancia a los centros y el radio, tenemos que

\begin{equation}\label{eq:pot-ambos}PO_1^2 – r_1^2 = PO_2^2 – r_2^2.\end{equation}

Queremos demostrar que $M$ pertenece al eje radical, ósea $\text{Pot}(M,\mathcal{C}_1)=\text{Pot}(M,\mathcal{C}_2)$.

Tracemos los segmentos $O_1P$ y $O_2P$. Los triángulos $\triangle PMO_1$ y $\triangle PMO_2$ son rectángulos, ver la siguiente figura.

Por Pitágoras se sigue que $$PO_1^2=MO_1^2+PM^2$$ y $$PO_2^2=MO_2^2+PM^2.$$

Al sustituir en \eqref{eq:pot-ambos}, obtenemos: $$MO_1^2+PM^2-r_1^2=MO_2^2+PM^2-r_2^2.$$

Cancelando $PM^2$, se obtiene la expresión que muestra que $M$ también es equipotente a ambas circunferencias:

\begin{equation}\label{eq:Mradical}MO_1^2-r_1^2=MO_2^2-r_2^2.\end{equation}

$\square$

Ahora veremos que todos los puntos en la perpendicular por $M$ también son equipotentes.

Proposición. Sean $\mathcal{C}_1$ y $\mathcal{C}_2$ circunferencias no concéntricas de de centros $O_1$ y $O_2$. Si $M$ es un punto en $O_1O_2$ equipotente a ambas circunferencias, entonces todos los puntos en la perpendicular a $O_1O_2$ por $M$ también lo son.

Demostración. A la perpendicular del enunciado la llamaremos $l$. Sea $X$ un punto en $l$. Debemos mostrar que $$\text{Pot}(X,\mathcal{C}_1)=\text{Pot}(X,\mathcal{C}_2).$$

Para ello, trazamos $O_1X$ y $O_2X$.

Eje radical de 2 circunferencias demostración de proposición.

Como los triángulos $\triangle XMO_1$ y $\triangle XMO_2$ son rectángulos, nuevamente por Pitágoras: $$XO_1^2=MO_1^2+XM^2$$ y $$XO_2^2=MO_2^2+XM^2.$$

Usando las igualdades anteriores y que $M$ está en el eje radical (específicamente, \eqref{eq:Mradical}), tenemos que:

\begin{align*}
\text{Pot}(X,\mathcal{C}_1)&=XO_1^2-r_1^2\\
&= MO_1^2+XM^2 – r_1^2\\
&=MO_2^2+XM^2 – r_2^2\\
&=XO_2^2-r_2^2\\
&=\text{Pot}(X,\mathcal{C}_2)
\end{align*}

Por lo tanto, todo punto $X$ en $l$ es un punto en el eje radical.

$\square$

Ya sólo nos falta ver que no hay más puntos equipotentes.

Proposición. Sean $\mathcal{C}_1$ y $\mathcal{C}_2$ circunferencias no concéntricas de de centros $O_1$ y $O_2$. Si $M$ es un punto en $O_1O_2$ equipotente a ambas circunferencias, entonces únicamente los puntos en la perpendicular a $O_1O_2$ por $M$ son equipotentes a las circunferencias.

Demostración. Primero veremos que el único punto en $O_1O_2$ que puede funcionar es $M$. Para ello, para buscar una contradicción supongamos que otro punto $N$ en la recta $O_1O_2$, con $N\neq M$ también cumple que $\text{Pot}(N,\mathcal{C}_1)=\text{Pot}(N,\mathcal{C}_2)$. Entonces, $$NO_1^2-r_1^2=NO_2^2-r_2^2.$$

Restando a esta ecuación la ecuación \eqref{eq:Mradical}, obtenemos que $$NO_1^2-MO_1^2 = NO_2^2-MO_2^2,$$ y por diferencia de cuadrados, $$(NO_1+MO_1)(NO_1-MO_1)=(NO_2+MO_2)(NO_2-MO_2).$$

Tenemos que $NO_1-MO_1=NO_1+O_1M=NM$ y lo análogo para $O_2$, de modo que $$(NO_1+MO_1)NM=(NO_2+MO_2)NM.$$

Como $N\neq M$, tenemos $NM\neq 0$ y lo podemos cancelar. $$NO_1+MO_1=NO_2+MO_2,$$

de donde sale la cuarta igualdad de la siguiente cadena:

\begin{align*}
O_2O_1&=O_2N+NO_1\\
&=-NO_2+NO_1\\
&=-MO_1+MO_2\\
&=O_1M+MO_2\\
&=O_1O_2.
\end{align*}

Obtenemos que $O_2O_1=O_1O_2$. ¡Esto es imposible, pues son segmentos dirigidos y $O_1\neq O_2$! Esta contradicción muesta que $M$ es el único punto en $O_1O_2$ equipotente a ambas circunferencias.

Para finalizar, supongamos que existe un punto $P’$ cualquiera del plano equipotente a $\mathcal{C}_1$ y $\mathcal{C}_2$. Por la proposición de la proyección, la proyección $M’$ de $P’$ en $O_1O_2$ también es equipotente. Por lo que acabamos de mostrar, $M=M’$. Y así, $P’$ está en la perpendicular a $O_1O_2$ por $M$, como queríamos.

$\square$

Los ejes radicales por parejas de 3 circunferencias son concurrentes

Si tenemos tres circunferencias, entonces definen tres ejes radicales. Estos tres ejes radicales siempre concurren.

Teorema. Sean $\mathcal{C}_1$, $\mathcal{C}_2$ y $\mathcal{C}_3$ circunferencias de centros no colineales. Sea $e_1$ el eje radical de $\mathcal{C}_1$ y $\mathcal{C}_2$. Sea $e_2$ el eje radical de $\mathcal{C}_2$ y $\mathcal{C}_3$. Sea $e_3$ el eje radical de $\mathcal{C}_3$ y $\mathcal{C}_1$. Las rectas $e_1,e_2,e_3$ son concurrentes.

Demostración. Consideremos 3 circunferencias $\mathcal{C}_1,\mathcal{C}_2$ y $\mathcal{C}_3$, cuyos centros son $O_1$, $O_2$ y $O_3$ no son colineales (en particular, son distintos). Tomemos los ejes radicales $e_1,e_2,e_3$ como en el enunciado.

Llamamos $P$ al punto de intersección de $e_1$ y $e_2$. Como $P$ está en $e_1$, entonces $\text{Pot}(P,\mathcal{C}_1)=\text{Pot}(P,\mathcal{C}_2)$ y como $P$ está en $e_2$, entonces $\text{Pot}(P,\mathcal{C}_2)=\text{Pot}(P,\mathcal{C}_3)$.

De esta manera, $$\text{Pot}(P,\mathcal{C}_1)=\text{Pot}(P,\mathcal{C}_3).$$ Esto muestra que también $P$ está en $e_3$. Por lo tanto, los 3 ejes radicales concurren en $P$.

$\square$

Construcción del eje radical

¿Cómo podemos dibujar el eje radical de dos circunferencias no concéntricas $\mathcal{C}_1$ y $\mathcal{C}_2$, digamos, con regla y compás? Podemos seguir la idea que usamos cuando probamos que por lo menos existe un punto en el eje radical. Sean $O_1$ y $O_2$ los centros de estas circunferencias, respectivamente.

Dibujemos una circunferencia $\mathcal{C}$ que corte a las circunferencias $\mathcal{C}_1$ y $\mathcal{C}_2$, en $A,A’$ y $B,B’$. Esto puede hacerse trazando el circuncírculo de $O_1$, $O_2$ y un punto fuera de ambas cirfunferencias. Sean $A$ y $A’$ las intersecciones de $\mathcal{C}$ con $\mathcal{C}_1$. Sean $B$ y $B’$ las intersecciones de $\mathcal{C}$ con $\mathcal{C}_2$. Tomemos $P$ la intersección de $AA’$ y $BB’$. Por lo que mostramos anteriormente, $P$ está en el eje radical de las circunferencias. Y además, también mostramos que la recta perpendicular a $O_1O_2$ por $P$ es el eje radical. Así, al trazar esta perpendicular, obtenemos el eje radical requerido.

Más adelante…

Se seguirá abordando el tema de potencia de un punto y el eje radical con respecto a las circunferencias ortogonales.

Al final de los temas de esta primera unidad se dejará unas series de ejercicios.

Entradas relacionadas

1.4. SUBESPACIO: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Si tenemos un conjunto $C$ con ciertas propiedades de nuestro interés, no forzosamente todo subconjunto de $C$ va a conservar esas propiedades, pero nos interesa encontrar condiciones suficientes (y de preferencia también necesarias) para saber si un subconjunto $D$ de $C$ dado tiene o no las propiedades que queremos.

Si $C$ es un conjunto que contiene a hombres y a mujeres, podemos definir un subconjunto que no contenga hombres y un subconjunto que no tenga mujeres, con lo que ya no preservan la propiedad deseada.

En esta entrada analizaremos qué se requiere para que un subconjunto de un espacio vectorial, tenga también estructura de espacio vectorial. Veremos que aunque aparentemente se requiere pedir muchas condiciones, en realidad éstas se pueden reducir sólo a unas cuantas.

SUBESPACIO

Definición: Sea $V$ un $K$ – espacio vectorial y $W$ un subconjunto de $V$. Decimos que $W$ es un subespacio de $V$, y se le denota como $W\leqslant V$ si:

i) $W$ contiene al neutro del espacio $V$,
i.e. $\theta_V\in W$

ii) La suma es cerrada en $W,$
i.e. $\forall u,v\in W:$
$u+v\in W$

iii) El producto por escalar es cerrado en $W$,
i.e. $\lambda\in K$, $w\in W:$
$\lambda w\in W$

Veamos una equivalencia a esta definición que nos facilitará demostrar si un subconjunto dado de un espacio vectorial es por sí mismo un espacio vectorial.

Proposición: Sean $V$ un $K$ – espacio vectorial y $W$ un subconjunto de $V$. Se cumple que $W\leqslant V$ si y sólo si $W$ con las operaciones restringidas de $V$ es un $K$ – espacio vectorial.

Demostración: Veamos que se cumplen ambas implicaciones.

$\Longrightarrow )$ Sup. que $W\leqslant V$.
Por ii) y iii) la suma y el producto por escalar son cerrados en $W$, entonces las operaciones restringidas de $V$ dan una suma y un producto por escalar en $W$.
Propiedades $1$, $2$, $5$, $6$, $7.1$ y $7.2$ de espacio vectorial: Como $u+v=v+u$ para cualesquiera $u,v\in V$, en particular $u+v=v+u$ para toda $u,v\in W$. Por lo tanto, la suma en $W$ es conmutativa.
Nota: Decimos en este caso que la conmutatividad de la suma se hereda de $V$.
Análogamente se heredan la asociatividad de la suma en $W$ y las propiedades $5$, $6$, $7.1$ y $7.2$ de espacio vectorial.
Propiedad $4$ de espacio vectorial: Para cada $w\in W$ se cumple que $-w=(-1_K)w\in W$ ya que el producto es cerrado en $W$.
Propiedad $5$ de espacio vectorial: Por hipótesis $\theta_V\in W$ y como es el neutro en $V$, $\theta_V+v=v+\theta_V=v$ para todo $v\in V$, en particular $\theta_V+w=w+\theta_V=w$ para todo $w\in W$, así $\theta_V$ funciona como neutro en $W$.
$\therefore W$ con las operaciones restringidas de $V$ es un $K$ – espacio vectorial.

$\Longleftarrow )$ Sup. que $W$ es un $K$ – espacio vectorial con las operaciones restringidas de $V$.
Entonces la suma y el producto por escalar son cerrados en $W$, es decir, se cumplen ii. y iii.
Además $W$ tiene un neutro, digamos $\theta_W\in W$.
Por un lado $\theta_V+\theta_W=\theta_W$ en $V$, pues $\theta_V$ es neutro en $V$.
Por otro lado $\theta_W+\theta_W=\theta_W$ en $W$, pues $\theta_W$ es neutro en $W$.
Así, $\theta_V+\theta_W=\theta_W+\theta_W$ en $V$ y por cancelación en $V$, $\theta_V=\theta_W$.
De donde $\theta_V\in W$
$\therefore W\leqslant V$ .

Obs. Sean $V$ un $K$ – espacio vectorial, $W$ un subconjunto de $V$. Resulta que
$W\leqslant V$ si y sólo si se cumple que: a) $W\not=\emptyset$ y b) $\forall u,v\in W$ $\forall\lambda\in K(\lambda u+v\in W)$.

La implicación de ida es muy directa y queda como ejercicio. Para justificar el regreso sup. que se cumplen a) y b). Dados $u,v\in W$ se tiene que $u+v=1_Ku+v$ y gracias a b) sabemos que $1_Ku+v\in W$, así se cumple la propiedad ii). Por otro lado, como se cumple a) podemos asegurar que existe $v \in W$, y por la propiedad b) $\theta_V=-v+v=(-1_K)v+v\in W$, por lo que $\theta_V\in W$ y se cumple i). Finalmente dados $u\in W, \lambda \in K$ como $\theta_V\in W$, usando b) se tiene que $\lambda u=\lambda u+\theta_V\in W$ por lo que se cumple la propiedad iii).

Ejemplos:

  • $\{ (x,y,0)|x,y\in\mathbb{R}\}$ es un subespacio de $\mathbb{R}^3.$
  • $\{\begin{pmatrix}a&b\\b&a\end{pmatrix}|a,b\in\mathbb{R}\}$ es un subespacio de $\mathcal{M}_{2\times 2}(\mathbb{R})$.
  • $\mathcal{P}_n(\mathbb{R})$ (el conjunto de polinomios de grado mayor o igual a $n$ con coeficientes en $\mathbb{R}$) es un subespacio de $\mathbb{R}[x]$
  • $\{ f:\mathbb{R}\longrightarrow\mathbb{R}| f$ es continua$\}$ es un subespacio de $\{ f|f:\mathbb{R}\longrightarrow\mathbb{R}\}.$
  • $\{(x,y,z)|x=y=z\in \mathbb{R}\}$ es un subespacio de $\mathbb{R}^3.$

EJEMPLO SISTEMA HOMOGÉNEO

Sean $V=\mathcal{M}{n\times 1}(K)$ y $A\in\mathcal{M}{m\times n}(K)$.
$W={X\in V|AX=0}$$\leqslant V$.

Recordemos que si tenemos el sistema de ecuaciones homogéneo de $m$ ecuaciones con $n$ incógnitas:

\begin{align*}
\begin{matrix}a_{11}x_1 & +a_{12}x_2 & \cdots & +a_{1n}x_n=0\\ a_{21}x_1 & +a_{22}x_2 & \cdots & +a_{2n}x_n=0 \\ \vdots & & \ddots & \vdots \\ a_{m1} x_1& +a_{m2}x_2 & \cdots & +a_{mn}x_n=0, \end{matrix} \end{align*}
entonces su forma matricial es:
\begin{align*}
AX=\begin{pmatrix}a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix} \begin{pmatrix}x_1\\ \vdots\\ x_n\end{pmatrix}
= \begin{pmatrix}0\\ \vdots\\ 0\end{pmatrix} = 0 \end{align*}
Recordemos que estamos usando al $0$ para denotar a la matriz $n\times 1$ con todas sus entradas iguales al cero del campo. Veamos que las soluciones del sistema homogéneo dado por $A$ es un subespacio del espacio vectorial de matrices de $n\times 1$ con entradas en el campo $K$.

DEMOSTRACIÓN

Vamos a ver que $W$ cumple las tres condiciones suficientes y necesarias (por definición) para ser subespacio de $V$:

Sean $X,Y\in W$, $\lambda\in K$.

  1. P.D. $W$ tiene al neutro de $V$
    $i.e.$ $\theta_V\in W.$

Sabemos que $A\theta_V=A0=0$.
$\therefore\theta_V\in W.$

  1. P.D. La suma es cerrada en $W$
    $i.e.$ $X+Y\in W$.

Como $X,Y\in W$, $AX=AY=0$ y por lo tanto, $AX+AY=0+0=0$.
Basta recordar que por distributividad en las matrices $A(X+Y)=AX+AY$ para obtener que $A(X+Y)=0$.
$\therefore X+Y\in W.$

  1. P.D. El producto por escalar es cerrado en $W$
    $i.e.$ $\lambda X\in W$.

Como $X\in W$, $AX=0$ y por lo tanto, $\lambda (AX)=0$.
Basta recordar que por propiedad del producto por escalar en matrices $A(\lambda X)=\lambda(AX)$ para obtener que $A(\lambda X)=0$
$\therefore\lambda X\in W.$

Así, concluimos que $W=\{X\in V|AX=0\}$, donde $A\in\mathcal{M}_{m\times n}(K)$, es un subespacio de $V=\mathcal{M}_{n\times 1}(K)$.

Proposición: La intersección de una familia no vacía de subespacios es un subespacio.

Demostración: Sean $V$ un $K$ – espacio vectorial y $W=\{W_i|i\in I\}$ una familia no vacía de subespacios de $V$.

Sean $V$ un $K$ – espacio vectorial y $W=\{W_i|i\in I\}$ una familia no vacía de subespacios de $V$. Vamos a ver que $W$ cumple las tres condiciones suficientes y necesarias (por definición) para ser subespacio de $V$:

Sean $u,v\in W$, $\lambda\in K$.

  1. P.D. $W$ contiene al neutro de $V$
    $i.e.$ $\theta_V\in W.$

Sabemos que $\forall i\in I(\theta_V\in W_i)$ porque todos los $W_i$ son subespacios de $V$.
$\displaystyle\therefore\theta_V\in\bigcap_{i\in I}W_i.$

  1. P.D. La suma es cerrada en $W$
    $i.e.$ $u+v\in W$.

Dado que $u,v\in W$, $\forall i\in I(u,v\in W_i)$ y como todos los $W_i$ son subespacios de $V$, entonces $\forall i\in I(u+v\in W_i)$.
$\displaystyle\therefore u+v\in\bigcap_{i\in I}W_i.$

  1. P.D. El producto por escalar es cerrado en $W$
    $i.e.$ $\lambda u\in W$.

Dado que $u\in W$, $\forall i\in I(u\in W_i)$ y como todos los $W_i$ son subespacios de $V$, entonces $\forall i\in I(\lambda u\in W_i)$.
$\displaystyle\therefore\lambda u\in\bigcap_{i\in I}W_i.$

Concluimos así que $W\leqslant V.$

Tarea Moral

  1. Dado $V$ un $K$ – espacio vectorial. Sean $W_1, W_2\leqslant V$. Demuestra que si $W_1\bigcup W_2\leqslant V$, entonces $W_1\subseteq W_2$, o bien, $W_2\subseteq W_1$.
    Para lograrlo se te sugiere lo siguiente:
    • Sup. que $W_1 \nsubseteq W_2$.
    • Observamos que para cualesquiera $w_1\in W_1\backslash W_2$ y $w_2\in W_2$, tenemos que $w_1,w_2\in W_1\bigcup W_2$. Y como $W_1\bigcup W_2\leqslant V$, entonces $w_1+w_2\in W_1\bigcup W_2$. Además, gracias a la primera proposición de esta entrada, sabemos que $W_1$ y $W_2$ son $K$ – espacios vectoriales, de modo que los inversos aditivos de $w_1$ y $w_2$ son elementos de $W_1$ y $W_2$ respectivamente.
    • Ahora argumenta por qué $w_1+w_2\notin W_2$ para concluir que $w_1+w_2\in W_1$.
    • Por último argumenta por qué gracias a que $w_1+w_2\in W_1$, obtenemos que $w_2\in W_1$ para concluir que $W_2\subseteq W_1$.
  1. Sean $K=\mathbb{R}$ y $V=\{a+bx+cx^2+dx^3\mid a,b,c,d\in\mathbb{R}\}$.
    Determina si $U=\{p(x)\in V|p(1)=0\}$ y $T=\{p(x)\in V|p'(1)=0\}$ son subespacios de $V$ y encuentra $U\cap T$.

MÁS ADELANTE…

Definiremos y analizaremos un nuevo concepto que dará lugar a un nuevo subespacio muy peculiar y central en el Álgebra Lineal.

Entradas relacionadas

Álgebra Lineal I: Algunas aclaraciones sobre las formas lineales

Por Leonardo Ignacio Martínez Sandoval

Introducción

Uno de los momentos del curso de Álgebra Lineal I en el que se da un brinco de abstracción es cuando se introduce el espacio dual. En ese momento, empiezan a aparecer objetos que tratamos simultáneamente como funciones y como vectores: las formas lineales. De repente puede volverse muy difícil trasladar incluso conceptos muy sencillos (como el de suma vectorial, o el de independencia lineal) a este contexto. En esta entrada intentaremos dejar esto mucho más claro.

Igualdad de funciones

Para hablar del dual de un espacio vectorial $V$ sobre un campo $F$, necesitamos hablar de las funciones $l:V\to F$. Antes de cualquier cosa, debemos de ponernos de acuerdo en algo crucial. ¿Cuándo dos funciones son iguales?

Definición. Dos funciones $f:A\to B$ y $g:C\to D$ son iguales si y sólo si pasan las siguientes tres cosas:

  • $A=C$, es decir, tienen el mismo dominio.
  • $B=D$, es decir, tienen el mismo codominio
  • $f(a)=g(a)$ para todo $a\in A$, es decir, tienen la misma regla de asignación.

Los dos primeros puntos son importantes. El tercer punto es crucial, y justo es lo que nos permitirá trabajar y decir cosas acerca de las funciones. Implica dos cosas:

  • Que si queremos demostrar la igualdad de dos funciones, en parte necesitamos demostrar que se da la igualdad de las evaluaciones para todos los elementos del conjunto.
  • Que si ya nos dan la igualdad de las funciones, entonces nos están dando muchísima información, pues nos están diciendo la igualdad de todas las evaluaciones posibles.

Veamos algunos ejemplos.

Ejemplo 1. Tomemos las funciones $f:\mathbb{R}^2\to \mathbb{R}$ y $g:\mathbb{R}^2\to\mathbb{R}$ con las reglas de asignación $f(x,y)=2x+3y$ y $g(x,y)=6x-y$. ¿Son iguales? Los primeros dos puntos en la definición de igualdad se cumplen, pues tienen el mismo dominio y codominio. Entonces, debemos estudiar si tienen la misma regla de asignación.

Al evaluar en $(1,1)$ obtenemos que $f(1,1)=2+3=5$ y que $g(1,1)=6-1=5$. Al evaluar en $(2,2)$ obtenemos que $f(2,2)=4+6=10$ y que $g(2,2)=12-2=10$. Hasta aquí parecería que todo va bien, pero dos ejemplos no son suficientes para garantizar que $f=g$. Necesitaríamos la igualdad en todos los valores del dominio, es decir, en todas las parejas $(x,y)$.

Al evaluar en $(2,0)$ obtenemos que $f(2,0)=4+0=4$ y que $g(2,0)=12-0=12$. Los valores de las funciones fueron distintos, así que las funciones son distintas.

$\triangle$

Ejemplo 2. Imagina que $A$ y $B$ son dos números tales que las dos funciones $f:\mathbb{R}^2\to \mathbb{R}$ y $g:\mathbb{R}^2\to\mathbb{R}$ con las siguientes reglas de asignación son iguales:

\begin{align*}
f(x,y)&=2x-5y+A\\
g(x,y)&=Bx-5y+3.
\end{align*}

¿Cuáles tendrían que ser los valores de $A$ y $B$? Por supuesto, una exploración «a simple vista» sugiere que tendríamos que poner $B=2$ y $A=3$. Pero, ¿cómo vemos formalmente esto? ¿Cómo nos aseguramos de que sea la única posibilidad? Lo que tenemos que hacer es usar nuestra definición de igualdad de funciones. Para ello, podemos utilizar los valores $(x,y)$ que nosotros queremos pues la igualdad de funciones garantiza la igualdad en todas las evaluaciones. Así, podemos ponernos creativos y proponer $(3,5)$ para obtener que:

\begin{align*}
f(3,5)&=6-25+A=-19+A\\
g(3,5)&=3B-25+3=3B-22.
\end{align*}

Como las funciones son iguales, debe pasar que $f(3,5)=g(3,5)$, por lo que $-19+A=3B-22$. ¿Esto es suficiente para saber quién es $A$ y $B$? Todavía no, aún hay muchas posibilidades. Propongamos entonces otro valor de $(x,y)$ para evaluar. Veamos qué sucede con $(-2,1)$. Obtenemos:

\begin{align*}
f(-2,1)&=-4-5+A=-9+A\\
g(-2,1)&=-2B-5+3=-2B-2.
\end{align*}

Ahora tenemos más información de $A$ y $B$. Sabemos que $-9+A=-2B-2$. Reordenando ambas cosas que hemos obtenido hasta ahora, tenemos el siguiente sistema de ecuaciones:

\begin{align*}
A-3B=-3\\
A+2B=7.
\end{align*}

Restando la primera de la segunda obtenemos $5B=10$, de donde $B=2$. Sustituyendo en la segunda obtenemos $A+4=7$, de donde $A=3$, justo como queríamos.

$\triangle$

En el ejemplo anterior pudimos haber sido más astutos y evitarnos el sistema de ecuaciones. Recordemos que la igualdad $f(x,y)=g(x,y)$ se tiene para todas todas las parejas $(x,y)$, así que nos conviene usar parejas que 1) Sean sencillas de usar y 2) Nos den suficiente información.

Ejemplo 3. En el ejemplo anterior hicimos un par de sustituciones que finalmente sí nos llevaron a los valores que queríamos. Pero hay «mejores» sustituciones. Si hubiéramos usado la pareja $(0,0)$ obtendríamos inmediatemente $A$ pues: $$A=0-0+A=f(0,0)=g(0,0)=0-0+3=3,$$ de donde $A=3$. Ya sabiendo $A$, pudimos usar la pareja $(1,0)$ para obtener $$B+3=B-0+3=g(1,0)=2-0+3=5.$$ De aquí se obtiene nuevamente $B=2$.

$\triangle$

Veamos un último ejemplo, en el que es imposible encontrar un valor fijo que haga que dos funciones que nos dan sean iguales.

Ejemplo 4. Veamos que es imposible encontrar un número real $A$ para el cual las dos funciones $f:\mathbb{R}^2\to\mathbb{R}$ y $g:\mathbb{R}^2\to \mathbb{R}$ con las siguientes reglas de asignación sean iguales:

\begin{align*}
f(x,y)&=x^2+Ay^2\\
g(x,y)&=Axy.
\end{align*}

Imaginemos, de momento, que esto sí es posible. Entonces, tendríamos la igualdad de funciones y por lo tanto tendríamos la igualdad para todas las evaluaciones. Evaluando en $(1,0)$ obtendríamos que $$0=A\cdot 1 \cdot 0 = g(1,0)=f(1,0)=1^2+A\cdot 0^2=1.$$ Esto nos lleva a la contradicción $0=1$, lo cual muestra que ningún valor de $A$ podría funcionar.

$\triangle$

La forma lineal cero

Otra noción básica, pero que es importante de entender, es la noción de la forma lineal cero.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Sea $0$ el neutro aditivo del campo $F$. La forma lineal cero es la función $L_0:V\to F$ que manda a cualquier vector $v$ de $V$ a $0$, es decir, cuya regla de asignación es $L_0(v)=0$ para todo $v$ en $V$.

En álgebra lineal rápidamente nos queremos deshacer de notación estorbosa, pues muchas cosas son claras a partir del contexto. Pero esto tiene el problema de introducir ambigüedades que pueden ser confusas para alguien que apenas está comenzando a estudiar la materia. Lo que prácticamente siempre se hace es que a la forma lineal cero le llamamos simplemente $0$, y dejamos que el contexto nos diga si nos estamos refiriendo al neutro aditivo de $F$, o a la forma lineal cero $L_0$.

En esta entrada intentaremos apegarnos a llamar a la forma lineal cero siempre como $L_0$, pero toma en cuenta que muy probablemente más adelante te la encuentres simplemente como un $0$. Combinemos esta noción con la de igualdad.

Ejemplo. ¿Cómo tienen que ser los valores de $A$, $B$ y $C$ para que la función $l:\mathbb{R}^3\to \mathbb{R}$ con la siguiente regla de asignación sea igual a la forma lineal cero $L_0$? $$f(x,y,z)=(A+1)x+(B+C)y+(A-C)z$$

Debemos aprovechar la definición de igualdad de funciones: sabemos que la igualdad se da para las ternas que nosotros queramos. Evaluando en $(1,0,0)$ obtenemos $$A+1 = f(1,0,0)=L_0(1,0,0)=0.$$

Aquí a la derecha estamos usando que la forma lineal cero siempre es igual a cero. De manera similar, evaluando en $(0,1,0)$ y $(0,0,1)$ respectivamente obtenemos que \begin{align*}B+C&=f(0,1,0)=L_0(0,0,0)=0\\A-C&=f(0,0,1)=L_0(0,0,0)=0.\end{align*}

Ya tenemos información suficiente para encontrar $A$, $B$ y $C$. De la primer ecuación que obtuvimos, se tiene $A=-1$. De la tercera se tiene $C=A=-1$ y de la segunda se tiene $B=-C=1$.

Pero, ¡momento! Estos valores de $A$, $B$, $C$ funcionan para las tres ternas que dimos. ¿Funcionarán para cualquier otra terna? Si elegimos $A=-1$, $B=1$ y $C=-1$ entonces tendríamos $$f(x,y,z)=0\cdot x + 0\cdot y + 0\cdot z.$$ En efecto, sin importar qué valores de $(x,y,z)$ pongamos, la expresión anterior dará cero. Así, se daría la igualdad de reglas de correspondencia entre $f$ y $L_0$ y como tienen el mismo dominio y codominio concluiríamos que $f=L_0$.

$\triangle$

Suma y producto escalar de formas lineales

Otro aspecto que puede causar confusión es la suma de funciones y el producto escalar. En la duda, siempre hay que regresar a la definición. Enunciaremos los conceptos para formas lineales. Pero en realidad podemos definir la suma de funciones de manera similar siempre que el codominio sea un lugar en donde «se puede sumar». Similarmente, podríamos definir el producto escalar de un elemento con una función siempre que sepamos cómo multiplicar a ese elemento con cada elemento del codominio.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Sean $l:V\to F$ y $m:V\to F$ formas lineales. Definimos la suma de $l$ con $m$, a la cual denotaremos por $l+m$, como la función $l+m:V\to F$ con la siguiente regla de asignación:$$(l+m)(v)=l(v)+m(v),$$ para cualquier $v$ en $V$.

De nuevo nos estamos enfrentando a un posible problema de ambigüedad de símbolos: por un lado estamos usando $+$ para referirnos a la suma en el campo $F$ y por otro lado para referirnos a la suma de funciones que acabamos de definir.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$. Sea $l:V\to F$ una forma lineal y sea $r$ un elemento de $F$. Definimos el producto escalar de $r$ con $F$, al cual denotaremos por $r\cdot l$ como la función $r\cdot l:V\to F$ con la siguiente regla de asignación:$$(r\cdot l)(v)=r\cdot (l(v))$$ para cualquier $v$ en $V$.

Así, estamos usando tanto la suma en $F$ como el producto en $F$ para definir una nueva suma de funciones y un nuevo producto entre un real y una función. En el caso del producto escalar, como con muchos otros productos, usualmente quitamos el punto central y ponemos $rl$ en vez de $r\cdot l$.

Ejemplo. Tomemos las funciones $f:\mathbb{R}^3\to \mathbb{R}$ y $g:\mathbb{R}^3\to \mathbb{R}$ con las siguientes reglas de asignación:

\begin{align*}
f(x,y,z)&=2x-y+z\\
g(x,y,z)&=3x+y-5z.
\end{align*}

Mostraremos que la función $3f+(-2)g$ es igual a la función $h:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $h(x,y,z)=-5y+13z$. Lo haremos con todo el detalle posible. Primero, notamos que las dos funciones tienen dominio $\mathbb{R}^3$ y codominio $\mathbb{R}$ así que nos podemos enfocar en la regla de asignación. Debemos ver que ambas coinciden para todas las ternas $(x,y,z)$ en $\mathbb{R}^3$. Tomemos entonces una de estas ternas $(x,y,z)$.

Por definición de producto escalar de funciones, tenemos que $$(3f)(x,y,z)=3(f(x,y,z))=3(2x-y+z)=6x-3y+3z.$$. Aquí estamos usando la distributividad en los reales. Por definición de producto escalar de funciones, tenemos que $$ ((-2)g)(x,y,z)=(-2)(g(x,y,z))=(-2)(3x+y-5z)=-6x-2y+10z.$$ Una vez más estamos usando distributividad. Luego, por definición de suma de funciones obtenemos que

\begin{align*}
(3f+(-2)g)(x,y,z)&=(3f)(x,y,z)+(-2g)(x,y,z)\\
&= (6x-3y+3z)+(-6x-2y+10z)\\
& = -5y+13z\\
&= h(x,y,z).
\end{align*}

$\square$

Usualmente tomamos atajos para seguir simplificando la notación. Por ello, típicamente a veces vemos escrito todo lo anterior simplemente como: $$3(2x-y+z)-2(2x+y-5z)=-5y+13z.$$ De hecho esto es muy práctico, pues se puede mostrar que las funciones «sí podemos operarlas como si fueran expresiones en $x$, $y$, $z$ y usáramos las reglas usuales». Así, podemos «trabajar simbólicamente» y concluir rápidamente que $$(x+y)+(3x+2z)-3(x+y-z)$$ en verdad tiene la misma regla de asignación que $-2y+5z$.

Ahora sí, ¿quién es el espacio dual?

Si tenemos un espacio vectorial $V$ sobre un campo $F$ podemos construirnos otro espacio vectorial con otro conjunto base y otras operaciones que no son las del espacio original. Una forma de hacer esto es construir el espacio dual, al que llamaremos $V^\ast$. Los elementos de $V^\ast$ son las formas lineales de $V$, es decir, funciones lineales con dominio $V$ y codominio $F$. Debemos acostumbrarnos a pensar simultáneamente a un elemento de $V^\ast$ tanto como un vector (de $V^\ast$) como una función (de $V$ a $F$).

Para verdaderamente pensar a $V^\ast$ como un espacio vectorial, debemos establecer algunas cosas especiales:

  • La suma vectorial de $V^\ast$ será la suma de funciones que platicamos en la sección anterior.
  • El producto escalar vectorial de $V^\ast$ será el producto escalar que platicamos en la sección anterior.
  • El neutro aditivo vectorial de $V^\ast$ será la forma lineal $L_0$, y se puede verificar que en efecto $l+L_0=l$ para cualquier forma lineal $l$.

Por supuesto, típicamente a la suma vectorial le llamaremos simplemente «suma» y al producto escalar vectorial simplemente «producto escalar». Aquí estamos haciendo énfasis en lo de «vectorial» sólo para darnos cuenta de que nuestras operaciones de funciones se transformaron en operaciones para el espacio vectorial que estamos definiendo.

El espacio dual cumple muchas propiedades bonitas, pero ahorita no nos enfocaremos en enunciarlas y demostrarlas. Esto se puede encontrar en la página del curso de Álgebra Lineal I en el blog. Lo que sí haremos es irnos a los básicos y entender cómo se verían algunas definiciones básicas de álgebra lineal en términos de lo que hemos discutido hasta ahora.

Combinaciones lineales de formas lineales

Para hablar de las nociones de álgebra lineal para formas lineales, hay que pensarlas como vectores y como funciones. ¿Qué sería una combinación lineal de las formas lineales $l_1,\ldots,l_r$ del espacio vectorial, digamos, $\mathbb{R}^n$. Debemos tomar elementos $\alpha_1,\ldots,\alpha_r$ en $\mathbb{R}$ y construir la función $\ell=\alpha_1l_1+\ldots+\alpha_rl_r$. Aquí estamos usando la suma vectorial y el producto escalar vectorial que quedamos que serían la suma como funciones y el producto escalar como funciones. Así, obtenemos un elemento $\ell$ que por un lado es un vector del espacio dual, y por otro es una función $\ell:\mathbb{R}^n\to \mathbb{R}$. ¿Cuál es la regla de asignación? Es precisamente la dada por las definiciones de suma y producto escalar para funciones. Para ser muy precisos, se puede mostrar inductivamente que su regla de asignación es:

\begin{align*}
(\alpha_1l_1+&\ldots+\alpha_rl_r)(x_1,\ldots,x_n)=\\
&\alpha_1(l_1(x_1,\ldots,x_n))+\ldots+\alpha_r(l_r(x_1,\ldots,x_n)).
\end{align*}

Entendiendo esto, ahora sí podemos preguntarnos si una forma lineal es combinación lineal de otras.

Ejemplo. La forma lineal $h:\mathbb{R}^2\to\mathbb{R}$ con regla de asignación $h(x,y)=2x-y$ es combinación lineal de las formas lineales $f(x,y):\mathbb{R}^2\to\mathbb{R}$ y $g(x,y):\mathbb{R}^2\to\mathbb{R}$ con reglas de asignación

\begin{align*}
f(x,y)&=x+y\\
g(x,y)&=x-y.
\end{align*}

En efecto, tenemos que es igual a la combinación lineal $\frac{1}{2}f + \frac{3}{2} g$, pues su regla de asignación es:

$$\left(\frac{1}{2}f + \frac{3}{2} g\right)(x,y)=\left(\frac{x+y}{2}\right)+\left(\frac{3x-3y}{2}\right)=2x-y,$$

que es justo la regla de asignación de $h$. Así, $h=\frac{1}{2}f+\frac{3}{2}g$.

$\triangle$

Independencia lineal de formas lineales

Veamos un ejemplo más de cómo entender nociones de álgebra lineal cuando hablamos de formas lineales (o funciones en general). ¿Cómo sería el concepto de independencia lineal para formas lineales $l_1,\ldots,l_r$? A partir de una combinación lineal de ellas igualada a la forma lineal cero $L_0$, debemos mostrar que todos los coeficientes son iguales a cero. Es decir, a partir de $$\alpha_1l_1+\ldots+\alpha_rl_r=L_0,$$ debemos mostrar que $\alpha_1=\ldots=\alpha_r=0.$$ Usualmente el truco en estas situaciones es que ya nos están dando una igualdad de funciones. Entonces, podemos evaluar en los valores que nosotros queramos de ambos lados de la igualdad pues funciones iguales tienen todas sus evaluaciones iguales. Esto se parece a los ejemplos de la sección de igualdad de funciones.

Ejemplo. Vamos a demostrar que las formas lineales de $\mathbb{R}^4$ dadas por $f(w,x,y,z)=4w+2x+z$, $g(w,x,y,z)=4w+2z+y$, $h(w,x,y,z)=4w+2y+x$, $k(w,x,y,z)=w+x+y+z$ son linealmente independientes. Tomemos una combinación lineal de ellas igualda a cero (¡recordemos que en este espacio vectorial el cero es la forma lineal $L_0$!):

$$Af+Bg+Ch+Dk=L_0.$$

Debemos demostrar que $A=B=C=D=0$. ¿Cómo hacemos esto? Lo que haremos es evaluar: pondremos valores convenientes de $(w,x,y,z)$ en la igualdad anterior para obtener información de $A$, $B$, $C$, $D$. Poniendo $(1,0,0,0)$ obtenemos que:

\begin{align*}
0&=L_0(1,0,0,0)\\
&= (Af+Bg+Ch+Dk)\\
&=Af(1,0,0,0)+ Bg(1,0,0,0) +Ch(1,0,0,0) +Dk(1,0,0,0) \\
&=4A + 4B + 4C + D.
\end{align*}

Así, $4A+4B+4C+D=0$. Usando esta ecuación y las evaluaciones $(0,1,0,0)$, $(0,0,1,0)$ y $(0,0,0,1)$, obtenemos todo lo siguiente:

\begin{align*}
4A+4B+4C+D&=0\\
2A+C+D&=0\\
B+2C+D&=0\\
A+2B+D&=0.
\end{align*}

De aquí se puede mostrar (como puedes verificar como ejercicio) que la única solución posible es $A=B=C=D=0$. De este modo, las formas lineales $f,g,h,k$ son linealmente independientes.

$\square$

Más adelante

Esta es más una entrada auxiliar que una entrada que forma parte del flujo de la teoría principal. Sin embargo, espero que te haya servido para dejar más claros los conceptos de cuándo tenemos formas lineales iguales, cómo se operan, cuándo varias formas lineales son linealmente independientes, etc.

Tarea moral…

  1. Verifica que para cualquier forma lineal $l:\mathbb{R}^n\to \mathbb{R}$ y la forma lineal cero $L_0:\mathbb{R}^n\to\mathbb{R}$ en efecto se tiene que $l+L_0=l$. Usa las definiciones de la forma lineal cero, de la igualdad de funciones y de la suma de funciones.
  2. Verifica que $V^\ast$ con las operaciones de suma, producto escalar y el neutro aditivo que dimos en efecto es un espacio vectorial. ¿Cómo tendrían que ser los inversos aditivos?
  3. Considera las formas lineales $f:\mathbb{R}^3\to \mathbb{R}$ y $g:\mathbb{R}^3 \to \mathbb{R}$ dadas por $f(x,y,z)=x+3y+z$ y $g(x,y,z)=-x+5y-z$.
    1. Demuestra que es imposible encontrar reales $A$ y $B$ ambos distintos de cero tales que $Af+Bg$ sea la forma lineal cero.
    2. Encuentra reales $A$ y $B$ tales que $Af+Bg$ sea la forma lineal $h:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $h(x,y,z) = -x + 21 – z$.
    3. Demuestra que es imposible encontrar reales $A$ y $B$ tales que $Af+Bg$ sea la forma lineal $j:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $j(x,y,z)= -2x + 4y -3z$.
    4. ¿Será posible encontrar reales $A$ y $B$ tales que $Af+Bg$ sea la forma lineal $k:\mathbb{R}^3\to \mathbb{R}$ con regla de asignación $k(x,y,z)=5x+5y+5z$?
  4. Para cada uno de los siguientes casos, determina si las formas lineales son linealmente independientes:
    1. $f(x,y)=5x+3y$, $g(x,y)=x-3y$.
    2. $f(x,y,z)=5x+2y-z$, $g(x,y,z)=z$, $h(x,y,z)=x-y-z$.
    3. $f(w,x,y,z)=w+y$, $g(w,x,y,z)=3x-2z$, $h(w,x,y,z)=x+y+z$, $k=(w,x,y,z)=w+2x-3z$.
  5. Considera el espacio vectorial de polinomios con coeficientes reales $\mathbb{R}[x]$. Considera la función $\text{ev}_k:\mathbb{R}[x]\to \mathbb{R}$ que a cada polinomio lo manda a su evaluación en $k$, es decir, con regla de asignación $\text{ev}_k(p)=p(k)$.
    1. Demuestra que cualquier $\text{ev}_k$ es una forma lineal.
    2. Sean $k_1,\ldots,k_r$ reales distintos. Muestra que $\text{ev}_{k_1},\ldots,\text{ev}_{k_r}$ son formas lineales linealmente independientes.

Entradas relacionadas

Álgebra Lineal II: Matrices y transformaciones nilpotentes

Por Elizabeth Chalnique Ríos Alvarado

Introducción

Hemos estudiado varias clases importantes de matrices y transformaciones lineales: diagonales, triangulares superiores, simétricas, ortogonales, normales, etc. Es momento de aprender sobre otro tipo fundamental de matrices y transformaciones lineales: las transformaciones nilpotentes. Nos hemos encontrado con estas matrices ocasionalmente a lo largo del primer curso de álgebra lineal y de éste. Ahora las trataremos de manera más sistemática.

Matrices y transformaciones nilpotentes

En la última unidad estuvimos trabajando únicamente en $\mathbb{R}$ o en $\mathbb{C}$. Los resultados que presentaremos a continuación son válidos para espacios vectoriales sobre cualquier campo $F$.

Definición. Sea $A$ una matriz en $M_n(F)$. Diremos que $A$ es nilpotente si $A^m = O_n$ para algún entero positivo $m$. Al menor entero positivo $m$ para el cual suceda esto le llamamos el índice de $A$.

Ejemplo 1. La matriz $A=\begin{pmatrix} 3 & -9\\ 1 & -3\end{pmatrix}$ es nilpotente. En efecto, tenemos que $A^2=\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$. Como $A^1\neq 0$, entonces el índice de $A$ es igual a dos.

$\triangle$

Tenemos una definición correspondiente para transformaciones lineales.

Definición. Sea $V$ un espacio vectorial sobre un campo $F$ y sea $T: V \to V$ una transformación lineal. Diremos que que $T$ es nilpotente si $T^m$ es la transformación lineal cero para algún entero positivo $m$. Al menor entero positivo $m$ para el cual suceda esto le llamamos el índice de $T$.

Recuerda que por definición $T^m$ es la transformación $T$ compuesta consigo misma $m$ veces.

Ejemplo 2. Si estamos trabajando en el espacio $V=\mathbb{R}_n[x]$ de polinomios reales de grado a lo más $n$, entonces la transformación derivada $D:V\to V$ para la cual $D(p)=p’$ es una transformación lineal nilpotente. En efecto, tras aplicarla $n+1$ veces a cualquier polinomio de grado a lo más $n$ obtenemos al polinomio $0$. Su índice es exactamente $n+1$ pues derivar $n$ veces no anula al polinomio $x^n$ de $V$.

Si estuviéramos trabajando en el espacio vectorial $\mathbb{R}[x]$ de todos los polinomios reales, entonces la transformación derivada ya no sería nilpotente. En efecto, para cualquier $m$ siempre existe un polinomio tal que al derivarlo $m$ veces no se anula.

$\triangle$

Bloques de Jordan de eigenvalor cero

Hay una familia importante de matrices nilpotentes.

Definición. Sea $F$ un campo. El bloque de Jordan de eigenvalor $0$ y tamaño $k$ es la matriz $J_{0,k}$ en $M_k(F)$ cuyas entradas son todas cero, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, $J_{0,k}=[a_{ij}]$ con $$a_{ij}=\begin{cases} 1 & \text{si $j=i+1$}\\ 0 & \text{en otro caso.} \end{cases}$$

También podemos expresarlo de la siguiente manera:

$$J_{0,k}=\begin{pmatrix} 0 & 1 & 0 & \cdots & 0 & 0 \\ 0 & 0 & 1 & \cdots & 0 & 0 \\ 0 & 0 & 0 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \cdots & 0 & 1 \\ 0 & 0 & 0 & \cdots & 0 & 0 \end{pmatrix},$$ en donde estamos pensando que la matriz es de $k\times k$.

Ejemplo 3. A continuación tenemos la matriz $J_{0,4}$:

\begin{align*}
J_{0,4}=\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

Esta es una matriz nilpotente. En efecto, haciendo las cuentas de matrices correspondientes tenemos que:

\begin{align*}
J_{0,4}^2&= \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix} \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix}\\
&=\begin{pmatrix} 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

Luego que

\begin{align*}
J_{0,4} ^3&= J_{0,4} J_{0,4}^2\\
&=\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix} \begin{pmatrix} 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix} \\
&=\begin{pmatrix} 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

Y finalmente que

\begin{align*}
J_{0,4}^4&= J_{0,4} J_{0,4}^3\\
&=\begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0\end{pmatrix} \begin{pmatrix} 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix} \\
&=\begin{pmatrix} 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0\end{pmatrix}
\end{align*}

De esta manera, hay una potencia de $ J_{0,4}$ que se hace igual a cero. Como la mínima potencia es $4$, entonces $ J_{0,4} $ es nilpotente de índice $4$. Observa cómo la diagonal de unos «se va recorriendo hacia arriba a la derecha».

$\triangle$

Todos los bloques de Jordan son nilpotentes

El siguiente resultado generaliza el ejemplo anterior y nos da una mejor demostración, interpretando a la matriz como transformación lineal.

Teorema. La matriz $J_{0,k}$ es nilpotente de índice $k$.

Demostración. Veamos qué hace la matriz $J_{0,k}$ cuando la multiplicamos por un vector: $$J_{0,k}\begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_{k-1} \\ x_k \end{pmatrix}= \begin{pmatrix} 0 & 1 & 0 & \cdots & 0 & 0 \\ 0 & 0 & 1 & \cdots & 0 & 0 \\ 0 & 0 & 0 & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \cdots & 0 & 1 \\ 0 & 0 & 0 & \cdots & 0 & 0 \end{pmatrix} \begin{pmatrix} x_1 \\ x_2 \\ x_3 \\ \vdots \\ x_{k-1} \\ x_k \end{pmatrix} = \begin{pmatrix} x_2 \\ x_3 \\ x_4 \\ \vdots \\ x_k \\ 0 \end{pmatrix}.$$

En otras palabras, la matriz $J_{0,k}$ «recorre» las entradas del vector hacia arriba «empujando» con ceros desde abajo. Al hacer esto $k$ veces, claramente llegamos al vector $0$, así, $J_{0,k}^k$ está asociada a la transformación lineal cero y por lo tanto es la matriz $O_k$. Y $J_{0,k}^{k-1}$ no es la matriz cero pues al aplicarla en $e_k$, el $k$-ésimo vector de la base canónica de $F^k$ tenemos por las mismas ideas de arriba que $J_{0,k}^{k-1}e_n=e_1$.

$\square$

Una caracterización de matrices y transformaciones nilpotentes

El siguiente resultado nos da algunas equivalencias para que una transformación sea nilpotente.

Proposición. Sea $A\in M_n(F)$ una matriz. Todo lo siguiente es equivalente:

  1. $A$ es nilpotente.
  2. El polinomio mínimo de $A$ es de la forma $\mu_A(X)=X^k$.
  3. El polinomio característico de $A$ es $\chi_A(X)=X^n$.

Demostración. $1)\Rightarrow 2).$ Si $A$ es nilpotente, entonces hay un entero $m$ tal que $A^m=O_n$. Entonces, el polinomio $p(X)=X^m$ anula a la matriz $A$. Pero el polinomio mínimo divide a cualquier polinomio que anule a $A$, entonces $\mu_A(X)|X^m$, de donde $\mu_A(X)$ debe ser también de la forma $X^k$. De hecho, no puede suceder que $k<m$ pues en dicho caso como el polinomio mínimo anula a la matriz, tendríamos que $A^k=O_n$, pero esto es imposible pues $m$ es el menor entero tal que $A^m=O_n$. Así, en este caso $k$ es justo el índice de $A$.

$2) \Rightarrow 3).$ Supongamos que el polinomio mínimo de $A$ es de la forma $\mu_A(X)=X^k$. Como el polinomio mínimo anula a la matriz tenemos que $A^k=O_n$. Tomemos un escalar $\lambda$ en $F$ fijo. Tenemos que:

\begin{align*}
\lambda^k I_n &= \lambda^k I_n – A^{k}\\&= (\lambda I_n – A)(\lambda^{k-1}I_n+\lambda^{k-2}A + \ldots + \lambda A^{k-2} + A^{k-1})
\end{align*}

Al tomar determinante de ambos lados y usando en la derecha la multiplicatividad del determinante, tenemos:

$$\det(\lambda^k I_n) = \det(\lambda I_n – A)\det(\lambda^{k-1}I_n+\lambda^{k-2}A + \ldots + \lambda A^{k-2} + A^{k-1}).$$

Del lado izquierdo tenemos $\det(\lambda^k I_n)=\lambda^{nk}$. Del lado derecho tenemos $\chi_A(\lambda)$ multiplicado por otra expresión polinomial en $\lambda$, digamos $P(\lambda)$. Como esto se vale para todo escalar $\lambda$, se vale polinomialmente que $X^{nk}=\chi_A(X)P(X)$. Así, $\chi_A(X)|X^{nk}$ y como el polinomio característico es de grado exactamente $n$, obtenemos que $\chi_A(X)=X^n$.

$3) \Rightarrow 1).$ Si el polinomio característico de $A$ es $\chi_A(X)=X^n$, entonces por el teorema de Cayley-Hamilton tenemos que $A^n=O_n$, de donde $A$ es nilpotente.

$\square$

Como consecuencia del teorema anterior, obtenemos los siguientes resultados.

Corolario. Si $A$ es una matriz nilpotente en $M_n(F)$, entonces $A^n=O_n$ y por lo tanto el índice de $A$ es menor o igual a $n$. Análogamente, si $T:V\to V$ es nilpotente y $\dim(V)=n$, entonces el índice de $T$ es menor o igual a $n$.

Corolario. Si $A$ es una matriz nilpotente en $M_n(F)$, entonces su traza, su determinante y cualquier eigenvalor son todos iguales a cero.

Más adelante…

En esta entrada definimos a las matrices y transformaciones nilpotentes. También enunciamos algunas de sus propiedades. En la siguiente entrada enunciaremos nuestra primer versión del teorema de Jordan, en donde nos enfocaremos únicamente en lo que nos dice para las matrices nilpotentes. Esto servirá más adelante como uno de los peldaños que usaremos para demostrar el teorema de Jordan en general.

Tarea moral

A continuación hay algunos ejercicios para que practiques los conceptos vistos en esta entrada. Te será de mucha utilidad intentarlos para entender más la teoría vista.

  1. Encuentra una matriz nilpotente de índice $2$ en $M_7(\mathbb{R})$. En general, para cualquier entero positivo $n$ y cualquier entero $k$ con $1\leq k \leq n$, da una forma de construir una matriz nilpotente de índice $n$ en $M_n(\mathbb{R})$.
  2. Encuentra una matriz con determinante cero y que no sea una matriz nilpotente. Encuentra una matriz con traza cero y que no sea una matriz nilpotente.
  3. Sea $V$ un espacio vectorial de dimensión finita $n$. Demuestra que las siguientes afirmaciones son equivalentes:
    1. Una transformación $T:V\to V$ es nilpotente de índice $k$.
    2. Alguna forma matricial de $T$ es nilpotente de índice $k$.
    3. Todas las formas matriciales de $T$ son nilpotentes de índice $k$.
    4. $T^n$ es la transformación lineal $0$.
  4. Demuestra los dos corolarios al final de la entrada. Como sugerencia para el segundo, recuerda que la traza, determinante y los eigenvalores de una matriz están muy relacionados con su polinomio característico.
  5. Prueba que la única matriz nilpotente diagonalizable en $M_n(F)$ es $O_n$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal II: Unicidad de la forma de Jordan para nilpotentes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En la entrada anterior enunciamos el teorema de la forma canónica de Jordan para matrices nilpotentes. Demostramos una parte: la existencia de la forma canónica de Jordan. Para ello, nos enfocamos en el teorema en su versión en términos de transformaciones lineales. En esta entrada nos enfocaremos en demostrar la unicidad de la forma canónica de Jordan. Curiosamente, en este caso será un poco más cómodo trabajar con la forma matricial del teorema. Para recordar lo que queremos probar, volvemos a poner el enunciado del teorema a continuación. Lo que buscamos es ver que los enteros $k_1,\ldots, k_d$ que menciona el teorema son únicos.

Teorema. Sea $A$ una matriz nilpotente en $M_n(F)$. Entonces existen únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} y para los cuales $A$ es similar a la siguiente matriz de bloques: $$\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

Nuestra estrategia para mostrar la unicidad será el estudio del rango de las potencias de $A$. Si $A$ es similar una matriz en forma canónica $J$, entonces existe $P$ invertible tal que $A=P^{-1}JP$, de donde se puede mostrar indutivamente que $A^k=P^{-1}J^kP$, mostrando que $A^k$ y $J^k$ son similares. Además, sabemos por teoría anterior que matrices similares tienen el mismo rango. De modo que si $A$ es similar a $J$ entonces todas las potencias de $A$ tienen el mismo rango que todas las potencias de $J$. Con esta idea en mente estudiaremos cómo es el rango de matrices de bloques de Jordan de eigenvalor cero.

Rango de potencias de bloques de Jordan

Claramente el rango del bloque de Jordan $J_{0,n}$ es $n-1$, pues ya está en forma escalonada reducida y tiene $n-1$ vectores distintos de cero. El siguiente resultado generaliza esta observación.

Proposición. Sea $n$ un entero positivo, $F$ un campo y $J_{0,n}$ el bloque de Jordan de eigenvalor $0$ y tamaño $n$ en $M_n(F)$. Para $k=1,\ldots,n$ se tiene que el rango de $J_{0,n}^k$ es igual a $n-k$. Para valores de $k$ más grandes, el rango es igual a cero.

Demostración. Si $e_1,\ldots,e_n$ es la base canónica de $F^n$, tenemos que $J_{0,n}e_i=e_{i-1}$ para $i=2,\ldots,n$ y $J_{0,n}e_1=0$. De manera intuitiva, la multiplicación matricial por $J_{0,n}$ va «desplazando los elementos de la base $e_1,\ldots,e_n$ a la izquierda, hasta sacarlos». De este modo, $J_{0,n}^k$ para $k=1,\ldots,n$ hace lo siguiente:

$$J_{0,n}^k e_i=\begin{cases} 0 & \text{para $k\geq i$}\\ e_{i-k} & \text{para $k\leq i-1$.}\end{cases}$$

Así, $J_{0,n}^k$ manda a la base $e_1,\ldots,e_n$ a los vectores $e_1,\ldots,e_{n-k}$ y a $k$ copias del vector cero. Como los primeros son $n-k$ vectores linealmente independientes, obtenemos que el rango de $J_{0,n}^k$ es $n-k$.

Para valores de $k$ más grandes la potencia se hace la matriz cero, así que su rango es cero.

$\square$

Rango de potencias de matrices de bloques de Jordan

¿Qué sucede si ahora estudiamos el rango de las potencias de una matriz de bloques de Jordan? Consideremos, por ejemplo, la siguiente matriz, en donde $k_1,\ldots,k_d$ son enteros positivos de suma $n$ y con $k_1\leq \ldots \leq k_d$:

$$J=\begin{pmatrix} J_{0,k_1} & 0 & \cdots & 0 \\ 0 & J_{0,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}\end{pmatrix}.$$

Por un lado, es sencillo elevar esta matriz a potencias, pues simplemente los bloques se elevan a las potencias correspondientes. En símbolos:

$$J^r=\begin{pmatrix} J_{0,k_1}^r& 0 & \cdots & 0 \\ 0 & J_{0,k_2}^r& \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{0,k_d}^r\end{pmatrix}.$$

¿Cuál es el rango de esta potencia? Nos conviene cambiar un poco de notación. En vez de considerar a los $k_i$ por separado, los agruparemos de acuerdo a su valor, que puede ir de $1$ a $n$. Así, para cada $j=1,\ldots,n$ definimos $m_j$ como la cantidad de valores $k_i$ iguales a $j$. Bajo esta notación, la igualdad $k_1+\ldots+k_d=n$ se puede reescribir como $$m_1+2m_2+3m_3+\ldots+nm_n=n.$$

Una primera observación es que el rango de $J$ es simplemente la suma de los rangos de cada una de las $J_{0,k_i}$. Cada una de éstas contribuye con rango $k_i-1$. Así, en términos de las $m_j$ tenemos lo siguiente:

\begin{align*}
\text{rango}(J)&=\sum_{i=1}^d (k_i-1)\\
&=\sum_{j=1}^n (j-1) m_j \\
&=0\cdot m_1 + 1\cdot m_2 + 2 \cdot m_3 + \ldots + (n-1) \cdot m_n.
\end{align*}

De manera similar,

\begin{align*}
\text{rango}(J^r)&=\sum_{i=1}^d \text{rango}(J_{0,k_i}^r)\\
&=\sum_{j=1}^n m_j \text{rango}(J_{0,j}^r).
\end{align*}

El término $\text{rango}(J_{0,j}^r)$ lo podemos calcular con la proposición de la sección anterior, cuidando la restricción entre el tamaño y las potencias que queremos. De aquí y de la restricción original para la las $m_j$ salen todas las siguientes igualdades:

\begin{align*}
n&= 1\cdot m_1 + 2\cdot m_2 + 3 \cdot m_3 + \ldots + n \cdot m_n\\
\text{rango}(J)&=0\cdot m_1 + 1\cdot m_2 + 2 \cdot m_3 + \ldots + (n-1) \cdot m_n\\
\text{rango}(J^2)&= 0 \cdot m_1 + 0 \cdot m_2 + 1 \cdot m_3 + \ldots + (n-2)\cdot m_n\\
\text{rango}(J^3)&= 0 \cdot m_1 + 0 \cdot m_2 + 0 \cdot m_3 + \ldots + (n-3)\cdot m_n\\
&\vdots\\
\text{rango}(J^{n-1})&= 0\cdot m_1 + 0 \cdot m_2 + 0 \cdot m_3 + \ldots + 1 \cdot m_n.
\end{align*}

A partir de aquí el rango de $J^n$ es $0$. Esto nos da una manera de entender con mucha precisión el rango de cualquier potencia de una matriz diagonal por bloques hecha con bloques de Jordan.

Unicidad de la forma canónica de Jordan

Estamos listos para justificar la unicidad de la forma canónica de Jordan. Una matriz diagonal por bloques hecha por bloques de Jordan queda totalmente determinada por los valores de $m_j$ de la sección anterior. Supongamos que $A$ tiene como forma canónica de Jordan tanto a una matriz $J$ con valores $m_j$, como a otra matriz $J’$ con valores $m_j’$.

Como dos matrices similares cumplen que sus potencias son todas del mismo rango, entonces para cualquier $r$ de $1$ a $n-1$ se cumple que $$\text{rango}(J^r)=\text{rango}(A^r)=\text{rango}(J’^r).$$ Así, tanto $(m_1,\ldots,m_n)$ como $({m_1}’,\ldots,{m_n}’)$ son soluciones al siguiente sistema de ecuaciones en variables $x_1,\ldots,x_n$.

\begin{align*}
n&= 1\cdot x_1 + 2\cdot x_2 + 3 \cdot x_3 + \ldots + n \cdot x_n\\
\text{rango}(A)&=0\cdot x_1 + 1\cdot x_2 + 2 \cdot x_3 + \ldots + (n-1) \cdot x_n\\
\text{rango}(A^2)&= 0 \cdot x_1 + 0 \cdot x_2 + 1 \cdot x_3 + \ldots + (n-2)\cdot x_n\\
\text{rango}(A^3)&= 0 \cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + (n-3)\cdot x_n\\
&\vdots\\
\text{rango}(A^{n-1})&= 0\cdot x_1 + 0 \cdot x_2 + 0 \cdot x_3 + \ldots + 1 \cdot x_n.
\end{align*}

Pero este es un sistema de $n$ ecuaciones en $n$ variables y con matriz asociada de determinante $1$, así que su solución es única. Esto muestra que $(m_1,\ldots,m_n)=({m_1}’,\ldots,{m_n}’)$. Entonces, en $J$ y $J’$ aparecen la misma cantidad de bloques de cada tamaño. Como además los bloques van de tamaño menor a mayor tanto en $J$ como en $J’$, concluimos que $J=J’$.

Como consecuencia de toda esta discusión, obtenemos de hecho lo siguiente.

Corolario. Dos matrices nilpotentes son semejantes si y sólo si tienen la misma forma canónica de Jordan. Distintas formas canónicas de Jordan dan distintas clases de semejanza.

Una receta para encontrar la forma canónica de Jordan de nilpotentes

La demostración anterior no sólo demuestra la unicidad de la forma canónica de Jordan. Además, nos dice exactamente cómo obtenerla. Para ello:

  1. Calculamos todas las potencias de $A$ hasta $n-1$.
  2. Usando reducción gaussiana (o de otro modo), calculamos el rango de cada una de estas potencias.
  3. Resolvemos el sistema de ecuaciones en variables $x_j$ de la sección anterior.
  4. La forma canónica de Jordan de $A$ tiene $x_j$ bloques de tamaño $j$, que debemos colocar en orden creciente de tamaño.

Ejemplo. Consideremos la siguiente matriz en $M_7(\mathbb{R})$: $$C=\begin{pmatrix}-27 & 266 & 1 & -37 & 135 & -125 & 53\\217 & -1563 & 118 & 33 & -1251 & 1020 & 361\\236 & -1784 & 188 & 16 & -1512 & 1234 & 585\\11 & -10 & -25 & 12 & 28 & -29 & -80\\-159 & 1133 & -114 & -98 & 878 & -690 & -232\\197 & -1409 & 88 & -19 & -1151 & 952 & 348\\-230 & 1605 & -179 & -100 & 1316 & -1031 & -440\end{pmatrix}$$

Sus números son muy complicados, sin embargo, nos podemos auxiliar de herramientas computacionales para encontrar sus potencias. Soprendentemente esta es una matriz nilpotente de índice $3$ pues:

$$C^2=\begin{pmatrix}0 & -10209 & -3403 & -6806 & -6806 & 10209 & 0\\0 & 14691 & 4897 & 9794 & 9794 & -14691 & 0\\0 & 2739 & 913 & 1826 & 1826 & -2739 & 0\\0 & 7221 & 2407 & 4814 & 4814 & -7221 & 0\\0 & -14193 & -4731 & -9462 & -9462 & 14193 & 0\\0 & 10956 & 3652 & 7304 & 7304 & -10956 & 0\\0 & -11952 & -3984 & -7968 & -7968 & 11952 & 0\end{pmatrix}$$

y

$$C^3=\begin{pmatrix}0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\\0 & 0 & 0 & 0 & 0 & 0 & 0\end{pmatrix}.$$

Usando reducción gaussiana, o herramientas computacionales, obtenemos que el rango de $C$ es $4$ y que el rango de $C^2$ es $2$. A partir de $k\geq 3$ obtenemos que $\text{rango}(C^k)=\text{rango}(O_7)=0$. Si queremos encontrar la forma canónica de Jordan de $C$, necesitamos entonces resolver el siguiente sistema de ecuaciones, que nos dirá cuántos bloques $x_j$ de tamaño $j$ hay:

\begin{align*}
7&= x_1+2x_2+3x_3+4x_4+5x_5+6x_6+7x_7\\
4&=x_2 + 2x_3 + 3x_4+4x_5+5x_6+6x_7\\
2&= x_3 + 2x_4+3x_5+4x_6+5x_7 \\
0&= x_4+2x_5+3x_6+4x_7\\
0 &= x_5+2x_6+3x_7\\
0&= x_6+2x_7\\
0&= x_7
\end{align*}

Para resolverlo lo mejor es proceder «de abajo hacia arriba». Las últimas cuatro ecuaciones nos dicen que $x_7=x_6=x_5=x_4=0$. Así, el sistema queda un poco más simple, como:

\begin{align*}
7&= x_1+2x_2+3x_3\\
4&=x_2 + 2x_3\\
2&= x_3.
\end{align*}

De la última igualdad, tenemos $x_3=2$, lo que nos dice que la forma canónica de Jordan tendría dos bloques de tamaño $3$. Sustituyendo en la penúltima igualdad obtenemos que $4=x_2+4$, de donde $x_2=0$. Así, no tendremos ningún bloque de tamaño $2$. Finalmente, sustituyendo ambos valores en la primera igualdad obtenemos que $7=x_1+0+6$. De aquí obtenemos $x_1=1$, así que la forma canónica de Jordan tendrá un bloque de tamaño $1$. En resumen, la forma canónica de Jordan es la matriz $$\begin{pmatrix} J_{0,1} & 0 & 0 \\ 0 & J_{0,3} & 0 \\ 0 & 0 & J_{0,3}\end{pmatrix}.$$ Explícitamente, ésta es la siguiente matriz:

$$\begin{pmatrix} 0& 0 & 0 & 0 & 0 & 0 & 0 \\ 0& 0 & 1 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 1 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 1 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \end{pmatrix}.$$

Para verla un poco más «como de bloques» la podemos reescribir de la siguiente manera:

$$\left(\begin{array}{c|ccc|ccc} 0& 0 & 0 & 0 & 0 & 0 & 0 \\ \hline 0& 0 & 1 & 0 & 0 & 0 & 0 \\ 0& 0 & 0 & 1 & 0 & 0 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \\ \hline 0& 0 & 0 & 0 & 0 & 1 & 0 \\ 0& 0 & 0 & 0 & 0 & 0 & 1 \\ 0& 0 & 0 & 0 & 0 & 0 & 0 \end{array}\right).$$

$\triangle$

Más adelante…

Hemos demostrado la existencia y unicidad de la forma canónica de Jordan para matrices nilpotentes. Este es un resultado interesante por sí mismo. Sin embargo, también es un paso intermedio para un resultado más general. En las siguientes entradas hablaremos de una versión más general del teorema de Jordan, para matrices tales que su polinomio característico se descomponga totalmente en el campo en el que estemos trabajando.

Tarea moral

  1. Considera la siguiente matriz: $$M=\begin{pmatrix}11 & 11 & -11 & -11\\-1 & -1 & 1 & 1\\3 & 3 & -3 & -3\\7 & 7 & -7 & -7\end{pmatrix}.$$
    1. Muestra que $M$ es una matriz nilpotente y determina su índice.
    2. ¿Cuál es la forma canónica de Jordan de $M$?
  2. Describe las posibles formas canónicas de Jordan para una matriz nilpotente $A \in M_{5}(F)$ de índice $2$.
  3. Describe las posibles formas canónicas de Jordan para una matriz nilpotente $A \in M_{7}(F)$ de rango $5$.
  4. Encuentra de manera explícita la inversa de la siguiente matriz en $M_n(\mathbb{R})$ y usa esto para dar de manera explícita la solución al sistema de ecuación en las variables $x_i$ que aparece en la entrada: $$\begin{pmatrix} 1 & 2 & 3 & \cdots & n-1 & n \\ 0 & 1 & 2 & \cdots & n-2 & n-1 \\ 0 & 0 & 1 & \cdots & n-3 & n-2 \\ & \vdots & & \ddots & & \vdots\\ 0 & 0 & 0 & \cdots & 1 & 2 \\ 0 & 0 & 0 & \cdots & 0 & 1\end{pmatrix}.$$
  5. Sea $A$ una matriz nilpotente en $M_n(\mathbb{R})$. Muestra que las matrices $A$ y $5A$ son similares entre sí.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»