Archivo de la etiqueta: sylvester

Álgebra Lineal I: Formas cuadráticas, propiedades, polarización y Gauss

Introducción

En la entrada anterior hablamos acerca de formas bilineales y comenzamos a hablar de formas cuadráticas. Discutimos cómo a partir de estas nociones a la larga podremos hablar de geometría y cálculo en espacios vectoriales. El objetivo de esta entrada es entender mejor a las formas cuadráticas y su relación con formas bilineales.

Lo primero que haremos es demostrar la identidad de polarización, que a grandes rasgos dice que hay una biyección entre las formas bilineales simétricas y las formas cuadráticas. Veremos algunos ejemplos concretos de esta biyección. A partir de ella demostraremos algunas propiedades de formas cuadráticas. Finalmente, hablaremos brevemente de un bello resultado de Gauss que caracteriza las formas cuadráticas en \mathbb{R}^n en términos de formas lineales, de las cuales discutimos mucho cuando hablamos de espacio dual.

Como pequeño recordatorio de la entrada anterior, una forma bilineal de un espacio vectorial V es una transformación b:V\times V \to \mathbb{R} tal que cada que fijamos una coordenada, es lineal en la otra. Esta forma es simétrica si b(x,y)=b(y,x) para cada par de vectores x,y en V. Una forma cuadrática de V es una transformación q:V\to \mathbb{R} tal que q(x)=b(x,x) para alguna forma bilineal b.

Formas cuadráticas y polarización

En la entrada anterior enunciamos el siguiente teorema, que mostraremos ahora.

Teorema (identidad de polarización). Sea q:V\to \mathbb{R} una forma cuadrática. Existe una única forma bilineal simétrica b:V\times V \to \mathbb{R} tal que q(x)=b(x,x) para todo vector x. Esta forma bilineal está determinada mediante la identidad de polarización

    \[b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.\]

Demostración. Tomemos una forma cuadrática q de V. Por definición, está inducida por una forma bilineal B de V, es decir, q(x)=B(x,x). Definamos la transformación b mediante

    \[b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2}.\]

Comencemos probando que b es una transformación bilineal simétrica. Notemos que:

    \begin{align*}b(x,y)&=\frac{q(x+y)-q(x)-q(y)}{2}\\&=\frac{B(x+y,x+y)-B(x,x)-B(y,y)}{2}\\&=\frac{B(x,x)+B(x,y)+B(y,x)+B(y,y)-B(x,x)-B(y,y)}{2}\\&=\frac{B(x,y)+B(y,x)}{2}.\end{align*}

De aquí es muy claro que b es forma bilineal, pues fijando x, set tiene que b(x,y) es combinación lineal de dos formas lineales en y; y fijando y, se tiene que b(x,y) es combinación lineal de dos formas lineales en x. Además, de esta igualdad (o directo de la definición de b) es claro que b(x,y)=b(y,x).

También de esta igualdad obtenemos que

    \[b(x,x)=B(x,x)=q(x).\]

Para mostrar la unicidad, notemos que cualquier forma bilineal simétrica b' tal que b'(x,x)=q(x) debe satisfacer, como en las cuentas que hicimos arriba, que

    \begin{align*}q(x+y)&=b'(x+y,x+y)\\&=q(x)+q(y)+b'(x,y)+b'(y,x)\\&=q(x)+q(y)+2b'(x,y).\end{align*}

De aquí, despejando b', se obtiene que debe tener la forma de b.

\square

El teorema anterior justifica la siguiente definición.

Definición. Dada una forma cuadrática q de V, a la única forma bilineal simétrica b de V tal que q(x)=b(x,x) le llamamos la forma polar de q.

Ejemplo. En el espacio vectorial \mathbb{R}^n, la transformación q:\mathbb{R}^n\to \mathbb{R} dada por

    \[q(x_1,\ldots,x_n)=x_1^2+\ldots+x_n^2.\]

es una forma cuadrática. Su forma polar es la forma bilineal producto punto que manda a x=(x_1,\ldots,x_n) y y=(y_1,\ldots,y_n) a

    \[b(x,y)=x_1y_1+\ldots+x_ny_n.\]

Esto coincide con la construcción dada por la identidad de polarización, ya que

    \begin{align*}q(x+y)-q(x)-q(y)&=\sum_{i=1}^n (x_i+y_i)^2-x_i^2-y_i^2 \\&= \sum_{i=1}^n x_iy_i\end{align*}

\square

Ejemplo. En el espacio vectorial \mathbb{R}[x] de polinomios con coeficientes reales, la transformación Q dada por

    \[Q(p)=p(0)p(1)+p(2)^2\]

es una forma cuadrática. Para encontrar a su forma bilineal polar, usamos la identidad de polarización

    \begin{align*}B(p,q)&=\frac{Q(p+q)-Q(p)-Q(q)}{2}\\&=\frac{(p+q)(0)(p+q)(1)+(p+q)(2)^2-p(0)p(1)-p(2)^2-q(0)q(1)-q(2)^2}{2}\\&=\frac{p(0)q(1)+q(0)p(1)+2p(2)q(2)}{2}\\&=\frac{p(0)q(1)}{2}+\frac{p(1)q(0)}{2}+p(2)q(2).\end{align*}

\square

Propiedades de formas cuadráticas

Si q es una forma cuadrática, x es un vector y c es un real, tenemos que q(cx)=c^2q(x), pues sale una c por cada una de las coordenadas de la forma bilineal asociada. En particular, q(-x)=q(x).

La identidad de polarización nos permite probar otras propiedades de formas bilineales y formas cuadráticas.

Proposición. Sea q una forma cuadrática en V con forma polar b. Entonces:

  • Para todo par de vectores x y y en V, se tiene que

        \[b(x,y)=\frac{q(x+y)-q(x-y)}{4}.\]

  • (Ley del paralelogramo) Para todo par de vectores x y y en V, se tiene que

        \[q(x+y)+q(x-y)=2(q(x)+q(y)).\]

  • (Teorema de Pitágoras) Para vectores x y y tales que b(x,y)=0, se tiene que

        \[q(x+y)=q(x)+q(y).\]

  • (Diferencia de cuadrados) Para todo par de vectores x y y en V, se tiene que b(x+y,x-y)=q(x)-q(y).

Demostración. Por la identidad de polarización tenemos que

    \[b(x,y)=\frac{q(x+y)-q(x)-q(y)}{2},\]

y como q(y)=q(-y), tenemos también por la identidad de polarización que

    \begin{align*}-b(x,y)&=b(x,-y)\\&=\frac{q(x-y)-q(x)-q(y)}{2}.\end{align*}

Restando la segunda ecuación de la primera, obtenemos la primer propiedad. Sumando ambas obtenemos la ley del paralelogramo.

El teorema de Pitágoras es una consecuencia directa de la identidad de polarización.

La identidad de diferencia de cuadrados es una consecuencia de la primer propiedad aplicada a los vectores x+y y x-y, y de usar que q(2x)=4q(x) y que q(2y)=4q(y).

\square

Forma de las formas cuadráticas

Otra consecuencia de la identidad de polarización es que establece una biyección entre las formas cuadráticas y las formas simétricas bilineales. Esta asociación nos permite decir cómo se ven exactamente las formas cuadráticas en espacios vectoriales de dimensión finita.

Toda forma cuadrática viene de una forma bilineal simétrica. En la entrada anterior, mencionamos que para definir una forma bilineal simétrica en un espacio vectorial V de dimensión n, basta tomar una base \{e_1,\ldots,e_n\} de V y decidir los valores b_{ij} de b(e_i,e_j) para 1\leq i \leq j \leq n. Como b es simétrica, para j<i se tendría que b(e_i,e_j)=b(e_j,e_i), es decir, que b_{ji}=b_{ij}.

De esta forma, para todo vector v en V podemos encontrar el valor de q(v) expresando v en la base \{e_1,\ldots,e_n\}, digamos,

    \[v=a_1e_1+\ldots+a_ne_n,\]

de donde

    \[q(v)=\sum_{i=1}^n b_{ii} a_i^2 + 2 \sum_{1\leq i < j \leq n} b_{ij} a_i a_j.\]

Ejemplo. Toda forma cuadrática en \mathbb{R}^3 se obtiene de elegir reales a,b,c,d,e,f y definir

    \[q(x,y,z)=ax^2+by^2+cz^2+2dxy+2eyz+2fzx.\]

La forma polar de q es la forma bilineal B tal que para la base canónica e_1,e_2,e_3 de \matbb{R}^3 hace lo siguiente

    \begin{align*}B(e_1,e_1)&=a\\B(e_2,e_2)&=b\\B(e_3,e_3)&=c\\ B(e_1,e_2)&=B(e_2,e_1)=d\\ B(e_2,e_3)&=B(e_3,e_2)=e\\B(e_3,e_1)&=B(e_1,e_3)=f.\end{align*}

\square

Teorema de Gauss de formas cuadráticas (opcional)

Para esta sección, fijemos al espacio vectorial como \mathbb{R}^n. Hay una forma muy natural de construir formas cuadráticas a partir de formas lineales. Tomemos números reales \alpha_1,\ldots, \alpha_r y formas lineales l_1,\ldots,l_r. Consideremos

    \[q(x)=\alpha_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2.\]

Se tiene que q es una forma cuadrática. La demostración de ello es sencillo y se queda como tarea moral.

Lo que descubrió Gauss es que todas las formas cuadráticas se pueden expresar de esta forma, y de hecho, es posible hacerlo usando únicamente formas lineales que sean linealmente independientes y coeficientes 1 y -1.

Teorema (clasificación de Gauss de formas cuadráticas). Sea q una forma cuadrática en \mathbb{R}^n. Entonces, existen enteros no negativos r y s, y formas lineares l_1,\ldots,l_r,m_1,\ldots,m_s en (\mathbb{R}^n)^\ast, todas ellas linealmente independientes, tales que

    \[q=l_1^2+\ldots+l_r^2-m_1^2-\ldots-m_s^2.\]

Hay un pequeño refinamiento de este teorema, demostrado por Sylvester.

Teorema (teorema de la inercia de Sylverster). Los números r y s en el teorema de clasificación de Gauss de formas cuadráticas son únicos.

Ejemplo. Tomemos la forma cuadrática en \mathbb{R}^3 dada por q(x,y,z)=xy+yz+zx. Por el teorema de Gauss, esta forma se debe de poder poner como combinación lineal de cuadrados de formas lineales independientes. En efecto, tenemos que:

    \[xy+yz+zx=\left(\frac{2x+y+z}{2}\right)^2-\left(\frac{y-z}{2}\right)^2-x^2,\]

en donde

    \begin{align*}(x,y,z)&\mapsto \frac{2x+y+z}{2},\\(x,y,z) &\mapsto \frac{y-z}{2}\quad \text{ y }\\(x,y,z)&\mapsto x\end{align*}


son formas lineales linealmente independientes.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Verifica que las formas cuadráticas de los ejemplos del teorema de polarización en efecto son formas cuadráticas.
  • Muestra que q(x,y)=3x^2-y^2+7y no es una forma cuadrática.
  • Muestra que si \alpha_1,\ldots, \alpha_r son reales y tomamos formas lineales l_1,\ldots,l_r en \mathbb{R}^n, entonces

        \[q(x)=a_1l_1(x)^2+\ldots+\alpha_r l_r(x)^2\]

    es una forma cuadrática.
  • ¿Quién es la forma polar de la forma cuadrática Q(f)=\int_{0}^1 f^2(x)\, dx en el espacio vectorial de funciones continuas en el intervalo [0,1]?

Una demostración algorítmica del teorema de Gauss se puede encontrar en la Sección 10.1 del libro de Álgebra Lineal de Titu Andreescu.

Más adelante…

En esta entrada estudiamos a fondo la identidad de polarización; esto nos permitió concluir que existe una biyección entre las funciones bilineales simétricas y las fromas cuadráticas. También, pusimos mucho énfasis en ejemplos concretos de esta biyección.

Con esto estamos listos para empezar a pensar en cómo haríamos geometría o cálculo en espacios vectorias. Abordaremos estos temas al final de esta unidad. En la siguiente entrada hablaremos del producto interior.

Entradas relacionadas

Álgebra Lineal I: Problemas de rango de transformaciones y matrices.

Introducción

Con anterioridad vimos el concepto de rango de una matriz y rango de una transformación lineal, además del muy importante teorema de rango-nulidad y la desigualdad de Sylvester. Vimos también, como contenido optativo, el versátil teorema de la factorización PJQ. En esta ocasión nos enfocaremos en resolver problemas de rango que nos servirán para repasar dichos conceptos.

Problemas resueltos

Problema. Encuentra el kernel y el rango de la transformación lineal T:\mathbb{R}_2[x] \longrightarrow \mathbb{R}_3[x] definida por

    \[T(f(x))=2f'(x) + \int _{0}^{x} 3f(t)dt.\]

Antes de comenzar a leer la solución, es conveniente que te convenzas de que T es una transformación lineal y que está bien definida, es decir, que en efecto toma un polinomio de grado a lo más dos con coeficientes reales y lo lleva a un polinomio de grado a lo más tres con coeficientes reales.

Solución. Consideremos \mathcal{B}=\{1, x, x^2\} la base canónica de \mathbb{R}_2[x].
Entonces

    \begin{align*}\Ima(T)&=\text{span}(\{T(1),T(x),T(x^2)\})\\&= \text{span}(\{3x,2+\frac{3}{2}x^2,4x+x^3\}).\end{align*}

Para determinar el rango de \Ima{T}, colocamos a las coordenadas de estas imágenes en la siguiente matriz A,

    \[A=\begin{pmatrix}0 & 3 & 0 & 0\\2 & 0 & \frac{3}{2} & 0\\0 & 4 & 0 & 1 \end{pmatrix}\]

y con el algoritmo de reducción gaussiana llegamos a que

    \[A_{red}=\begin{pmatrix}1 & 0 & \frac{3}{4} & 0\\0 & 1 & 0 & 0\\0 & 0 & 0 & 1 \end{pmatrix}\]

Como A_{red} tiene 3 pivotes se sigue que \rank(T)=3.

Luego, por el teorema de rango nulidad se tiene que

    \begin{align*}3&=\dim(\mathbb{R}_2[x])\\&= \dim (\ker (T))+\rank(T)\\&=\dim(\ker(T))+3.\end{align*}

Así, \dim(\ker(T))=0, por lo tanto \ker(T)=\{0\}.

\square

La desigualdad de Sylvester nos ayuda a acotar el rango de una suma de matrices por abajo. La desigualdad

    \[\rank(A+B)\leq \rank(A)+\rank(B)\]

nos ayuda a acotarlo por arriba. Combinar ambas ideas puede ser útil en problemas de rango de matrices.

Problema. Sea A\in M_n(\mathbb{C}) una matriz idempotente. Prueba que

    \[\rank(A)+\rank(I_n-A)=n.\]

Recuerda que una matriz es idempotente si A^2=A.

Solución. Como A^2=A, entonces A(I_n - A)=O_n.
Luego, por la desigualdad de Sylvester se tiene que

    \begin{align*}0&=\rank(O_n)\\&=\rank(A(I_n-A))\\&\geq \rank(A) + \rank(I_n-A)-n, \end{align*}



entonces

    \[\rank(A)+\rank(I_n-A)\leq n.\]

Por otro lado, como para cualesquiera matrices X,Y se tiene
\rank(X+Y)\leq \rank(X)+\rank(Y), entonces

    \[n=\rank(I_n)\leq \rank(A) + \rank(I_n-A),\]


de modo que

    \[n\leq \rank(A)+\rank(I_n - A).\]

Combinando ambas desigualdades,

    \[\rank(A)+\rank(I_n-A)=n.\]

\square

Problema. Encuentra el rango de la transformación lineal T:\mathbb{R}_2[x]\longrightarrow M_2(\mathbb{R}) definida por

    \[T(f(x))=\begin{pmatrix}f(1)-f(2) & 0\\0 & f(0)\end{pmatrix}.\]

Solución. Para determinar el rango, basta tomar una base, encontrar la imagen de sus elementos bajo T y determinar cuántos de estos elementos son linealmente independientes. Considera \mathcal{B}=\{1,x,x^2\} la base canónica de \mathbb{R}_2[x]. Tenemos que

    \begin{align*}\Ima(T)&=\text{span}(T(\mathcal{B}))\\&=\text{span}(\{T(1), T(x), T(x^2)\})\\&=\text{span}\left(\left\{ \begin{pmatrix}0 & 0\\0 & 1\end{pmatrix}, \begin{pmatrix}-1 & 0\\0 & 0\end{pmatrix}, \begin{pmatrix}-3 & 0\\0 & 0\end{pmatrix} \right\} \right )\\&=\text{span}\left (\left\{ \begin{pmatrix}0 & 0\\0 & 1\end{pmatrix}, \begin{pmatrix}-1 & 0\\0 & 0\end{pmatrix} \right\} \right ).\end{align*}

Notemos también que \mathcal{C}=\left\{ \begin{pmatrix}0 & 0\\0 & 1\end{pmatrix}, \begin{pmatrix}-1 & 0\\0 & 0\end{pmatrix}} \right\} es linealmente independiente.

Por lo tanto \mathcal{C} es una base para \Ima(T) y así \rank(T)=2.

\square

Problema. Sean A\in M_{3,2}(\mathbb{R}) y B\in M_{2,3}(\mathbb{R}) matrices tales que

    \[AB=\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}\]

Muestra que BA es la identidad.

El enunciado no parece mostrar que este sea uno de los problemas de rango de matrices. Sin embargo, para poder resolverlo usaremos las herramientas que hemos desarrollado hasta ahora.

Partiremos el problema en los siguientes pasos.

  1. Verificar que (AB)^2=AB y que \rank(AB)=2.
  2. Probar que BA es invertible.
  3. Probar que (BA)^3=(BA)^2 y deducir que BA=I_2.

Solución.

1. Realizamos la operación matricial:

    \[\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}=\begin{pmatrix}2 & -2 & -4\\-1 & 3 & 4\\1 & -2 & -3\end{pmatrix}\]

Ahora, aplicando reducción gaussiana en AB obtenemos que

    \[(AB)_{red}=\begin{pmatrix}1 & 0 & -1\\0 & 1 & 1\\0 & 0 & 0\end{pmatrix}.\]

Como (AB)_{red} tiene sólo dos pivotes, entonces \rank(AB)=2.

2. Usando la desigualdad de rango para producto de matrices, obtenemos que

    \begin{align*}\rank(BA)&\geq \rank(A(BA)B)\\&=\rank((AB)^2)\\&=\rank(AB)=2.\end{align*}

Entonces, \rank(BA)\geq 2. Por otro lado, como BA\in M_2(\mathbb{R}), entonces \rank(BA)\leq 2. Así, \rank(BA)=2 y BA es una matriz en M_2(\mathbb{R}), así que es invertible.

3. Como (AB)^2=AB, entonces B(AB)^2 A=B(AB)A=(BA)^2. Por consiguiente BABABA=(BA)^2 y así (BA)^3=(BA)^2 y como BA es invertible, podemos multiplicar en ambos lados de esta última igualdad por ((BA)^{-1})^2 para obtener BA=I_2.

\square

Entradas relacionadas

Álgebra Lineal I: Rango de transformaciones lineales y matrices

Introducción

En entradas anteriores hablamos de transformaciones lineales, cómo actúan en conjuntos especiales de vectores y de cómo se pueden representar con matrices. Hablamos también de cómo cambiar de una base a otra y cómo usar esto para entender transformaciones en varias bases. Estamos listos para introducir un concepto fundamental de álgebra lineal, el de rango de una transformación lineal y de una matriz.

Antes de entrar en las definiciones formales, vale la pena hablar un poco de rango de manera intuitiva. Supongamos que V es un espacio vectorial de dimensión n y que W es un espacio vectorial sobre el mismo campo que V. Una transformación lineal T:V\to W puede «guardar mucha independencia lineal» o «muy poquita». Si T es inyectiva, ya vimos antes que T manda linealmente independientes a linealmente independientes. Si T es la transformación 0, entonces se «pierde toda la independencia».

El rango mide algo intermedio entre estos dos extremos. Mientras mayor sea el rango, más independencia lineal se preserva y viceversa. Si mantienes esta intuición en mente, varias de las proposiciones te resultarán más naturales.

Otro buen ejemplo para tener en mente es tomar una transformación lineal T:\mathbb{R}^3\to \mathbb{R}^3. Si es la transformación identidad, la base canónica se preserva. Si es la proyección al plano xy, entonces «perdemos» al vector (0,0,1), pues se va al (0,0,0). Si es la proyección al eje x, «perdemos» al (0,1,0) y al (0,0,1) pues ambos se van a (0,0,0). Y si es la transformación 0, perdemos a todos. El rango precisamente va a medir esto, y para estos ejemplos tendremos rango 3, 2, 1 y 0 respectivamente.

Rango para transformaciones lineales

Como en otras ocasiones, cuando hablemos de transformaciones lineales entre espacios vectoriales, serán sobre un mismo campo F.

Definición. Sean V y W espacios de dimensión finita. El rango de una transformación lineal T:V\to W es la dimensión de la imagen de T, es decir,

    \[\rank(T)=\dim\Ima T.\]

Si B es una base de V, entonces genera a V. La transformación T es suprayectiva de V a \Ima T, de modo que T(B) es generador de \Ima T. De esta forma, para encontrar el rango de una transformación lineal T:V\to W basta:

  • Tomar una base B de V
  • Aplicar T a cada elemento de B
  • Determinar un conjunto linealmente independiente máximo en T(B)

Para hacer este último paso, podemos poner a los vectores coordenada de T(B) con respecto a una base de W como los vectores fila de una matriz A y usar reducción gaussiana. Las operaciones elementales no cambian el espacio generado por las filas, así que el rango de T es el número de vectores fila no cero en la forma escalonada reducida A_{\text{red}} de A.

Ejemplo. Encuentra el rango de la transformación lineal T:\mathbb{R}^3\to M_{2}(\mathbb{R}) que manda (x,y,z) a

    \[\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.\]

Solución. Tomemos e_1,e_2,e_3 la base canónica de \mathbb{R}^3. Tenemos que T(e_1)=\begin{pmatrix}1 & 2\\ 0 & 1\end{pmatrix}, T(e_2)=\begin{pmatrix} 1 & 0 \\ 2 & -1\end{pmatrix} y T(e_3)=\begin{pmatrix}-1 & 0\\ -2 & 1\end{pmatrix}.

Tomando la base canónica E_{11},E_{12},E_{21},E_{22} de M_2(\mathbb{R}), podemos entonces poner a las coordenadas de T(e_1),T(e_2),T(e_2) como vectores fila de una matriz

    \[\begin{pmatrix}1 & 2 & 0 & 1\\ 1 & 0 & 2 & -1\\ -1& 0 & -2 & 1\end{pmatrix}.\]

Sumando la segunda fila a la tercera, y después restando la primera a la segunda,obtenemos la matriz

    \[\begin{pmatrix}1 & 2 & 0 & 1\\ 0 & -2 & 2 & -2\\ 0& 0 & 0 & 0\end{pmatrix}.\]

De aquí, sin necesidad de terminar la reducción gaussiana, podemos ver que habrá exactamente dos filas no cero. De este modo, el rango de la transformación es 2.

\square

Propiedades del rango

Demostremos ahora algunas propiedades teóricas importantes acerca del rango de una transfromación lineal.

Proposición. Sean U, V y W espacios de dimensión finita. Sean S:U\to V, T:V\to W, T':V\to W transformaciones lineales. Entonces:

  1. \rank(T)\leq \dim V
  2. \rank(T)\leq \dim W
  3. \rank(T\circ S)\leq \rank(T)
  4. \rank(T\circ S)\leq \rank(S)
  5. \rank(T+T')\leq \rank(T) + \rank(T')

Demostración. (1) Pensemos a T como una transformación T:V\to \Ima(T). Haciendo esto, T resulta ser suprayectiva, y por un resultado anterior tenemos que \dim V\geq \dim \Ima T = \rank (T).

(2) Sabemos que \Ima (T) es un subespacio de W, así que \rank(T)=\dim \Ima T \leq \dim W.

(3) La imagen de T contiene a la imagen de T\circ S, pues cada vector de la forma T(S(v)) es de la forma T(w) (para w=S(v)). Así,

    \begin{align*}\rank(T) &=\dim \Ima T \geq \dim \ima T\circ S\\ &= \rank (T\circ S).\end{align*}

(4) La función T\circ S coincide con la restricción T_{\Ima S} de T a \Ima S. Por el inciso (1), \rank(T_{\Ima S})\leq \dim \Ima S = \rank(S), así que \rank (T\circ S) \leq \rank(S).

(5) Tenemos que \Ima (T+T') \subseteq \Ima T + \Ima T'. Además, por un corolario de la fórmula de Grassman, sabemos que

    \begin{align*}\dim (\Ima T + \Ima T')&\leq \dim \Ima T + \dim \Ima T'\\&= \rank(T) + \rank(T').\end{align*}

Así,

    \begin{align*}\rank(T+T')&\leq \rank(\Ima T + \Ima T')\\&\leq \rank(T)+\rank(T').\end{align*}

\square

Proposición. Sean R:U\to V, T:V\to W y S:W\to Z transformaciones lineales con R suprayectiva y S inyectiva. Entonces

    \[\rank(S\circ T\circ R)=\rank (T).\]

Dicho de otra forma «composición por la izquierda con transformaciones inyectivas no cambia el rango» y «composición por la derecha con transformaciones suprayectivas no cambia el rango». Un corolario es «composición con transformaciones invertibles no cambia el rango».

Demostración. De la proposición anterior, tenemos que \rank(S\circ T)\leq \rank (T). La restricción S_{\Ima T} de S a la imagen de T es una transformación lineal de \Ima T a \Ima (S\circ T) que es inyectiva, de modo que \dim \Ima T \leq \dim \Ima (S\circ T), que es justo \rank(T)\leq \rank(S\circ T), de modo que tenemos la igualdad \rank(S\circ T)=\rank (T).

Como R es suprayectiva, \Ima R= V, de modo que \Ima(S\circ T \circ R)=\Ima(S\circ T). Así,

    \begin{align*}\rank (S\circ T \circ R) &= \rank (S\circ T)\\&=\rank(T).\end{align*}

\square

Teorema de rango-nulidad

Una transformación lineal T:V\to W determina automáticamente dos subespacios de manera natural: el kernel \ker T y la imagen \Ima T. Resulta que las dimensiones de \ker T, de \Ima T y de V están fuertemente relacionadas entre sí.

Teorema. Sean V y W espacios de dimensión finita. Sea T:V\to W una transformación lineal. Entonces

    \[\dim\ker T + \rank(T) = \dim V.\]

Demostración. Supongamos que \dim V=n y \dim \ker T = k. Queremos mostrar que \rank(T)=n-k. Para ello, tomemos una base B de \ker T y tomemos B'=\{v_1,\ldots,v_{n-k}\} tal que B\cup B' sea base de V. Basta mostrar que T(B')=\{T(v_1),\ldots,T(v_{n-k})\}\subset \Ima T es base de \Ima T. Sea U el generado por B', de modo que V=U \oplus \ker T.

Veamos que T(B') es generador de \Ima T. Tomemos T(v) en \Ima T. Podemos escribir v=z+u con z\in \ker T y u\in U. Así, T(v)=T(z)+T(u)=T(u), y este último está en el generado por T(B').

Ahora veamos que T(B') es linealmente independiente. Si

    \[\alpha_1T(v_1)+\ldots+\alpha_{n-k}T(v_{n-k})=0,\]

entonces T(\alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k})=0, de modo que \alpha_1v_1+\ldots+\alpha_{n-k}v_{n-k} está en U y en \ker T, pero la intersección de estos espacios es \{0\}. Como esta combinación lineal es 0 y B' es linealmente independiente, \alpha_1=\ldots=\alpha_n=0.

De esta forma, T(B') es linealmente independiente y genera a \Ima T, de modo que \rank(T) =|B'|=n-k.

\square

Ejemplo. Consideremos de nuevo la transformación lineal T:\mathbb{R}^3\to M_{2}(\mathbb{R}) que manda (x,y,z) a

    \[\begin{pmatrix}x+y-z & 2x \\ 2y-2z & x+z-y\end{pmatrix}.\]

Muestra que T no es inyectiva.

Solución. Ya determinamos previamente que esta transformación tiene rango 2. Por el teorema de rango-nulidad, su kernel tiene dimensión 1. Así, hay un vector v\neq (0,0,0) en el kernel, para el cual T(v)=0=T(0), de modo que T no es inyectiva.

\square

Problema. Demuestra que para cualquier entero n existe una terna (a,b,c)\neq (0,0,0) con a+b+c=0 y tal que

    \[\int_0^1 at^{2n}+bt^n+c \,dt = 0.\]

Solución. Podríamos hacer la integral y plantear dos ecuaciones lineales. Sin embargo, daremos argumentos dimensionales para evitar la integral. Consideremos las transformaciones lineales T:\mathbb{R}^3\to \mathbb{R} y S:\mathbb{R}^3\to \mathbb{R} dadas por

    \begin{align*}T(x,y,z)&=\int_0^1 xt^{2n}+yt^n+z \,dt\\S(x,y,z)&=x+y+z.\end{align*}


Notemos que T(0,0,1)=\int_0^1 1\, dt = 1=S(0,0,1), de modo que ni T ni S son la transformación 0. Como su rango puede ser a lo más \dim\mathbb{R}=1, entonces su rango es 1. Por el teorema de rango-nulidad, \dim \ker S= \dim \ker T = 2. Como ambos son subespacios de \mathbb{R}^3, es imposible que \ker S \cap \ker T=\{0\}, de modo que existe (a,b,c) no cero tal que T(a,b,c)=S(a,b,c)=0. Esto es justo lo que buscábamos.

\square

Rango para matrices

Definición. El rango de una matriz A en M_{m,n}(F) es el rango de la transformación lineal asociada de F^n a F^m dada por X\mapsto AX. Lo denotamos por \rank(A).

A partir de esta definición y de las propiedades de rango para transformaciones lineales obtenemos directamente las siguientes propiedades para rango de matrices.

Proposición. Sean m, n y p enteros. Sea B una matriz en M_{n,p}(F) y A, A' matrices en M_{m,n}(F). Sea P una matriz en M_{n,p}(F) cuya transformación lineal asociada es suprayectiva y Q una matriz en M_{r,m}(F) cuya transformación lineal asociada es inyectiva. Entonces:

  1. \rank(A)\leq \min(m,n)
  2. \rank(AB)\leq \min(\rank(A),\rank(B))
  3. \rank(A+A')\leq \rank(A) + \rank(A')
  4. \rank(QAP) = \rank(A)

Como discutimos anteriormente, el rango de una transformación se puede obtener aplicando la transformación a una base y viendo cuál es el máximo subconjunto de imágenes de elementos de la base que sea linealmente independiente. Si tomamos una matriz A en M_{m,n}(F), podemos aplicar esta idea con los vectores e_1,\ldots,e_n de la base canónica de F^{n}. Como hemos visto con anterioridad, para cada i=1,\ldots, n tenemos que el vector Ae_i es exactamente la i-ésima columna de A. Esto nos permite determinar el rango de una matriz en términos de sus vectores columna.

Proposición. El rango de una matriz en M_{m,n}(F) es igual a la dimensión del subespacio de F^m generado por sus vectores columna.

Problema. Determina el rango de la matriz

    \[\begin{pmatrix} 3 & 1 & 0 & 5 & 0\\ 0 & 8 & 2 & -9 & 0\\ 0 & -1 & 0 & 4 & -2\end{pmatrix}.\]

Solución. Como es una matriz con 3 filas, el rango es a lo más 3. Notemos que entre las columnas están los vectores (3,0,0), (0,2,0) y (0,0,-2), que son linealmente independientes. De esta forma, el rango de la matriz es 3.

\square

A veces queremos ver que el rango de un producto de matrices es grande. Una herramienta que puede servir en estos casos es la desigualdad de Sylvester.

Problema (Desigualdad de Sylvester). Muestra que para todas las matrices A, B en M_n(F) se tiene que

    \[\rank(AB)\geq \rank(A)+\rank(B)-n.\]

Solución. Tomemos T_1:F^n\to F^n y T_2:F^n\to F^n tales que T_1(X)=AX y T_2(X)=BX. Lo que tenemos que probar es que

    \[\rank(T_1\circ T_2) \geq \rank(T_1) + \rank(T_2) - n.\]

Consideremos S_1 como la restricción de T_1 a \Ima T_2. Tenemos que \ker S_1 \subset \ker T_1, así que \dim \ker S_1 \leq \dim \ker T_1. Por el teorema de rango-nulidad en S_1, tenemos que

    \begin{align*}rank(T_2) &= \dim \Ima T_2 \\&= \dim \ker S_1 + \rank(S_1) \\&= \dim \ker S_1 + \rank(T_1\circ T_2)\\&\leq \dim \ker T_1 + \rank(T_1\circ T_2),\end{align*}

así que

    \[\rank(T_2)\leq \dim \ker T_1 + \rank(T_1\circ T_2).\]

Por el teorema de rango-nulidad en T_1 tenemos que

    \[\dim \ker T_1 + \rank(T_1)=n.\]

Sumando la desigualdad anterior con esta igualdad obtenemos el resultado.

\square

El teorema PJQ (opcional)

El siguiente resultado no se encuentra en el temario usual de Álgebra Lineal I. Si bien no formará parte de la evaluación del curso, recomendamos fuertemente conocerlo y acostumbrarse a usarlo pues tiene amplias aplicaciones a través del álgebra lineal.

Teorema (Teorema PJQ). Sea A una matriz en M_{m,n}(F) y r un entero en \{0,\ldots,\min(m,n)\}. El rango de A es igual a r si y sólo si existen matrices invertibles P\in M_m(F) y Q\in M_n(F) tales que A=PJ_rQ, en donde J_r es la matriz en M_{m,n} cuyas primeras r entradas de su diagonal principal son 1 y todas las demás entradas son cero, es decir, en términos de matrices de bloque,

    \[J_r=\begin{pmatrix}I_r & 0 \\0 & 0\end{pmatrix}.\]

No damos la demostración aquí. Se puede encontrar en el libro de Titu Andreescu, Teorema 5.68. Veamos algunas aplicaciones de este teorema.

Problema. Muestra que una matriz tiene el mismo rango que su transpuesta.

Solución. Llamemos r al rango de A. Escribimos A=PJ_rQ usando el teorema PJQ, con P y Q matrices invertibles. Tenemos que ^tA=^tQ\, ^tJ_r \,^tP, con ^tQ y ^tP matrices invertibles. Además, ^t J_r es de nuevo de la forma de J_r. Así, por el teorema PJQ, tenemos que ^t A es de rango r.

Combinando el problema anterior con el resultado del rango de una matriz en términos de sus vectores columna obtenemos lo siguiente.

Proposición. El rango de una matriz en M_{m,n}(F) es igual a la dimensión del subespacio de F^n generado por sus vectores renglón.

Terminamos esta entrada con una aplicación más del teorema PJQ.

Problema. Muestra que una matriz A de rango r se puede escribir como suma de r matrices de rango 1. Muestra que es imposible hacerlo con menos matrices.

Solución. Expresamos A=PJ_rQ usando el teorema PJQ. Si definimos A_i=PE_{ii}Q para i=1,\ldots,r, donde E_{ii} es la matriz cuya entrada (i,i) es uno y las demás cero, claramente tenemos que J_r=E_{11}+E_{22}+\ldots+E_{rr}, por lo que

    \[A=PJ_rQ=A_1+A_2+\ldots+A_r.\]

Además, como E_{ii} es de rango 1, por el teorema PJQ cada matriz A_i es de rango 1.

Veamos que es imposible con menos. Si B_1,\ldots,B_s son matrices de rango 1, como el rango es subaditivo tenemos que \rank (B_1+\ldots+B_s)\leq s. Así, si sumamos menos de r matrices, no podemos obtener a A.

\square

Tarea moral

Los siguientes ejercicios no forman parte de la evaluación del curso, pero te servirán para entender mucho mejor los conceptos vistos en esta entrada, así como temas posteriores.

  • Termina de hacer la reducción gaussiana del primer ejemplo.
  • Sea T una transformación de un espacio vectorial V de dimensión finita a si mismo. Usa el teorema de rango-nulidad para mostrar que si T es inyectiva o suprayectiva, entonces es biyectiva.
  • Determina el rango de la matriz

        \[\begin{pmatrix} 0 & 0 & 0 & 8 & 3\\ 7 & 8 & -1 & -2 & 0\\ 3 & -1 & 4 & 4 & -9\end{pmatrix}.\]

  • Demuestra que aplicar operaciones elementales a una matriz no cambia su rango.
  • Demuestra que matrices similares tienen el mismo rango.
  • Demuestra por inducción que para matrices A_1,\ldots, A_n del mismo tamaño tenemos que

        \[\rank (A_1+\ldots+A_n)\leq \sum_{i=1}^n \rank(A_i).\]

  • Escribe la demostración de la última proposición de la sección del teorema PJQ
  • Revisa la demostración del teorema de descomposición PJQ en el libro de Titu Andreescu.

Más adelante…

Esta entrada es solamente una breve introducción al concepto de rango y a algunas propiedades que pueden ser de utilidad al momento de calcular el rango de una matriz o una transformación lineal. Más adelante, veremos que el rango de una matriz está también relacionado con las soluciones de su sistema lineal homogéneo asociado.

El teorema de rango-nulidad es fundamental para el álgebra lineal. Muchas veces necesitamos calcular el rango de la imagen de una transformación lineal, pero es mucho más fácil calcular la dimensión de su kernel. O viceversa. En estas situaciones es muy importante recordar la forma en la que dicho teorema las relaciona.

Con este tema termina la segunda unidad del curso. Ahora estudiaremos aspectos un poco más geométricos de espacios vectoriales. En la siguiente unidad, hablaremos de dualidad, ortogonalidad, formas bilineales y productos interiores.

Entradas relacionadas