Archivo de la etiqueta: polinomios

Álgebra Lineal II: Existencia de la forma canónica de Jordan

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores demostramos que para cualquier matriz nilpotente existe (y es única) una matriz similar muy sencilla, hecha por lo que llamamos bloques de Jordan de eigenvalor cero. Lo que haremos ahora es mostrar una versión análoga de este resultado para una familia mucho más grande de matrices. De hecho, en cierto sentido tendremos un resultado análogo para todas las matrices.

Pensando en ello, lo que haremos en esta entrada es lo siguiente. Primero, generalizaremos nuestra noción de bloques de Jordan para contemplar cualquier eigenvalor. Estudiaremos un poco de los bloques de Jordan. Luego, enunciaremos el teorema que esperamos probar. Finalmente, daremos el primer paso hacia su demostración. En la siguiente entrada terminaremos la demostración y hablaremos de aspectos prácticos para encontrar formas canónicas de Jordan.

Enunciado del teorema de la forma canónica de Jordan

A continuación definimos a los bloques de Jordan para cualquier eigenvalor y tamaño.

Definición. Sea $F$ un campo. El bloque de Jordan de eigenvalor $\lambda$ y tamaño $k$ es la matriz $J_{\lambda,k}$ en $M_k(F)$ cuyas entradas son todas $\lambda$, a excepción de las que están inmediatamente arriba de la diagonal superior, las cuales son unos. En símbolos, $J_{\lambda,k}=[a_{ij}]$ con $$a_{ij}=\begin{cases} 1 & \text{si $j=i+1$}\\ \lambda & \text{si $i=j$} \\ 0 & \text{en otro caso.} \end{cases}$$

También podemos expresarlo de la siguiente manera:

$$J_{\lambda,k}=\begin{pmatrix} \lambda & 1 & 0 & \cdots & 0 & 0 \\ 0 & \lambda & 1 & \cdots & 0 & 0 \\ 0 & 0 & \lambda & \cdots & 0 & 0 \\ & \vdots & & \ddots & & \vdots \\ 0 & 0 & 0 & \cdots & \lambda & 1 \\ 0 & 0 & 0 & \cdots & 0 & \lambda \end{pmatrix},$$ en donde estamos pensando que la matriz es de $k\times k$.

Una última manera en la que nos convendrá pensar a $J_{\lambda,k}$ es en términos de los bloques de Jordan de eigenvalor cero: $J_{\lambda,k}=\lambda I_k + J_{0,k}$.

Definición. Una matriz de bloques de Jordan en $M_n(F)$ es una matriz diagonal por bloques en la que cada bloque en la diagonal es un bloque de Jordan.

Lo que nos gustaría demostrar es el siguiente resultado. En él, piensa en $\leq$ como algún orden total fijo de $F$ (para $\mathbb{R}$ es el orden usual, pero otros campos no necesariamente tienen un orden natural asociado).

Teorema. Sea $V$ un espacio vectorial de dimensión finita $n$ sobre el campo $F$ y $T:V\to V$ una transformación lineal tal que $\chi_T(X)$ se divide sobre $F$. Entonces, existen únicos valores $\lambda_1\leq \ldots \leq \lambda_n$ en $F$ y únicos enteros $k_1,\ldots,k_d$ tales que \begin{align*} &k_1+k_2+\ldots+k_d = n,\\ &k_1\leq k_2 \leq \ldots \leq k_d,\end{align*} para los cuales existe una base de $V$ en la cual $T$ tiene como forma matricial a la siguiente matriz de bloques de Jordan:

$$\begin{pmatrix} J_{\lambda_1,k_1} & 0 & \cdots & 0 \\ 0 & J_{\lambda_2,k_2} & \cdots & 0 \\ \vdots & & \ddots & \vdots \\ 0 & 0 & \cdots & J_{\lambda_d,k_d}\end{pmatrix}.$$

Por supuesto, este teorema también tiene una versión matricial, la cuál tendrás que pensar cómo escribir.

Un teorema de descomposición de kernels

Ya tenemos uno de los ingredientes que necesitamos para dar la demostración de la existencia de la forma canónica de Jordan: su existencia para las transformaciones nilpotentes. Otro de los ingredientes que usaremos es el teorema de Cayley-Hamilton. El tercer ingrediente es un resultado de descoposición de kernels de transformaciones evaluadas en polinomios.

Proposición. Sea $V$ un espacio vectorial sobre $F$. Sea $T:V\to V$ una transformación lineal. Y sean $P_1(X),\ldots,P_r(X)$ polinomios en $F[x]$ cuyo máximo común divisor de cualesquiera dos de ellos es el polinomio $1$. Entonces, $$\ker((P_1P_2\cdots P_r)(T))=\bigoplus_{i=1}^r \ker(P_i(T)).$$

Demostración. Para cada $i\in \{1,2,\ldots,r\}$ consideraremos a $Q_i(X)$ como el polinomio que se obtiene de multiplicar a todos los polinomios dados, excepto $P_i(X)$. Y por comodidad, escribiremos $P(X)=(P_1\cdots P_r)(X)$. Notemos que entonces $P(X)=(Q_iP_i)(X)$ para cualquier $i\in\{1,2,\ldots,r\}$.

Primero probaremos un resultado polinomial auxiliar. Veremos que $Q_1(X),\ldots,Q_r(X)$ tienen como máximo común divisor al polinomio $1$. En caso de no ser así, un polinomio $D(X)$ no constante dividiría a todos ellos. Sin pérdida de generalidad, $D$ es irreducible (tomando, por ejemplo $D(X)$ de grado mínimo con esta propiedad). Como $D(X)$ es irreducible y divide a $Q_r(X)$, entonces debe dividir a alguno de los factores de $Q_r(X)$, que sin pérdida de generalidad (por ejemplo, reetiquetando), es $P_1(X)$. Pero $D(X)$ también divide a $Q_1(X)$, así que debe dividir a alguno de sus factores $P_2(X),\ldots,P_r(X)$, sin pérdida de generalidad a $P_2(X)$. Pero entonces $D(X)$ divide a $P_1(X)$ y $P_2(X)$, lo cual contradice las hipótesis. Así, $Q_1(X),\ldots,Q_r(X)$ tienen como máximo común divisor al polinomio $1$. Por el lema de Bézout para polinomios (ver tarea moral), existen entonces polinomios $R_1(X),\ldots,R_r(X)$ tales que

\begin{equation}
\label{eq:bezout}(R_1Q_1 + R_2Q_2 + \ldots + R_rQ_r)(X)=1.
\end{equation}

Estamos listos para pasar a los argumentos de álgebra lineal. Veamos primero que cualquier elemento en la suma de la derecha está en el kernel de $P(T)$. Tomemos $v=v_1+\ldots+v_r$ con $v_i\in \ker(P_i(T))$. Al aplicar $P$ obtenemos

\begin{align*}
P(v)&=P(v_1)+\ldots+P(v_r)\\
&=Q_1(P_1(v_1))+\ldots+Q_r(P_r(v_r))\\
&=0+\ldots+0=0.
\end{align*}

Esto muestra que $v\in \ker(P(T))$, de donde se obtiene la primera contención que nos interesa.

Veamos ahora la segunda contención, que $\ker(P(T))=\bigoplus_{i=1}^r \ker(P_i(T))$. Tomemos $v\in \ker(P(T))$. Al aplicar \eqref{eq:bezout} en $T$ y evaluar en $v$ obtenemos que

\begin{align*}
v&=\text{Id}(v)=(1)(T)(v)\\
&=(R_1Q_1 + R_2Q_2 + \ldots + R_rQ_r)(T)(v)\\
&=(R_1Q_1)(T)(v)+\ldots+(R_rQ_r)(T)(v).
\end{align*}

Pero esto justo expresa a $v$ como elemento de $\ker(P_i(T))$ pues para cada $i$ tenemos

\begin{align*}
P_i(T)((R_iQ_i)(T)(v))&=(P_iR_i Q_i )(T)(v)\\
&=(R_i Q_i P_i)(T)(v)\\
&=R_i(T)P(T)(v)\\
&=R_i(0)=0,
\end{align*}

de modo que expresamos a $v$ como suma de vectores en $\ker(P_1(T)),\ldots,\ker(P_r(T))$.

Ya demostramos la igualdad de conjuntos, pero recordemos que en la igualdad de suma directa hay otra cosa que hay que probar: que el cero tiene una forma única de expresarse como suma de elementos de cada subespacio (aquella en donde cada elemento es cero). Supongamos entonces que $$0=v_1+\ldots+v_r$$ con $v_i\in \ker(P_i(T))$ para cada $i$. Si aplicamos $Q_i$ en esta igualdad, como tiene todos los factores $P_j$ con $j\neq i$ obtenemos $$0=Q_i(0)=Q_i(v_i).$$

Por otro lado, al aplicar nuevamente \eqref{eq:bezout} en $T$ y evaluar en $v_i$

\begin{align*}
v_i&=\text{Id}(v_i)=(1)(T)(v_i)\\
&=(R_1Q_1 + R_2Q_2 + \ldots + R_rQ_r)(T)(v_i)\\
&=(R_1Q_1)(T)(v_1)+\ldots+(R_rQ_r)(T)(v_i)\\
&=(R_iQ_i)(T)(v_i)\\
&=0.
\end{align*}

De esta forma, en efecto tenemos que los espacios están en posición de suma directa, que era lo último que nos faltaba verificar.

$\square$

Existencia de la forma canónica de Jordan

Estamos listos para demostrar la existencia de la forma canónica de Jordan. Supongamos que $V$ es un espacio vectorial de dimensión finita $n$ sobre $F$ y que $T:V\to V$ es una transformación lineal cuyo polinomio característico se divide en $F[x]$. Sabemos entonces que es de la siguiente forma:

$$\chi_T(X)=(X-\lambda_1)^{m_1}(X-\lambda_2)^{m_2}\cdots(X-\lambda_r)^{m_r},$$

donde $\lambda_1,\ldots,\lambda_r$ son eigenvalores distintos de $T$ y $m_1,\ldots,m_r$ son las multiplicidades algebraicas respectivas de estos eigenvalores como raíces de $\chi_T(X)$.

Por el teorema de Cayley-Hamilton, sabemos que $\chi_T(T)=0$, de modo que $\ker(\chi_T(T))=V$. Por la proposición de descomposición de la sección anterior aplicada a los polinomios $P_i(X)=(X-\lambda_i)^{m_i}$ (verifica que son primos relativos dos a dos) para $i\in\{1,\ldots,r\}$ tenemos entonces que $$V=\bigoplus_{i=1}^r \ker((T-\lambda_i \text{id})^{m_i}).$$

Pero, ¿cómo es la transformación $T-\lambda_i \text{id}$ restringida a cada $\ker((T-\lambda_i \text{id})^{m_i})$? ¡Es nilpotente! Precisamente por construcción, $(T-\lambda_i \text{id})^{m_i}$ se anula totalmente en este kernel. Así, por la existencia de la forma canónica de Jordan para matrices nilpotentes, hay una base $\beta_i$ para cada $\ker((T-\lambda_i \text{id})^{m_i})$ tal que $T-\lambda_i \text{id}$ restringida a ese kernel tiene como forma matricial una matriz $J_i$ de bloques de Jordan de eigenvalor cero. Pero entonces $T$ (restringida a dicho kernel) tiene como forma matricial a $J_i+\lambda_i I_{m_i}$, que es una matriz de bloques de Jordan de eigenvalor $\lambda$.

Con esto terminamos: como $V$ es la suma directa de todos esos kernel, la unión de bases $\beta_1,\ldots,\beta_r$ es una base para la cual $T$ tiene como forma matricial a una matriz de bloques de Jordan.

$\square$

Más adelante…

Hemos demostrado la existencia de la forma canónica de Jordan, pero aún nos falta demostrar su unicidad. Además de esto, también necesitaremos un mejor procedimiento para encontrarla. Haremos eso en la siguiente entrada.

Tarea moral

  1. Enuncia el teorema de la forma canónica de Jordan versión matrices.
  2. Investiga más sobre el lema de Bézout para polinomios y cómo se demuestra. Después de esto, expresa al polinomio $1$ como combinación lineal de los polinomios $x^2-1, x^3+1, x^2+5x+4$.
  3. Verifica que los polinomios $P_i(X)=(X-\lambda_i)^{k_i}$ de la demostración de la existencia de la forma canónica de Jordan cumplen las hipótesis de la proposición de descomposición de kernels.
  4. Sea $F$ un campo y $r,s$ elementos en $F$. Sea $n$ un entero. Demuestra que los bloques de Jordan $J_{r,n}$ y $J_{s,n}$ en $M_n(F)$ conmutan.
  5. Siguiendo las ideas de la demostración de existencia, encuentra la forma canónica de Jordan de la matriz $$\begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 1 & 1 & 1 \\ 0 & 0 & 2 & 2 \\ 0 & 0 & 0 & 2 \end{pmatrix}.$$

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Geometría Analítica I: Polinomios cuadráticos y curvas cuadráticas

Por Leonardo Ignacio Martínez Sandoval

Introducción

Lo primero que queremos determinar en un problema de clasificación es cuáles son los objetos que clasificaremos. En esta entrada los definimos con toda precisión: serán los polinomios cuadráticos en dos variables y las curvas cuadráticas.

Los primeros son expresiones algebraicas que mezclan a dos variables $x$ y $y$ mediante sumas y productos, pero teniendo grado dos. Las segundas son aquellos conjuntos del plano en donde se anula un polinomio cuadrático.

Polinomios cuadráticos en dos variables

Comencemos con una definición algebraica.

Definición. Un polinomio cuadrático en dos variables $P$ es una función $P:\mathbb{R}^2\to \mathbb{R}$ de la forma $$P((x,y))=Ax^2+Bxy+Cy^2+Dx+Ey+F,$$ para algunos reales $A,B,C,D,E,F$, en donde alguno de $A$, $B$ ó $C$ es distinto de cero.

En ocasiones, para abreviar «polinomio cuadrático en dos variables» simplemente usaremos las siglas «PCDV».

Ejemplo. Todas las expresiones que aparecen en las cónicas canónicas que hemos estudiado son PCDVs. Por ejemplo, la ecuación canónica de la elipse $$\frac{x^2}{a^2}+\frac{y^2}{b^2}=1$$ puede reescribirse como $$b^2x^2+a^2y^2-a^2b^2=0.$$ Del lado izquierdo de esta igualdad tenemos un PCDV. De manera similar, la ecuación canónica de la parábola $y^2=4px$ puede reescribirse como $y^2-4px=0$. Una vez más al lado izquierdo nos aparece un PCDV.

$\triangle$

Ejemplo. Si consideramos las dos rectas $3x+5y+1=0$ y $2x-2y+1=0$ y «multiplicamos» sus ecuaciones, entonces obtenemos de nuevo un PCDV pues el producto es:

\begin{align*}
(3x+5y+1)(2x-2y+1)&=6x^2-6xy+3x+10xy-10y^2+5y+2x-2y+1\\
&=6x^2+4xy-10y^2+5x+3y+1.
\end{align*}

$\triangle$

Curvas cuadráticas

Cuando tenemos una expresión algebraica que depende de dos variables $x$ y $y$, entonces podemos preguntarnos por cómo es la figura geométrica que se obtiene al considerar los puntos $(x,y)$ del plano que hacen que la expresión algebraica sea igual a cero. Un ejemplo de esto es cuando consideramos las expresiones del estilo $Ax+By+C$. Las parejas $(x,y)$ que hacen que esta expresión sea igual a cero forman una recta en el plano. En efecto, forman la recta en forma normal dada por la ecuación $(A,B)\cdot (x,y)=-C$, como puedes verificar.

Esta idea es mucho más general. A partir de los polinomios cuadráticos en dos variables también podemos hacernos la misma pregunta: ¿cómo se ven las parejas $(x,y)$ que anulan un polinomio cuadrático? La respuesta será importante, así que las figuras que se construyen así les damos su propio nombre.

Definición. Una curva cuadrática es el conjunto de puntos $(x,y)$ del plano que anulan a un polinomio cuadrático en dos variables $P$. En otras palabras, es un conjunto de la forma $$\mathcal{C}:=\{(x,y)\in \mathbb{R}^2: Ax^2+Bxy+Cy^2+Dx+Ey+F = 0\}.$$

A $P$ le llamamos el polinomio asociado a $\mathcal{C}$. A $\mathcal{C}$ le llamamos la curva descrita (o dada) por $P$. Quizás usaremos terminología un poco distinta, pero que siga dejando evidente que $P$ y $\mathcal{C}$ están relacionados.

Ejemplo. Ya hemos estudiado anteriormente algunas curvas cuadráticas: las cónicas canónicas. Por ejemplo, si tomamos el PCDV $P((x,y))=4x^2-9y^2-36$ y nos preguntamos para cuáles parejas $(x,y)$ esto es igual a cero, como respuesta tenemos que son aquellas parejas $(x,y)$ tales que $ 4x^2-9y^2-36=0$, lo cual podemos reescribir como $$\frac{x^2}{9}-\frac{y^2}{4}=1.$$ Esta es la hipérbola canónica de semieje mayor $3$ y semieje menor $2$. Podemos verla en la siguiente figura.

$\triangle$

Ejemplo. ¿Qué sucede si nos fijamos en la curva descrita por el polinomio cuadrático en dos variables $$ 6x^2+4xy-10y^2+5x+3y+1$$ que construimos en un ejemplo anterior? Si recuerdas, obtuvimos este polinomio cuadrático en dos variables a partir de multiplicar dos expresiones. De esta forma, tenemos que $$ 6x^2+4xy-10y^2+5x+3y+1=0$$ si y sólo si $$ (3x+5y+1)(2x-2y+1) =0.$$ Pero el producto de dos cosas es igual a cero si y sólo si alguna es igual a cero. Así, alguna de las expresiones $3x+5y+1$ y $2x-2y+1$ debe ser igual a cero. Si la primera es cero, entonces $(x,y)$ es un punto en la recta normal $\ell_1$ de ecuación $(3,5)\cdot (x,y) = -1$. Si la segunda es cero, entonces $(x,y)$ es un punto en la recta normal $\ell_2$ de ecuación $(2,-2)\cdot(x,y) = -1$. Así, la curva cuadrática descrita por el PCDV es la unión de $\ell_1$ con $\ell_2$. Podemos verla en la siguiente figura.

$\triangle$

Forma matricial de polinomios cuadráticos en dos variables

Cuando trabajamos con rectas, nos convenía tener varias formas de expresarlas: la forma paramétrica ayudaba a determinar fácilmente el paralelismo, la forma baricéntrica nos daba fórmulas sencillas para los puntos medios, la forma normal nos permitía encontrar distancias, etc. Así mismo, cuando trabajamos con polinomios cuadráticos en dos variables es de ayuda tener más de una expresión.

Podemos reescribir un polinomio cuadrático en dos variables $$P((x,y))=Ax^2+Bxy+Cy^2+Dx+Ey+F$$ de una manera más compacta usando multiplicación matricial. Para ello, definimos $$M=\begin{pmatrix} A & \frac{B}{2} \\ \frac{B}{2} & C \end{pmatrix}, k=\begin{pmatrix} D \\ E \end{pmatrix}, v=\begin{pmatrix} x \\ y \end{pmatrix}.$$ Con esta notación, e interpretando a las matrices de $1\times 1$ como reales, tenemos que $P$ se puede reescribir de la siguiente manera: $$P(v)=v.$$

En efecto, al realizar las operaciones en el lado derecho obtenemos:

\begin{align*}
v^t M v + k^t v + F &=\begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} A & \frac{B}{2} \\ \frac{B}{2} & C \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + \begin{pmatrix} D & E \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + F\\
&=\begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} Ax + \frac{B}{2} y \\ \frac{B}{2} x + C y \end{pmatrix} + Dx + Ey + F\\
&=Ax^2 + Bxy + Cy^2+Dx+Ey+F.
\end{align*}

Observa que cuando pasamos un polinomio cuadrático en dos variables a forma matricial entonces siempre obtenemos una matriz $M$ simétrica.

Ejemplo. La forma matricial del PCDV que encontramos anteriormente $$6x^2+4xy-10y^2+5x+3y+1$$ es

$$ \begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} 6 & 2 \\ 2 & 10 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + \begin{pmatrix} 5 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + 1.$$

nota que el coeficiente de $xy$ se tuvo que dividir entre $2$ para llegar a las entradas de la matriz. Es importante recordar esto al pasar de la forma en coordenadas a la forma matricial.

$\triangle$

En caso de ser necesario, también podemos pasar fácilmente de la forma matricial de un polinomio cuadrático en dos variables a su forma en coordenadas.

Ejemplo. Si comenzamos con el polinomio cuadrático en dos variables con forma matricial $$ \begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} 2 & -1 \\ -1 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + \begin{pmatrix} 0 & -3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} – 1, $$

entonces su forma en coordenadas es $$2x^2-2xy+3y^2 – 3y -1.$$

Observa que las entradas $-1$ fuera de la diagonal principal de la matriz al salir se duplican para conformar el coeficiente de $xy$. Es importante recordar esto al pasar de forma matricial a forma en coordenadas.

$\triangle$

Más adelante…

En esta entrada definimos qué son los polinomios cuadráticos en dos variables y qué son las curvas cuadráticas.

Por un lado, mencionamos que todas las ecuaciones de cónicas canónicas que hemos visto tienen polinomios cuadráticos en dos variables. ¿Será que todas las ecuaciones de cónicas también tienen polinomios cuadráticos en dos variables? Por otro lado, vimos que algunas curvas cuadráticas son cónicas. Pero nos pasó algo un poco raro: en un ejemplo salieron dos rectas que se intersectan, que quizás estrictamente no pensamos como una cónica usual (elipse, hipérbola, parábola).

¿Cómo serán todas las curvas cuadráticas? ¿Serán sólo las cónicas usuales y algunas excepciones o podrán tener formas muy extrañas? Eso lo estudiaremos después.

También en esta entrada vimos la forma matricial de un polinomio cuadrático en dos variables. De momento, no hemos hablado de la utilidad que tiene pensar a un PCDV así. Sin embargo, en la siguiente entrada veremos que esta expresión es fundamental para ver qué sucede cuando «combinamos» un polinomio cuadrático con una transformación afín.

Tarea moral

  1. Usa alguna herramienta tecnológica (como GeoGebra) para trazar las curvas cuadráticas descritas por los siguientes polinomios cuadráticos en dos variables:
    • $x^2-2xy+3y^2+x-5y+7$
    • $3y^2+5y+x$
    • $x^2+y^2-5x-5y+3$
    • $xy-x-y+7$
    • $-x^2+2xy-3y^2-x+5y-7$
  2. Sea $P:\mathbb{R}^2\to \mathbb{R}$ dada por $P((x,y))=(Ax+By+C)(Dx+Ey+F)$. Demuestra que $P$ es un polinomio cuadrático en dos variables. Luego, demuestra que:
    1. Si $AE-BD\neq 0$, entonces la curva cuadrática dada por $P$ es la unión de dos rectas que se intersectan.
    2. Si $AE-BD=0$, entones la curva cuadrática dada por $P$ es la unión de dos rectas paralelas (no necesariamente distintas).
  3. Demuestra que la intersección de una recta con una curva cuadrática sólo puede ser:
    1. Vacía,
    2. Un punto,
    3. Dos puntos, o
    4. Una infinidad de puntos.
  4. Demuestra que cualquier curva cuadrática $\mathcal{C}$ puede ser descrita a través de una infinidad de polinomios cuadráticos en dos variables.
  5. Considera la gráfica de la función $f(x)=\sin(x)$. ¿Será que esta gráfica es una curva cuadrática? Intenta demostrar por qué sí o por qué no.

Entradas relacionadas

Geometría Analítica I: Equivalencia de polinomios y reducción de polinomios cuadráticos

Por Paola Lizeth Rojas Salazar

Introducción

En las entradas anteriores, estuvimos hablando de la clasificación de las curvas cuadráticas módulo transformaciones afines (las $G$-equivalencias), en esta entrada, vamos a responder preguntas para saber cuándo tienen sentido estas clasificaciones. Estas preguntas, principalmente derivan en la equivalencia de polinomios y la reducción de polinomios cuadráticos.

Equivalencia de polinomios

Antes de definir la equivalencia de polinomios, es importante preguntarnos si las imágenes afínes de curvas cuadráticas son de nuevo curvas cuadráticas.

Para responder la pregunta anterior, considera una curva cuadrática $C$ y una transformación afín $g \in Af(2)$. Entonces, existe un polinomio $P$ que define a $C$, es decir, que se cumple la siguiente igualdad:

\begin{equation} C=C(P)=\{x\in \mathbb R^2|P(x)=0\}\end{equation}

Dado lo anterior, podemos afirmar que:

\begin{equation} g(C)=\{y \in \mathbb R^2|(P\circ g^{-1})(y)=0\}\end{equation}

Demostración

$\subset$

Observemos que cualquier punto en $g(C)$ es de la forma $g(x)$ con $x\in C$, esto implica que $P(x)=0$. Entonces:

\begin{equation} (P\circ g^{-1})(g(x))=P(g^{-1}(g(x)))=P(x)=0\end{equation}

Entonces $g(x)\in\{y \in \mathbb R^2|(P\circ g^{-1})(y)=0\}$ y, finalmente,

\begin{equation} g(C)\subset\{y \in \mathbb R^2|(P\circ g^{-1})(y)=0\}\end{equation}

$\supset$

Sea $Y$ tal que $(P\circ g^{-1})(y)=0$, si definimos $x:=g^{-1}(y)$, entonces $P(x)=(P\circ g^{-1})(y)=0$.

Entonces, $x\in C$, lo que implica que $y=g(x)\in g(C)$. Finalmente:

\begin{equation} g(C)\supset\{y \in \mathbb R^2|(P\circ g^{-1})(y)=0\}\end{equation}

Lo que termina la demostración.

Observa que en la demostración anterior, solo se usó que $C$ estuviera definida como los ceros de una función y que $g$ fuera invertible, pero, ¿$g(C)$ es una curva cuadrática? Sí, lo anterior lo vemos en el siguiente lema:

Lema 4.1: Sea $C$ una curva cuadrática y $g\in Af(2)$, entonces $g(C)$ también es una curva cuadrática. Además, si $C=C(P)$, entonces $g(C)=C(P\circ g^{-1})$

Demostración

Si $P$ es un polinomio cuadrático y $g$ una transformación afín, entonces, $(P\circ g):\mathbb R^2 \to \mathbb R$ también es un polinomio cuadrático.

Y como las dos coordenadas de $g$ son polinomios lineales y $P\circ g$ es cuadrático, al sustituir ambos polinomios, obtendremos un polinomio con monomios de grado a lo más $2$.

Entonces $g(C)$ también es una curva cuadrática.

Con lo que termina la demostración.

Definición: Sea $G$ un subgrupo de $Af(2)$.

Decimos que dos polinomios cuadráticos $P_1$ y $P_2$ son $G-equivalentes$ o equivalentes módulo $G$ ($P_1\sim^G P_2$), si existen $g\in G$ y $k\in \mathbb R$, con $k\neq 0$, tales que $kP_1=P_2\circ g$. $(*)$

Finalmente, tenemos el siguiente teorema que relaciona esta entrada con la entrada anterior en la que se clasificó a las curvas cuadráticas:

Teorema 4.2: Sea $P$ un polinomio cuadrático en dos variables $x, y$. Entonces $P$ es afinmente equivalente a uno y solo uno de los polinomios que clasificamos en la entrada anterior.

Reducción de polinomios cuadráticos

Ahora veremos cómo reducir o simplificar un polinomio cuadrático, usando coordenadas afines. Para esto, vamos a simplificar los polinomios con matrices y vectores.

Recordemos que el polinomio general de segundo grado se puede escribir como:

\begin{equation}P(x,y)=ax^2+2bxy+cy^2+dx+ey+f\end{equation}

Ahora considera un vector variable $x^T=(x,y)$ y a la matriz $A$ y un vector $k$ definidos de la siguiente forma:

\begin{equation}A:=\begin{pmatrix} a & b \\ b & c \end{pmatrix}, \hspace{1cm} k=\begin{pmatrix} d \\ e\end{pmatrix}\end{equation}

Con estos datos, podemos escribir $P$ como:

\begin{equation} P(x)=x*Ax+k*x+f\end{equation}

Con $A=A^T\neq 0$.

A esta expresión se le conoce como la expresión vectorial del P.

Tarea moral

  1. Demuestra que, la relación definida en $(*)$ es de equivalencia.
  2. Demuestra el Teorema 4.2.
  3. Muestra que, la expresión en $(8)$, es cierta.
  4. Demuestra que, para un subgrupo $G$ de $Af(2)$, la relación de ser $G$-equivalentes, es una relación de equivalencia en los polinomios cuadráticos de dos variables.
  5. Da una expresión general para un polinomio cuadrático en tres variables $x,y,z$ y luego define una expresión vectorial para él.
  6. Encuentra la matriz simétrica $A$ y el vector constante $k$ que dan la expresión vectorial de los siguientes polinomios cuadráticos:
    • $x^2+2y^2-6x+4y+3$
    • $2xy-6x-4y-4$

Más adelante

En la siguiente entrada, vamos a usar los conocimientos adquiridos de esta entrada, para encontrar el centro y los ejes de las cónicas.

Álgebra Lineal II: Diagonalizar

Por Julio Sampietro

Introducción

En la entrada anterior estudiamos la triangularización de matrices, que consistía en llevar matrices a una forma triangular superior. En esta fortaleceremos esta idea, y buscaremos maneras de llevar una matriz a una matriz diagonal: a este proceso se le conoce como diagonalizar.

Matrices y transformaciones diagonalizables

A lo largo de esta sección fijamos $F$ un campo. Todos los espacios vectoriales se asumirán de dimensión finita.

Definición. Una matriz $A\in M_n(F)$ es llamada diagonalizable si es similar a una matriz diagonal en $M_n(F)$.

Una transformación lineal $T:V\to V$ sobre un espacio vectorial $V$ se llama diagonalizable si existe una base de $V$ tal que la matriz de $T$ respecto a esa base sea diagonal.

Es decir una matriz $A\in M_n(F)$ es diagonalizable si y sólo si podemos escribir

\begin{align*}
A=PDP^{-1}
\end{align*}

para alguna matriz invertible $P\in M_n(F)$ y una matriz diagonal $D=[d_{ij}]\in M_n(F)$. Nota que la definición implica que cualquier matriz similar a una matriz diagonalizable es a su vez diagonalizable. De misma manera, una transformación lineal es diagonalizable si su representación es diagonalizable respecto a cualquier base (aunque no será necesariamente diagonal en cualquier base).

Damos la siguiente caracterización de transformaciones diagonalizables.

Teorema. Una transformación lineal $T:V\to V$ es diagonalizable si y sólo si $V$ tiene una base compuesta por eigenvectores de $T$.

Demostración. Supongamos que $T$ es diagonalizable. Por tanto existe una base $v_1,\dots, v_n$ de $V$ tal que la matriz asociada a $T$ en esta base es diagonal. Si $(a_{ii})_{i=1}^{n}$ son las entradas diagonales de $A$, entonces por definición $T(v_{i})=a_{ii} v_i$ para todo $i=1,\dots, n$. Luego $v_1,\dots, v_n$ es una base de $V$ compuesta por eigenvectores de $T$.

Conversamente, supongamos que $T$ tiene una base $v_1,\dots, v_n$ compuesta por eigenvectores de $T$. Si $T(v_i)=d_i v_i$ entonces la matriz respecto a $v_1,\dots, v_n$ de $T$ es diagonal con entradas $d_i$.

$\square$

Primeras propiedades

Tenemos dos observaciones inmediatas.

Observación. El teorema nos proporciona una manera de diagonalizar explícitamente una matriz. Si $A\in M_n(F)$ es diagonalizable, entonces encontramos una base de $V=F^n$ formada por eigenvectores y los acomodamos como columnas de una matriz $P$. Entonces $P^{-1}AP=D$ es diagonal y $A=PDP^{-1}$.

Observación. Supongamos que $A$ es diagonalizable y que $A=PDP^{-1}$ para alguna matriz diagonal $D$ y una matriz invertible $P$.

  1. El polinomio característico de $A$ y de $D$ es el mismo, puesto que son matrices similares. De esto deducimos que
    \begin{align*}
    \prod_{i=1}^{n}(X-d_{ii})=\chi_{A}(X).
    \end{align*}
    En particular, los eigenvalores de $A$ son las entradas diagonales de $D$ (contados con multiplicidad).
  2. Sea $\lambda\in F$ un eigenvalor de $A$. Entonces la multiplicidad algebraica es igual al número de índices $i=1,\dots, n$ tales que $d_{ii}=\lambda$ (esto por el inciso anterior). Por otro lado, la dimensión geométrica de $\lambda$ como eigenvalor de $A$ o $D$ es la misma puesto que la asignación $X\mapsto P^{-1}X$ induce un isomorfismo entre $\ker(\lambda I_n-A)$ y $\ker(\lambda I_n-D)$. Pero además la multiplicidad geométrica de $\lambda$ como eigenvalor de $D$ también coincide con el número de índices $i=1,\dots, n$ tales que $\lambda_{ii}=n$, ya que el sistema $DX=\lambda X$ es equivalente a $(d_{ii}-\lambda )x_i=0$. Concluimos que en una matriz diagonalizable, la multiplicidad algebraíca y la multiplicidad geométrica coinciden.

Un par de problemas

A continuación resolvemos un par de problemas: el primero sirve para aplicar lo que hemos visto hasta ahora, y el segundo nos será útil más adelante.

Problema 1. Demuestra que la matriz

\begin{align*}
A=\begin{pmatrix}
1 & a\\ 0 & 1\end{pmatrix}
\end{align*}

no es diagonalizable si $a\neq 0$.

Solución. Supongamos que $A$ es diagonalizable y escribamos $A=PDP^{-1}$ con $P$ invertible y $D$ diagonal. Como $A$ es triangular superior con entradas diagonales iguales a $1$, deducimos que $1$ es el único eigenvalor de $A$. Por la observación anterior tenemos que las entradas diagonales de $D$ son $1$, por tanto $D=I_n$. Pero entonces $A=PI_nP^{-1}=I_n$ una contradicción si $a\neq 0$.

$\square$

El siguiente problema es más técnico, y nos servirá para demostrar uno de los teoremas fundamentales que caracteriza a las matrices diagonalizables.

Problema 2. Sea $k>1$ y sean $P_1,\dots, P_k$ polinomios primos relativos dos a dos. Si $P=P_1\cdot P_2\cdots P_k$ es su producto y $Q_i=\frac{P}{P_i}$, demuestra que los $Q_1,\dots, Q_k$ son primos relativos (es decir, no existe un polinomio que los divida a todos simultáneamente).

Solución. Supongamos que existe un polinomio $Q$ irreducible que divide a todos los $Q_i$. Puesto que $Q\mid Q_1=P_2\cdots P_k$ deducimos que $Q$ divide a $P_j$ para algún $j\in \{2,\dots, k\}$. Pero como $Q$ divide también a $Q_j$, esto quiere decir que $Q$ divide a $P_i$ para algún $i\neq j$, lo que contradice que los $P_i$ son primos relativos dos a dos.

$\square$

Un teorema de descomposición

Terminamos esta entrada con un teorema algo técnico que será de mucha utilidad en la próxima entrada, cuando caractericemos a las matrices diagonalizables.

Teorema. Sea $T$ una transformación lineal de algún espacio $V$ en si mismo (no necesariamente de dimensión finita). Entonces para cualesquiera polinomios $P_1,\dots, P_k\in F[X]$ primos relativos dos a dos se cumple que

\begin{align*}
\ker P(T)=\bigoplus_{i=1}^{k} \ker P_i(T),
\end{align*}

dónde $P=P_1\cdots P_k$.

Demostración. Consideramos a los polinomios $Q_i=\frac{P}{P_i}$ como en el problema anterior. Como son primos relativos, el teorema de Bezout nos dice que existen polinomios $R_1,\dots, R_k$ tales que

\begin{align*}
Q_1 R_1+\dots +Q_k R_k=1.
\end{align*}

Como $P_i$ divide a $P$, se sigue que $\ker P_i(T)\subset \ker P(T)$ para todo $i\in \{1,\dots, k\}$. Por otro lado si $x\in \ker P(T)$ y escribimos $x_i=(Q_i R_i)(T)(x)$, la relación anterior nos dice que

\begin{align*}
x=x_1+\dots+x_k
\end{align*}

Más aún $P_i(T)(x_i)=(P_i Q_i R_i)(T)(x)$ y $P_iQ_i R_i$ es un múltiplo de $P$. Dado que $x\in \ker P(T)\subset \ker(P_i Q_i R_i)(T)$, se sigue que $x_i\in \ker P_i(T)$, y como $x=x_1+\dots +x_k$ concluimos que

\begin{align*}
\ker P(T)=\sum_{i=1}^{k} \ker P_i(T).
\end{align*}

Queda por demostrar que si $x_i\in \ker P_i(T)$ y $x_1+\dots + x_k=0$ entonces $x_i=0$ para todo $i\in \{1,\dots, k\}$. Tenemos que

\begin{align*}
Q_1(T)(x_1)+Q_1(T)(x_2)+\dots+ Q_1(T)(x_k)=0.
\end{align*}

Pero $Q_1(T)(x_2)=\dots= Q_1(T)(x_k)=0$ dado que $Q_1$ es un múltiplo de $P_2,\dots, P_k$ y $P_2(T)(x_2)=\dots=P_k(T)(x_k)=0$. Entonces $Q_1(T)(x)=0$ y similarmente $Q_j(T)(x_j)=0$ para $j\in \{1,\dots, k\}$. Pero entonces

\begin{align*}
x_1=(R_1 Q_1)(T)(x_1)+\dots+ (R_k Q_k)(T)(x_k)=0
\end{align*}

y similarmente se demuestra que $x_2=\dots =x_k=0$. Queda demostrado el teorema.

$\square$

Más adelante…

En la próxima entrada usaremos lo demostrado en esta entrada para dar una caracterización de las matrices diagonalizables, como hicimos con las matrices triangularizables.

Tarea moral

Estos ejercicios no forman parte de la evaluación del curso, pero son útiles para practicar los conceptos vistos en esta entrada.

  1. Diagonaliza la matriz
    \begin{align*}
    A=\begin{pmatrix}
    -1 & 2\\ 4 & 1\end{pmatrix}\in M_2(\mathbb{C}).
    \end{align*}
  2. ¿Es la siguiente matriz diagonalizable?
    \begin{align*}
    B=\begin{pmatrix}
    5 & 0 & 0\\ 0 & 5 & 0\\ 1 & 0 & 5\end{pmatrix}\in M_3(\mathbb{R}).
    \end{align*}
  3. Sea $V$ un espacio vectorial de dimensión finita y $T:V\to V$ lineal. Demuestra que si $T$ es diagonalizable, entonces $T^2$ también lo es y además $\ker T=\ker T^2$.
  4. Sean $A,B\in M_n(F)$ dos matrices tales que $A$ es invertible y $AB$ es diagonalizable. Demuestra que $BA$ también lo es.
  5. Sea $A\in M_n(\mathbb{C})$ tal que existe $d>0$ con $A^{d}=I_n$. Demuestra que $A$ es diagonalizable.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Álgebra Lineal I: Problemas de combinaciones lineales, generadores e independientes

Por Leonardo Ignacio Martínez Sandoval

Introducción

En entradas anteriores ya hablamos de combinaciones lineales, de conjuntos generadores y de conjuntos independientes. Lo que haremos aquí es resolver problemas para reforzar el contenido de estos temas.

Problemas resueltos

Problema 1. Demuestra que el polinomio $p(x)=x^2+x+1$ no puede ser escrito en el espacio vectorial $\mathbb{R}[x]$ como una combinación lineal de los polinomios \begin{align*} p_1(x)=x^2-x\\ p_2(x) = x^2-1\\ p_3(x) = x-1.\end{align*}

Solución. Para resolver este problema, podemos plantearlo en términos de sistemas de ecuaciones. Supongamos que existen reales $a$, $b$ y $c$ tales que $$p(x)=ap_1(x)+bp_2(x)+cp_3(x).$$

Desarrollando la expresión, tendríamos que
\begin{align*}
x^2+x+1 &= a(x^2-x)+b(x^2-1)+c(x-1)\\
&= (a+b)x^2+(-a+c)x+(-b-c),
\end{align*}

de donde igualando coeficientes de términos del mismo grado, obtenemos el siguiente sistema de ecuaciones: $$\begin{cases}a+b & = 1\\ -a + c &= 1 \\ -b-c &= 1.\end{cases}$$

Para mostrar que este sistema de ecuaciones no tiene solución, le aplicaremos reducción gaussiana a la siguiente matriz extendida: $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ -1 & 0 & 1 & 1 \\ 0 & -1 & -1 & 1 \end{pmatrix}.$$

Tras la transvección $R_2+R_1$, obtenemos $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & -1 & -1 & 1 \end{pmatrix}.$$

Tras la transvección $R_3+R_2$, obtenemos $$\begin{pmatrix} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 2 \\ 0 & 0 & 0 & 3 \end{pmatrix}.$$

De aquí se ve que la forma escalonada reducida tendrá un pivote en la última columna. Por el teorema de existencia y unicidad el sistema original no tiene solución.

$\square$

En el problema anterior usamos un argumento de reducción gaussiana para mostrar que el sistema no tiene solución. Este es un método general que funciona en muchas ocasiones. Una solución más sencilla para ver que el sistema del problema no tiene solución es que al sumar las tres ecuaciones se obtiene $0=3$.

Problema 2. Sea $n$ un entero positivo. Sea $W$ el subconjunto de vectores en $\mathbb{R}^n$ cuya suma de entradas es igual a $0$. Sea $Z$ el espacio generado por el vector $(1,1,\ldots,1)$ de $\mathbb{R}^n$. Determina si es cierto que $$\mathbb{R}^n=W\oplus Z.$$

Solución. El espacio $Z$ está generado por todas las combinaciones lineales que se pueden hacer con el vector $v=(1,1,\ldots,1)$. Como sólo es un vector, las combinaciones lineales son de la forma $av$ con $a$ en $\mathbb{R}$, de modo que $Z$ es precisamente $$Z=\{(a,a,\ldots,a): a\in\mathbb{R}\}.$$

Para obtener la igualdad $$\mathbb{R}^n=W\oplus Z,$$ tienen que pasar las siguientes dos cosas (aquí estamos usando un resultado de la entrada de suma y suma directa de subespacios):

  • $W\cap Z = \{0\}$
  • $W+Z=\mathbb{R}^n$

Veamos qué sucede con un vector $v$ en $W\cap Z$. Como está en $Z$, debe ser de la forma $v=(a,a,\ldots,a)$. Como está en $W$, la suma de sus entradas debe ser igual a $0$. En otras palabras, $0=a+a+\ldots+a=na$. Como $n$ es un entero positivo, esta igualdad implica que $a=0$. De aquí obtenemos que $v=(0,0,\ldots,0)$, y por lo tanto $W\cap Z = \{0\}$.

Veamos ahora si se cumple la igualdad $\mathbb{R}^n=W+Z$. Por supuesto, se tiene que $W+Z\subseteq \mathbb{R}^n$, pues los elementos de $W$ y $Z$ son vectores en $\mathbb{R}^n$. Para que la igualdad $\mathbb{R}^n\subseteq W+Z$ se cumpla, tiene que pasar que cualquier vector $v=(x_1,\ldots,x_n)$ en $\mathbb{R}^n$ se pueda escribir como suma de un vector $w$ uno con suma de entradas $0$ y un vector $z$ con todas sus entradas iguales. Veamos que esto siempre se puede hacer.

Para hacerlo, sea $S=x_1+\ldots+x_n$ la suma de las entradas del vector $v$. Consideremos al vector $w=\left(x_1-\frac{S}{n},\ldots, x_n-\frac{S}{n} \right)$ y al vector $z=\left(\frac{S}{n},\ldots,\frac{S}{n}\right)$.

Por un lado, $z$ está en $Z$, pues todas sus entradas son iguales. Por otro lado, la suma de las entradas de $w$ es
\begin{align*}
\left(x_1-\frac{S}{n}\right)+\ldots + \left(x_n-\frac{S}{n}\right)&=(x_1+\ldots+x_n)-n\cdot \frac{S}{n}\\ &= S-S=0,
\end{align*}

lo cual muestra que $w$ está en $W$. Finalmente, notemos que la igualdad $w+z=v$ se puede comprobar haciendo la suma entrada a entrada. Con esto mostramos que cualquier vector de $V$ es suma de vectores en $W$ y $Z$ y por lo tanto concluimos la igualdad $\mathbb{R}^n=W\oplus Z$.

$\square$

En el problema anterior puede parecer algo mágico la propuesta de vectores $w$ y $z$. ¿Qué es lo que motiva la elección de $\frac{S}{n}$? Una forma de enfrentar los problemas de este estilo es utilizar la heurística de trabajar hacia atrás. Sabemos que el vector $w$ debe tener todas sus entradas iguales a cierto número $a$ y queremos que $z=v-w$ tenga suma de entradas igual a $0$. La suma de las entradas de $v-w$ es $$(x_1-a)+\ldots+(x_n-a)= S -na.$$ La elección de $a=\frac{S}{n}$ está motivada en que queremos que esto sea cero.

Problema 3. Considera las siguientes tres matrices en $M_2(\mathbb{C})$:
\begin{align*}
A&= \begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix}\\
B&= \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix}\\
C&= \begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix}.
\end{align*}

Demuestra que $A$, $B$ y $C$ son matrices linealmente dependientes. Da una combinación lineal no trivial de ellas que sea igual a $0$.

Solución. Para mostrar que son linealmente dependientes, basta dar la combinación lineal no trivial buscada. Buscamos entonces $a,b,c$ números complejos no cero tales que $aA+bB+cC=O_2$, la matriz cero en $M_2(\mathbb{C})$. Para que se de esta igualdad, es necesario que suceda entrada a entrada. Tenemos entonces el siguiente sistema de ecuaciones:
$$\begin{cases}
-i a + 2i b + ic &= 0\\
-3a + b -7c &=0\\
2a + 3b + 12c &= 0\\
3a -b +7c &=0.
\end{cases}$$

En este sistema de ecuaciones tenemos números complejos, pero se resuelve exactamente de la misma manera que en el caso real. Para ello, llevamos la matriz correspondiente al sistema a su forma escalonada reducida. Comenzamos dividiendo el primer renglón por $-i$ y aplicando transvecciones para hacer el resto de las entradas de la columna iguales a $0$. Luego intercambiamos la tercera y cuarta filas.

\begin{align*}
&\begin{pmatrix}
-i & 2i & i \\
-3 & 1 & -7 \\
2 & 3 & 12 \\
3 & -1 & 7
\end{pmatrix}\\
\to&\begin{pmatrix}
1 & -2 & -1 \\
0 & -5 & -10 \\
0 & 7 & 14 \\
0 & 5 & 10
\end{pmatrix}
\end{align*}

Ahora reescalamos con factor $-\frac{1}{5}$ la segunda fila y hacemos transvecciones para hacer igual a cero el resto de entradas de la columna 2:

\begin{align*}
&\begin{pmatrix}
1 & 0& 3 \\
0 & 1 & 2 \\
0 & 0 & 0 \\
0 & 0 & 0
\end{pmatrix}
\end{align*}

Con esto llegamos a la forma escalonada reducida de la matriz. De acuerdo al procedimiento que discutimos en la entrada de sistemas lineales homogéneos, concluimos que las variables $a$ y $b$ son pivote y la variable $c$ es libre. Para poner a $a$ y $b$ en términos de $c$, usamos la primera y segunda ecuaciones. Nos queda \begin{align*} a &= -3c \\ b &= -2c. \end{align*}

En resumen, concluimos que para cualqueir número complejo $c$ en $\mathbb{C}$ se tiene la combinación lineal $$-3c\begin{pmatrix} -i & -3 \\ 2 & 3 \end{pmatrix} – 2c \begin{pmatrix} 2i& 1 \\ 3 & -1 \end{pmatrix} + c\begin{pmatrix} i & -7 \\ 12 & 7 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.$$

Una posible combinación lineal no trivial se obtiene tomando $c=1$.

$\square$

En el problema anterior bastaba encontrar una combinación lineal no trivial para acabar el ejercicio. Por supuesto, esto también se puede hacer por prueba y error. Sin embargo, la solución que dimos da una manera sistemática de resolver problemas de este estilo.

Problema 4. Consideremos el espacio vectorial $V$ de funciones $f:\mathbb{R}\to \mathbb{R}$. Para cada real $a$ en $(0,\infty)$, definimos a la función $f_a\in V$ dada por $$f_a(x)=e^{ax}.$$

Tomemos reales distintos $0<a_1<a_2<\ldots<a_n$. Supongamos que existe una combinación lineal de las funciones $f_{a_1},\ldots,f_{a_n}$ que es igual a $0$, es decir, que existen reales $\alpha_1,\ldots,\alpha_n$ tales que $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0$$ para todo real $x\geq 0$.

Muestra que $\alpha_1=\ldots=\alpha_n=0$. Concluye que la familia $(f_a)_{a\in \mathbb{R}}$ es linealmente independiente en $V$.

Solución. Procedemos por inducción sobre $n$. Para $n=1$, si tenemos la igualdad $\alpha e^{ax}=0$ para toda $x$, entonces $\alpha=0$, pues $e^{ax}$ siempre es un número positivo. Supongamos ahora que sabemos el resultado para cada que elijamos $n-1$ reales cualesquiera. Probaremos el resultado para $n$ reales cualesquiera.

Supongamos que tenemos la combinación lineal $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_n e^{a_nx} = 0$$ para todo real $x\geq 0$.

Dividamos esta igualdad que tenemos entre $e^{a_nx}$:

$$\alpha_1 e^{(a_1-a_n)x} + \alpha_2e^{(a_2-a_n)x} + \ldots + \alpha_{n-1}e^{(a_{n-1}-a_n)x}+\alpha_n = 0.$$

¿Qué sucede cuando hacemos $x\to \infty$? Cada uno de los sumandos de la forma $\alpha_i e^{(a_i-a_n)x}$ se hace cero, pues $a_i<a_n$ y entonces el exponente es negativo y se va a $-\infty$. De esta forma, queda la igualdad $\alpha_n=0$. Así, nuestra combinación lineal se ve ahora de la forma $$\alpha_1 e^{a_1x} + \alpha_2e^{a_2x} + \ldots + \alpha_{n-1} e^{a_{n-1}x} = 0.$$

Por la hipótesis inductiva, $\alpha_1=\ldots=\alpha_{n-1}=0$. Como también ya demostramos $\alpha_n=0$, hemos terminado el paso inductivo.

Concluimos que la familia (infinita) $(f_a)_{a\in \mathbb{R}}$ es linealmente independiente en $V$ pues cualquier subconjunto finito de ella es linealmente independiente.

$\square$

El problema anterior muestra que la razón por la cual ciertos objetos son linealmente independientes puede deberse a una propiedad analítica o de cálculo. A veces dependiendo del contexto en el que estemos, hay que usar herramientas de ese contexto para probar afirmaciones de álgebra lineal.

Entradas relacionadas

Agradecimiento

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE104721 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM»