Archivo de la etiqueta: vectores

Geometría Analítica I: Polinomios cuadráticos y curvas cuadráticas

Por Leonardo Ignacio Martínez Sandoval

Introducción

Lo primero que queremos determinar en un problema de clasificación es cuáles son los objetos que clasificaremos. En esta entrada los definimos con toda precisión: serán los polinomios cuadráticos en dos variables y las curvas cuadráticas.

Los primeros son expresiones algebraicas que mezclan a dos variables $x$ y $y$ mediante sumas y productos, pero teniendo grado dos. Las segundas son aquellos conjuntos del plano en donde se anula un polinomio cuadrático.

Polinomios cuadráticos en dos variables

Comencemos con una definición algebraica.

Definición. Un polinomio cuadrático en dos variables $P$ es una función $P:\mathbb{R}^2\to \mathbb{R}$ de la forma $$P((x,y))=Ax^2+Bxy+Cy^2+Dx+Ey+F,$$ para algunos reales $A,B,C,D,E,F$, en donde alguno de $A$, $B$ ó $C$ es distinto de cero.

En ocasiones, para abreviar «polinomio cuadrático en dos variables» simplemente usaremos las siglas «PCDV».

Ejemplo. Todas las expresiones que aparecen en las cónicas canónicas que hemos estudiado son PCDVs. Por ejemplo, la ecuación canónica de la elipse $$\frac{x^2}{a^2}+\frac{y^2}{b^2}=1$$ puede reescribirse como $$b^2x^2+a^2y^2-a^2b^2=0.$$ Del lado izquierdo de esta igualdad tenemos un PCDV. De manera similar, la ecuación canónica de la parábola $y^2=4px$ puede reescribirse como $y^2-4px=0$. Una vez más al lado izquierdo nos aparece un PCDV.

$\square$

Ejemplo. Si consideramos las dos rectas $3x+5y+1=0$ y $2x-2y+1=0$ y «multiplicamos» sus ecuaciones, entonces obtenemos de nuevo un PCDV pues el producto es:

\begin{align*}
(3x+5y+1)(2x-2y+1)&=6x^2-6xy+3x+10xy-10y^2+5y+2x-2y+1\\
&=6x^2+4xy-10y^2+5x+3y+1.
\end{align*}

$\square$

Curvas cuadráticas

Cuando tenemos una expresión algebraica que depende de dos variables $x$ y $y$, entonces podemos preguntarnos por cómo es la figura geométrica que se obtiene al considerar los puntos $(x,y)$ del plano que hacen que la expresión algebraica sea igual a cero. Un ejemplo de esto es cuando consideramos las expresiones del estilo $Ax+By+C$. Las parejas $(x,y)$ que hacen que esta expresión sea igual a cero forman una recta en el plano. En efecto, forman la recta en forma normal dada por la ecuación $(A,B)\cdot (x,y)=-C$, como puedes verificar.

Esta idea es mucho más general. A partir de los polinomios cuadráticos en dos variables también podemos hacernos la misma pregunta: ¿cómo se ven las parejas $(x,y)$ que anulan un polinomio cuadrático? La respuesta será importante, así que las figuras que se construyen así les damos su propio nombre.

Definición. Una curva cuadrática es el conjunto de puntos $(x,y)$ del plano que anulan a un polinomio cuadrático en dos variables $P$. En otras palabras, es un conjunto de la forma $$\mathcal{C}:=\{(x,y)\in \mathbb{R}^2: Ax^2+Bxy+Cy^2+Dx+Ey+F = 0\}.$$

A $P$ le llamamos el polinomio asociado a $\mathcal{C}$. A $\mathcal{C}$ le llamamos la curva descrita (o dada) por $P$. Quizás usaremos terminología un poco distinta, pero que siga dejando evidente que $P$ y $\mathcal{C}$ están relacionados.

Ejemplo. Ya hemos estudiado anteriormente algunas curvas cuadráticas: las cónicas canónicas. Por ejemplo, si tomamos el PCDV $P((x,y))=4x^2-9y^2-36$ y nos preguntamos para cuáles parejas $(x,y)$ esto es igual a cero, como respuesta tenemos que son aquellas parejas $(x,y)$ tales que $ 4x^2-9y^2-36=0$, lo cual podemos reescribir como $$\frac{x^2}{9}-\frac{y^2}{4}=1.$$ Esta es la hipérbola canónica de semieje mayor $3$ y semieje menor $2$. Podemos verla en la siguiente figura.

$\square$

Ejemplo. ¿Qué sucede si nos fijamos en la curva descrita por el polinomio cuadrático en dos variables $$ 6x^2+4xy-10y^2+5x+3y+1$$ que construimos en un ejemplo anterior? Si recuerdas, obtuvimos este polinomio cuadrático en dos variables a partir de multiplicar dos expresiones. De esta forma, tenemos que $$ 6x^2+4xy-10y^2+5x+3y+1=0$$ si y sólo si $$ (3x+5y+1)(2x-2y+1) =0.$$ Pero el producto de dos cosas es igual a cero si y sólo si alguna es igual a cero. Así, alguna de las expresiones $3x+5y+1$ y $2x-2y+1$ debe ser igual a cero. Si la primera es cero, entonces $(x,y)$ es un punto en la recta normal $\ell_1$ de ecuación $(3,5)\cdot (x,y) = -1$. Si la segunda es cero, entonces $(x,y)$ es un punto en la recta normal $\ell_2$ de ecuación $(2,-2)\cdot(x,y) = -1$. Así, la curva cuadrática descrita por el PCDV es la unión de $\ell_1$ con $\ell_2$. Podemos verla en la siguiente figura.

$\square$

Forma matricial de polinomios cuadráticos en dos variables

Cuando trabajamos con rectas, nos convenía tener varias formas de expresarlas: la forma paramétrica ayudaba a determinar fácilmente el paralelismo, la forma baricéntrica nos daba fórmulas sencillas para los puntos medios, la forma normal nos permitía encontrar distancias, etc. Así mismo, cuando trabajamos con polinomios cuadráticos en dos variables es de ayuda tener más de una expresión.

Podemos reescribir un polinomio cuadrático en dos variables $$P((x,y))=Ax^2+Bxy+Cy^2+Dx+Ey+F$$ de una manera más compacta usando multiplicación matricial. Para ello, definimos $$M=\begin{pmatrix} A & \frac{B}{2} \\ \frac{B}{2} & C \end{pmatrix}, k=\begin{pmatrix} D \\ E \end{pmatrix}, v=\begin{pmatrix} x \\ y \end{pmatrix}.$$ Con esta notación, e interpretando a las matrices de $1\times 1$ como reales, tenemos que $P$ se puede reescribir de la siguiente manera: $$P(v)=v.$$

En efecto, al realizar las operaciones en el lado derecho obtenemos:

\begin{align*}
v^t M v + k^t v + F &=\begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} A & \frac{B}{2} \\ \frac{B}{2} & C \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + \begin{pmatrix} D & E \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + F\\
&=\begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} Ax + \frac{B}{2} y \\ \frac{B}{2} x + C y \end{pmatrix} + Dx + Ey + F\\
&=Ax^2 + Bxy + Cy^2+Dx+Ey+F.
\end{align*}

Observa que cuando pasamos un polinomio cuadrático en dos variables a forma matricial entonces siempre obtenemos una matriz $M$ simétrica.

Ejemplo. La forma matricial del PCDV que encontramos anteriormente $$6x^2+4xy-10y^2+5x+3y+1$$ es

$$ \begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} 6 & 2 \\ 2 & 10 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + \begin{pmatrix} 5 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + 1.$$

nota que el coeficiente de $xy$ se tuvo que dividir entre $2$ para llegar a las entradas de la matriz. Es importante recordar esto al pasar de la forma en coordenadas a la forma matricial.

$\square$

En caso de ser necesario, también podemos pasar fácilmente de la forma matricial de un polinomio cuadrático en dos variables a su forma en coordenadas.

Ejemplo. Si comenzamos con el polinomio cuadrático en dos variables con forma matricial $$ \begin{pmatrix} x & y \end{pmatrix} \begin{pmatrix} 2 & -1 \\ -1 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} + \begin{pmatrix} 0 & -3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} – 1, $$

entonces su forma en coordenadas es $$2x^2-2xy+3y^2 – 3y -1.$$

Observa que las entradas $-1$ fuera de la diagonal principal de la matriz al salir se duplican para conformar el coeficiente de $xy$. Es importante recordar esto al pasar de forma matricial a forma en coordenadas.

$\square$

Más adelante…

En esta entrada definimos qué son los polinomios cuadráticos en dos variables y qué son las curvas cuadráticas.

Por un lado, mencionamos que todas las ecuaciones de cónicas canónicas que hemos visto tienen polinomios cuadráticos en dos variables. ¿Será que todas las ecuaciones de cónicas también tienen polinomios cuadráticos en dos variables? Por otro lado, vimos que algunas curvas cuadráticas son cónicas. Pero nos pasó algo un poco raro: en un ejemplo salieron dos rectas que se intersectan, que quizás estrictamente no pensamos como una cónica usual (elipse, hipérbola, parábola).

¿Cómo serán todas las curvas cuadráticas? ¿Serán sólo las cónicas usuales y algunas excepciones o podrán tener formas muy extrañas? Eso lo estudiaremos después.

También en esta entrada vimos la forma matricial de un polinomio cuadrático en dos variables. De momento, no hemos hablado de la utilidad que tiene pensar a un PCDV así. Sin embargo, en la siguiente entrada veremos que esta expresión es fundamental para ver qué sucede cuando «combinamos» un polinomio cuadrático con una transformación afín.

Tarea moral

  1. Usa alguna herramienta tecnológica (como GeoGebra) para trazar las curvas cuadráticas descritas por los siguientes polinomios cuadráticos en dos variables:
    • $x^2-2xy+3y^2+x-5y+7$
    • $3y^2+5y+x$
    • $x^2+y^2-5x-5y+3$
    • $xy-x-y+7$
    • $-x^2+2xy-3y^2-x+5y-7$
  2. Sea $P:\mathbb{R}^2\to \mathbb{R}$ dada por $P((x,y))=(Ax+By+C)(Dx+Ey+F)$. Demuestra que $P$ es un polinomio cuadrático en dos variables. Luego, demuestra que:
    1. Si $AE-BD\neq 0$, entonces la curva cuadrática dada por $P$ es la unión de dos rectas que se intersectan.
    2. Si $AE-BD=0$, entones la curva cuadrática dada por $P$ es la unión de dos rectas paralelas (no necesariamente distintas).
  3. Demuestra que la intersección de una recta con una curva cuadrática sólo puede ser:
    1. Vacía,
    2. Un punto,
    3. Dos puntos, o
    4. Una infinidad de puntos.
  4. Demuestra que cualquier curva cuadrática $\mathcal{C}$ puede ser descrita a través de una infinidad de polinomios cuadráticos en dos variables.
  5. Considera la gráfica de la función $f(x)=\sin(x)$. ¿Será que esta gráfica es una curva cuadrática? Intenta demostrar por qué sí o por qué no.

Entradas relacionadas

1.2. ESPACIOS VECTORIALES: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

INTRODUCCIÓN

A partir del interés de establecer métodos para resolver ecuaciones de tercer grado por medio de radicales, los matemáticos se encuentran con las raíces negativas e imaginarias. El concepto de número imaginario logra superponerse al paradigma y encuentra su lugar a través de su representación geométrica.

El físico William Rowan Hamilton se interesó por establecer propiedades de las operaciones entre números complejos y sostuvo que el álgebra tenía una relación muy estrecha con la física. Motivado con esta idea, establece conjuntos de números dotados de una estructura algebraica con una representación espacial muy útil para los trabajos en física. Sus propiedades resultan similares a las que actualmente se tienen para el producto escalar y vectorial.

Los cuaterniones de Hamilton son números de la forma: $P=a+bi+cj+dk$.
Donde $a,b,c,d\in\mathbb{R}$ y $k=ij=-ji$ es una unidad imaginaria.

En el álgebra lineal el concepto de «vector» adquiere su significado más general.

ESPACIO VECTORIAL

Definición: Sean $V$ un conjunto y sea $K$ un campo (con las operaciones $+_K$ y $\cdot_K$). Sean $+_V: V \times V \longrightarrow V$ y $\cdot_V: K \times V \longrightarrow V$ operaciones. Decimos que $V,+_V,\cdot_V$ es un espacio vectorial sobre el campo $K$, o bien un $K$ – espacio vectorial (y a los elementos de $K$ les llamamos vectores), si $+_V$ y $\cdot_V$ cumplen lo siguiente:

  1. $+_V$ es asociativa
    $\forall u,v,w \in V:$
    $(\,u+_V(v+_V w)=(u+_V v)+_V w\,)$
  2. $+_V$ es conmutativa
    $\forall u,v \in V:$
    $(\,u+_V v=v+_V u\,)$
  3. Existe neutro aditivo
    $\exists \theta_V \in V:$
    $\forall u \in V (\,\theta_V +_V u = u +_V \theta_V = u\,)$
  4. Todo elemento $u \in V$ tiene inverso aditivo
    $\forall u \in V:$
    $\exists \tilde {u} \in V (\,u+_V \tilde {u} = \tilde {u} +_V u = \theta_V\,)$
  1. $\forall u \in V:$
    $1_K \cdot_V u = u$
  2. $\forall \lambda,\mu \in K \forall u \in V:$
    $\lambda\cdot_K(\mu\cdot_K u)=(\lambda\cdot_K\mu)\cdot_V u$
  3. $\cdot_V$ es distributiva
    7.1 $\forall \lambda,\mu \in K \forall u \in V:$
    $(\lambda+_K\mu)\cdot_V u = (\lambda\cdot_V u)+(\mu\cdot_V u)$
    7.2 $\forall \lambda \in K \forall u,v \in K:$
    $\lambda\cdot_V(u+v)=\lambda\cdot_V u+\lambda\cdot_V v$

Nota: Es común encontrar la expresión «$V$ es un $K$ – espacio vectorial con las operaciones $+, \cdot$» en lugar de «$V,+,\cdot$ es un $K$ – espacio vectorial», al igual que «$V$ es un $K$ – espacio vectorial» sin la referencia a las operaciones cuando se trata de las usuales (se suponen por obviedad).

Nota: Para evitar confusiones, en caso de ser necesario, denotaremos por $u+_V v$ a la suma de los vectores $u$ y $v$, y por $\lambda\cdot_V v$ al producto del escalar $\lambda$ por el vector $v$, pero una vez que nos habituemos a ellas las denotaremos simplemente por $u+v$ y $\lambda v$.

Ejemplos:

  • $\mathbb{R}^n$ es un $\mathbb{R}$ – espacio vectorial con la suma y el producto por escalar usuales.
  • $<(1,1,1)> = \{\lambda(1,1,1):\lambda \in \mathbb{R} \}$ es un $\mathbb{R}^n$ – espacio vectorial.
  • Sea $K$ campo. $\mathcal{M}_{m\times n}(K)$ (las matrices con $m$ renglones y $n$ columnas, con entradas en $K$) es un $K$ – espacio vectorial con las operaciones usuales de suma y producto por escalar.
  • Sea $K$ campo. $K[x]$ (los polinomios en $x$ con coeficientes en $K$) es un $K$ – espacio vectorial con la suma y el producto por escalar usuales.
  • Sea $K$ campo. $K^{n} = \{(x_{1}, x_{2},…,x_{n}) : x_{1},x_{2},…,x_{n} \in K \}$ es un $K$ – espacio vectorial con la suma entrada a entrada y el producto definido como sigue:
    Sean $(x_{1},x_{2},…,x_{n}) \in K^{n}$, $\lambda \in K$. $\lambda \cdot (x_{1},x_{2},…,x_{n})=(\lambda x_{1}, \lambda x_{2},…,\lambda x_{n})$
  • Sea $K$ campo. $K^{\infty} = \{(x_{1}, x_{2},…) : x_{1},x_{2},… \in K \}$ es un $K$ – espacio vectorial con la suma entrada a entrada y el producto definido como sigue:
    Sean $(x_{1},x_{2},…) \in K^{n}$, $\lambda \in K$. $\lambda \cdot (x_{1},x_{2},…)=(\lambda x_{1}, \lambda x_{2},…)$

EJEMPLO FUNCIONES

Sea $K$ campo. $V=\{f|f:K \longrightarrow K\}$ es un $K$ – espacio vectorial con las operaciones $+_V$ y $\cdot_V$ definidas como sigue:

Sean $f,g \in V$, $\lambda \in K$.
$f +_V g : K \longrightarrow K$
$(f +_V g )(x) = f(x) +_K g(x)$ para todo $x\in K$ donde $+_K$ es la suma en $K$.

Sean $f \in V$, $\lambda \in K$.
$\lambda \cdot_V f : K \longrightarrow K$
$(\lambda \cdot_V f )(x) =\lambda \cdot_K f(x)$ para todo $x\in K$
donde $\cdot_K$ es el producto en $K$.

DEMOSTRACIÓN

Vamos a ver que las operaciones $+_V$, $\cdot_V$ cumplen las ocho condiciones suficientes y necesarias (por definición) para que $V$ sea espacio vectorial:

Sean $f,g,h \in V$, $\lambda, \mu \in K$.
Sea $x \in K$ arbitrario.

  1. P.D. $+_V$ es asociativa
    $i. e.$ $(f +_V g) +_V h = f +_V (g +_V h)$

Obs. 1 Tenemos que $f +_V g, g +_V h \in V$. Así, $(f +_V g) +_V h, f +_V (g +_V h) \in V$. Así que sólo falta ver que $(f +_V g) +_V h$ y $f +_V (g +_V h)$ tienen la misma regla de correspondencia.

\begin{align*}
((f +_V g) +_V h)(x) &= (f +_V g)(x) +_K h(x)\tag{def. $+_V$}\\
&= (f(x) +_K g(x)) +_K h(x)\tag{def. $+_V$}\\
&= f(x) +_K (g(x) +_K h(x))\tag{asociat. $+_K$}\\
&= f(x) +_K (g +_V h)(x)\tag{def. $+_V$}\\
&= (f +_V (g +_V h))(x)\tag{def. $+_V$}\\
\therefore (f +_V g) +_V h &= f +_V (g +_V h)
\end{align*}

  1. P.D. $+_V$ es conmutativa
    $i.e.$ $f +_V g = g +_V f$

Obs. 2 Tenemos que $f +_V g, g +_V f \in V$. Así que sólo falta ver que $f +_V g$ y $g +_V f$ tienen la misma regla de correspondencia.

\begin{align*}
(f +_V g)(x) &= f(x) +_K g(x)\tag{def. $+_V$}\\
&= g(x) +_K f(x)\tag{conmutat. $+_K$}\\
&= (g +_V f)(x)\tag{def. $+_V$}\\
\therefore f +_V g &= g +_V f
\end{align*}

  1. P.D. Existe neutro aditivo
    $i.e.$ $\exists \theta_V \in V:$
    $\theta_V +_V f = f +_V \theta_V = f$

Proponemos:
$\theta_V : K \longrightarrow K$ con
$\theta_V(x) = 0_K$ para todo $x\in K$
donde $0_K$ es neutro aditivo de $K$.

Obs. 3 Por construcción $\theta_V \in V$. Así, $f +_V \theta_V, \theta_V +_V f \in V$. Además, por $2$, se cumple que $\forall f \in V (\theta_V +_V f = f +_V \theta_V)$. Entonces sólo falta ver que $f +_V \theta_V$ y $f$ tienen la misma regla de correspondencia.

\begin{align*}
(f +_V \theta_V)(x) &= f(x) +_K \theta_V(x)\tag{def. $+_V$}\\
&= f(x) +_K 0_K\tag{def. $\theta_V$}\\
&= f(x)\tag{neutro ad.}\\
\therefore \theta_V +_V f = f +_V \theta_V
\end{align*}

  1. P.D. Todo elemento $f \in V$ tiene inverso aditivo
    $i.e.$ $\exists \tilde{f} \in V:$
    $f+ \tilde{f} = \tilde{f} + f = \theta_V$

Proponemos:
$\tilde{f} : K \longrightarrow K$ con
$\tilde{f}(x)=(-f(x))$ para todo $x\in K$
donde $(-f(x))$ es el inverso aditivo de $f(x) \in K$.

Obs. 4 Por construcción $\tilde{f} \in V$. Así, $f +_V \tilde{f}, \tilde{f} +_V f \in V$. Además, por $2$, se cumple que $\forall f \in V (f +_V \tilde{f} = \tilde{f} +_V f \in V)$. Entonces sólo falta ver que $f +_V \tilde{f}$ y $\theta_V$ tienen la misma regla de correspondencia.

\begin{align*}
(f +_V \tilde{f})(x) &= f(x) +_K \tilde{f}(x)\tag{def. $+_V$}\\
&= f(x) +_K (-f(x)) \tag{def. $\tilde{f}$}\\
&= 0_K\tag{inv. ad.}\\
&= \theta_V (x)\tag{def. $\theta_V$}\\
\therefore f +_V \tilde{f} = \tilde{f} +_V f = \theta_V
\end{align*}

  1. P.D. $1_K \cdot_V f = f$

Sea $1_K$ el neutro multiplicativo en $K$.

Obs. 5 Por construcción $1_K \in K$. Así, $1_K \cdot_V f \in V$. Así que sólo falta ver que $1_K \cdot_V f$ y $f$ tienen la misma regla de correspondencia.

\begin{align*}
(1_K \cdot_V f)(x) &= 1_K \cdot_K f(x)\tag{def. $\cdot_V$}\\
&= f(x)\tag{neut. mult.}\\
\therefore 1_V \cdot_V f = f
\end{align*}

  1. P.D. $\lambda\cdot_V(\mu\cdot_V f)=(\lambda\cdot_K\mu)\cdot_V f$

Obs. 6 Por construcción $\mu\cdot_V f \in V$. Así, $\lambda\cdot_V(\mu\cdot_V f) \in V$. También tenemos que $\lambda\cdot_K\mu\in K,$ por lo cual $(\lambda\cdot_K\mu)\cdot_V f\in V$ Entonces sólo falta ver que $\lambda\cdot_V(\mu\cdot_V f)$ y $(\lambda\cdot_K\mu)\cdot_V f$ tienen la misma regla de correspondencia.

\begin{align*}
(\lambda\cdot_V(\mu\cdot_V f))(x) &= \lambda \cdot_K (\mu\cdot_V f)(x)\tag{def. $\cdot_V$}\\
&= \lambda\cdot_K(\mu\cdot_K f(x))\tag{def. $\cdot_V$}\\
&= (\lambda\cdot_K\mu)\cdot_K f(x)\tag{asociat. $\cdot_K$}\\
&= ((\lambda\cdot_K\mu)\cdot_V f)(x)\tag{def. $\cdot_V$}\\
\therefore \lambda\cdot_V(\mu\cdot_V f)=(\lambda\cdot_K\mu)\cdot_V f
\end{align*}

  1. P.D. Se cumple la distributividad (7.1)
    $i.e.$ $(\lambda +_K \mu)\cdot_V f=(\lambda\cdot_V f) +_V (\mu\cdot_V f)$

Obs. 7 Tenemos que $\lambda,\mu,\lambda +_K \mu \in K$. Así, $(\lambda +_K \mu)\cdot_V f, (\lambda\cdot_V f) +_V (\mu\cdot_V f) \in V$. Así que solo falta ver que $(\lambda +_K \mu)\cdot_V f$ y $(\lambda\cdot_V f) +_V (\mu\cdot_V f)$ tienen la misma regla de correspondencia.

\begin{align*}
((\lambda +_K \mu)\cdot_V f)(x) &= (\lambda +_K \mu)\cdot_K f(x)\tag{def. $+_V$}\\
&= (\lambda\cdot_K f(x)) +_K (\mu\cdot_K f(x))\tag{distrib.}\\
&= ((\lambda\cdot_V f)(x)) +_K ((\mu\cdot_V f)(x))\tag{def. $\cdot_V$}\\
&= ((\lambda\cdot_V f) +_V (\mu\cdot_V f))(x))\tag{def. $\cdot_V$}\\
\therefore (\lambda +_K \mu)\cdot_V f=(\lambda\cdot_V f) +_V (\mu\cdot_V f)
\end{align*}

  1. P.D. Se cumple la distributividad (7.2)
    $i.e.$ $\lambda \cdot_V (f +_V g)= (\lambda \cdot_V f) +_V(\lambda \cdot_V g)$

Obs. 8 Tenemos que $\lambda \cdot_V (f +_V g), \lambda \cdot_V f, \lambda \cdot_V g \in V$. Así, $(\lambda \cdot_V f) +_V(\lambda \cdot_V g) \in V$. Entonces sólo falta ver que $\lambda \cdot_V (f +_V g)$ y $(\lambda \cdot_V f) +_V(\lambda \cdot_V g)$ tienen la misma regla de correspondencia.

\begin{align*}
(\lambda \cdot_V (f +_V g))(x) &= \lambda \cdot_K (f +_V g)(x)\tag{def. $\cdot_V$}\\
&= \lambda \cdot_K (f(x) +_K g(x))\tag{def. $+_V$}\\
&= (\lambda \cdot_K f(x)) +_K (\lambda \cdot_K g(x))\tag{distrib.}\\
&= ((\lambda \cdot_V f)(x)) +_K ((\lambda \cdot_V g)(x))\tag{def. $\cdot_V$}\\
&= ((\lambda \cdot_V f) +_V (\lambda \cdot_V g))(x)\tag{def. $+_V$}\\
\therefore \lambda \cdot_V (f +_V g)= (\lambda \cdot_V f) +_V(\lambda \cdot_V g)
\end{align*}

Por lo tanto $V=\{f|f:K \longrightarrow K\}$ es un $K$ – espacio vectorial con las operaciones $+_V$ y $\cdot_V$ trabajadas.

TAREA MORAL

  1. Encuentra un $K$ campo dentro de los ejemplos de la entrada anterior con el cual $\mathcal{M}_{m\times n}(K)$ sea un $K$ – espacio vectorial con una cantidad finita de elementos. Si $K$ no es concreto, exhibe un caso particular de ese campo y una vez que lo hagas, muestra todos los elementos del espacio vectorial obtenido.
  1. Demuestra que el neutro aditivo de $V$, un $K$ – espacio vectorial, es único.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sabemos por la definición de espacio vectorial, que existe $\theta_V$ neutro.
    • Primero sup. que existe ${\theta_V}’ \in V$ que también lo es. Con el objetivo de demostrar que $\theta_V = {\theta_V}’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $\theta_V = \theta_V +_V {\theta_V}’ = {\theta_V}’$
  1. Demuestra que los inversos aditivos en $V$ son únicos.
    Para lograrlo, se te sugiere realizar lo siguiente:
    • Sea $u \in V$. Sabemos por la definición de campo, que existe $\tilde{u} \in V$ inverso aditivo de $u$.
    • Primero sup. que existe $\tilde{u}’ \in V$ que también lo es. Con el objetivo de demostrar que $\tilde{u} = \tilde{u}’$.
    • Ahora justifica cada una de las siguientes igualdades:
      $\tilde{u} = \tilde{u} +_V \theta_V = \tilde{u} + (u + \tilde{u}’) = (\tilde{u} + u) + \tilde{u}’$
    • Completa la demostración con las igualdades necesarias y justifícalas.

MÁS ADELANTE…

Ahora analizaremos algunas propiedades de los espacios vectoriales, una de ellas nos dice quién es el elemento neutro dado el espacio vectorial. Además de dos identidades del elemento neutro.

Entradas relacionadas

Álgebra Lineal II: Aplicar polinomios a transformaciones lineales y matrices

Por Julio Sampietro

Introducción

Varios de los resultados fundamentales de Álgebra Lineal se obtienen al combinar las idea de transformaciones lineales con la de polinomios. El objetivo de esta entrada es introducir el concepto de «aplicar polinomios a matrices» o equivalentemente «aplicar polinomios a transformaciones lineales». La idea fundamental es simple: las potencias en los polinomios se convierten en repetidas aplicaciones de la transformación y las constantes en múltiplos de la identidad. Si bien esta idea es simple, más adelante veremos aplicaciones importantes y con un gran alcance. Uno de los resultados cruciales que surge de esta idea es el conocido teorema de Cayley-Hamilton.

Primeras construcciones

Sea $V$ un espacio vectorial sobre un campo $F$, y sea $T:V\to V$ una transformación lineal. Definimos a la transformación $T^n:V\to V$ para cualquier $n\in \mathbb{N}$ inductivamente a través de

\begin{align*}
T^0=\operatorname{Id}, \hspace{5mm} T^{i+1}= T\circ T^{i},
\end{align*}

donde, recordamos, $\operatorname{Id}$ es la transformación identidad. Intuitivamente, $T^n$ es la «$n$-ésima composición» de $T$. Por ejemplo, $T^3(v)$ no es más que $T(T(T(v)))$ y $T^0(v)$ es simplemente «no usar $T$ para nada», es decir, $\operatorname{Id}(v)=v$. Al componer iteradamente $T$, sigue siendo una transformación lineal de $V$ a $V$, así que $T^n$ es transformación lineal de $V$ a $V$ para todo entero $n\geq 0$.

Ya que hablamos de «potencias» de una transformación lineal, podemos rápidamente hacer sentido de un «polinomio evaluado en una transformación lineal». Si $$P(X)=a_0+a_1X+a_2X^2+\dots + a_n X^n\in F[X]$$ es un polinomio, definimos $P(T):V\to V$ como

\begin{align*}
P(T):= a_0 T^{0}+ a_1 T^1+ a_2 T^2+\dots +a_n T^n.
\end{align*}

Como las transformaciones lineales de $V$ a $V$ son cerradas bajo combinaciones lineales, entonces $P(T)$ también es una transformación lineal de $V$ a $V$.

Ejemplo. Tomemos a la transformación $T:\mathbb{R}^2\to \mathbb{R}^2$ dada por $T(x,y)=(2x-2y,x+y)$. Tomemos al polinomio $P(x)=x^3-2x+4$. ¿Quién es la transformación $P(T)$? Calculemos primero las «potencias» de $T$:

\begin{align*}
T^0(x,y)&=(x,y)\\
T^1(x,y)&=T(x,y)\\
&=(2x-2y,x+y)\\
T^2(x,y)&=T(T(x,y))\\
&=T(2x-2y,x+y)\\
&=(2(2x-2y)-2(x+y),(2x-2y)+(x+y))\\
&=(2x-6y,3x-y)\\
T^3(x,y)&=T(2x-6y,3x-y)\\
&=(-2x-10y,5x-7y).
\end{align*}

Ahora sí, ya podemos saber qué hace $P(T)$. Tenemos:

\begin{align*}
P(T)(x,y)&=(T^3-2T+4\text{Id})(x,y)\\
&=(-2x-10y,5x-7y)-2(2x-2y,x+y)+4(x,y)\\
&=(-2x-6y,3x-5y).
\end{align*}

$\square$

Sumas y productos de polinomios

Las operaciones suma y producto de polinomios se traducen, respectivamente, a suma y composición de las evaluaciones en transformaciones lineales. Esta es una linda propiedad que podemos hacer precisa gracias a la siguiente proposición.

Proposición. Si $P_1, P_2\in F[X]$ son dos polinomios y $T:V\to V$ es una transformación lineal, entonces

  1. $ (P_1+P_2)(T)=P_1(T)+P_2(T)$,
  2. $(P_1P_2)(T)=P_1(T)\circ P_2(T)$.

Te invitamos a demostrar esta proposición. Advertimos que, sin embargo, no se cumplen identidades como $$P(T_1+T_2)=P(T_1)+P(T_2)$$ o bien $$P(T_1\circ T_2)=P(T_1)\circ P(T_2).$$ Un contraejemplo para la primera identidad podría ser tomar$P(X)=X^2$ y $T_1=T_2=\operatorname{Id}$. En este caso

\begin{align*}
P(T_1+T_2)&=(T_1+T_2)^2\\&= 4\operatorname{Id}\\&\neq 2\operatorname{Id}\\&=P(T_1)+P(T_2).
\end{align*}

Dejamos como ejercicio el verificar que la segunda identidad tampoco es cierta en general. Fijando $T$, podemos juntar a todas las transformaciones de la forma $P(T)$ para algún $P$ en la siguiente estructura.

Definición. La $F$-álgebra generada por la transformación $T$ es el conjunto

\begin{align*}
F[T]=\lbrace P(T)\mid P\in F[X]\rbrace.
\end{align*}

Una consecuencia de la proposición anterior (es más, ¡una mera traducción!) es la siguiente.

Proposición. Para cualesquiera $x,y\in F[T]$ y $c\in F$ se cumple que $x+cy\in F[T]$ y $x\circ y\in F[T].$ Es decir, $F[T]$ es un subespacio del espacio de todas las transformaciones lineales de $V$ en $V$ que además es estable bajo composición.

También puedes verificar que $F[T]$ es el subespacio más chico (en el sentido de contención) del espacio de transformaciones lineales en $V$ que contiene a $T$, a $\operatorname{Id}$ y que es cerrado bajo composiciones.

Lo mismo pero con matrices

Desde Álgebra Lineal I sabemos que una transformación lineal se corresponde de manera biunívoca (fijando una base) con una matriz. Nuestra discusión previa se puede adaptar a este vocabulario, y eso es lo que haremos ahora.

Si $A\in M_n(F)$ es una matriz cuadrada de orden $n$ con coeficientes en $F$, podemos entender a $A^n$ simplemente como el $n$-ésimo producto de $A$ consigo misma. Luego si $$P(X)=a_0+a_1X+a_2 X^2+\dots +a_n X^n\in F[X]$$ es un polinomio, definimos

\begin{align*}
P(A):= a_0 I_n +a_1 A+ a_2 A^2+\dots+ a_n A^n.
\end{align*}

Se cumple que $(PQ)(A)=P(A)\cdot Q(A)$ para cualesquiera polinomios $P,Q$ y cualquier matriz $A$. Similarmente el álgebra generada por $A$ se define como

\begin{align*}
F[A]=\lbrace P(A)\mid P\in F[X]\rbrace,
\end{align*}

y es un subespacio de $M_n(F)$ que es cerrado bajo producto de matrices.

Ejemplo. Consideremos la matriz $A=\begin{pmatrix}2&-2\\1&1\end{pmatrix}$. Consideremos el polinomio $P(x)=x^3-2x+4$. ¿Quién es la matriz $P(A)$? Usando la definición, primero nos enfocaremos en encontrar las potencias de $A$. Puedes verificar por tu cuenta que:

\begin{align*}
A^0&=\begin{pmatrix}1&0\\0&1\end{pmatrix}\\
A^1&=\begin{pmatrix}2&-2\\1&1\end{pmatrix}\\
A^2&=\begin{pmatrix}2&-6\\3&-1\end{pmatrix}\\
A^3&=\begin{pmatrix}-2&-10\\5&-7\end{pmatrix}
\end{align*}

De esta manera,

\begin{align*}
P(A)&=A^3-2A+4I_2\\
&=\begin{pmatrix}-2&-10\\5&-7\end{pmatrix} – 2 \begin{pmatrix}2&-2\\1&1\end{pmatrix} + 4 \begin{pmatrix}1&0\\0&1\end{pmatrix}\\
&=\begin{pmatrix}-2&-6 \\ 3 & -5 \end{pmatrix}.
\end{align*}

$\square$

Este ejemplo se parece mucho al ejemplo que hicimos cuando evaluamos un polinomio en una transformación $T$. Esto no es casualidad, y se puede resumir en la siguiente observación.

Observación. Si $A$ es la matriz asociada a $T$ en alguna base, entonces $P(A)$ es la matriz asociada a $P(T)$ en dicha base.

Unos problemas para calentar

A continuación veremos algunos unos cuantos problemas resueltos para que te familiarices con los conceptos que acabamos de ver de manera un poco más teórica.

Problema.

  1. Si $A,B\in M_n(F)$ son matrices con $B$ invertible, demuestra que para cualquier $P\in F[X]$ se cumple
    \begin{align*}
    P(BAB^{-1})=BP(A)B^{-1}.
    \end{align*}
  2. Demuestra que si $A,B\in M_n(F)$ son similares, entonces $P(A)$ y $P(B)$ son similares para cualquier $P\in F[X]$.

Solución.

  1. Primero supongamos que $P(X)=X^k$ para alguna $k\geq 1$. Necesitamos demostrar que $\left(BAB^{-1}\right)^{k}= BA^{k}B^{-1}$, y esto lo podemos verificar sencillamente pues
    \begin{align*}
    (BAB^{-1})\cdot (BAB^{-1})\cdots (BAB^{-1})&= BA(B^{-1} B) A \cdots (B^{-1}B)AB^{-1}\\
    &= BA^{k}B^{-1},
    \end{align*}
    donde usamos que $BB^{-1}=I_n$. Más generalmente, si $P(X)=a_0+a_1 X+a_2X^2+\dots +a_n X^n$ entonces
    \begin{align*}
    P(BAB^{-1})&= \sum_{i=0}^{n} a_i (BAB^{-1})^{i}\\
    &= \sum_{i=0}^{n}a_i BA^{i}B^{-1}\\
    &= B\left(\sum_{i=0}^{n} a_i A^{i}\right)B^{-1}\\
    &= BP(A)B^{-1}
    \end{align*}
    que es lo que queríamos demostrar.
  2. Como $A$ y $B$ son similares, existe $C$ invertible tal que $A=CBC^{-1}$. Por el inciso anterior tenemos
    \begin{align*}
    P(A)=P(CBC^{-1})=CP(B)C^{-1}.
    \end{align*}
    Así, $P(A)$ y $P(B)$ son similares.

$\square$

Problema. Considera la matriz

\begin{align*}
A=\begin{pmatrix}
0 & 1 & -1\\
-2 & 0 & 3\\
0 & 0 & 4
\end{pmatrix}
\end{align*}

así como el polinomio $P(X)=X^2+2X-1$. Calcula $P(A)$.

Solución. Es cuestión de hacer los cálculos. Vemos que

\begin{align*}
A^2= \begin{pmatrix}
-2 & 0 & -1\\
0 & -2 & 14\\
0 & 0 & 16
\end{pmatrix}
\end{align*}

y así

\begin{align*}
P(A)&=A^2+2A-I_3\\&=\begin{pmatrix}
-2 & 0 & -1\\
0 & -2 & 14\\
0 & 0 & 16
\end{pmatrix} + 2\begin{pmatrix}
0 & 1 & -1\\
-2 & 0 & 3\\
0 & 0 & 4
\end{pmatrix} -\begin{pmatrix}
1 & 0 & 0\\
0 & 1 & 0\\
0 & 0 & 1
\end{pmatrix}\\
&=\begin{pmatrix}
-3 & 2 & -3\\
-4 & -3 & 20\\
0 & 0 & 23
\end{pmatrix}.
\end{align*}

$\square$

Problema. Si $A$ es simétrica, demuestra que $P(A)$ es simétrica para cualquier polinomio $P$.

Solución. La demostración se basa en los siguientes hechos:

  1. Si $A=(a_{ij})$ y $B=(b_{ij})$ son matrices simétricas y $c\in F$ es un escalar, entonces $A+cB$ es simétrica, puesto que
    \begin{align*}
    (A+cB)_{ij}= a_{ij}+cb_{ij}= a_{ji}+cb_{ji}= (A+cB)_{ji}.
    \end{align*}
  2. Si $A,B$ son simétricas, su producto es una matriz simétrica. De nuevo, basta con hacer el cálculo
    \begin{align*}
    (AB)_{ij}=\sum_{k=1}^{n} a_{ik}b_{kj}=\sum_{k=1}^{n} b_{jk}a_{ki}= (AB)_{ji} .
    \end{align*}
  3. Usando el inciso anterior, se sigue que si $A$ es simétrica, entonces $A^{k}$ es simétrica para toda $k\geq 1$. Además, $I_n$ es simétrica y por el primer punto tenemos que toda combinación lineal de matrices simétricas es simétrica. En particular $P(A)$ es simétrica.

$\square$

Problema. Sea $V$ el espacio vectorial de todas las funciones $f:\mathbb{R}\to \mathbb{R}$ infinitamente diferenciables. Sea $T:V\to V$ dada por $T:f\mapsto f’$. ¿Puedes encontrar un polinomio $P\in \mathbb{R}(X)$ distinto de cero tal que $P(T)=0$?

Solución. No es posible encontrar dicho polinomio. Suponiendo que sí, tendríamos que $P(T)$ es una ecuación diferencial polinomial de orden $n$, es decir, a cada función la evaluamos en una combinación

\begin{align*}
a_0f+a_1f’+a_2f»+\dots + a_n f^{n}
\end{align*}

donde $f^n$ es la $n$-ésima derivada. Si $P(T)$ es idénticamente cero, tenemos que toda función suave $f$ satisface esta ecuación. En particular tenemos que la constante $g(x)=1$ la satisface. Así $g’=g»=\dots=g^{n}=0$ y entonces

\begin{align*}
P(T)(g)= a_0 g+a_1g+\dots +a_ng^{n}=a_0=0.
\end{align*}

Concluimos que $a_0=0$. Luego, si consideramos a la función identidad $h(x)=x$ entonces también se tiene que cumplir la ecuación (recordamos que ya eliminamos el término $a_0$). Así

\begin{align*}
P(T)(h)= a_1h’+a_2h»+\dots +a_nh^{n}= a_1=0,
\end{align*}

donde usamos que $h'(x)=1$ y todas las derivadas de orden superior son cero. Continuando con este proceso (evaluando en $x^2,x^3,\ldots$) llegamos a que todos los coeficientes $a_i$ son cero. Esto quiere decir que el polinomio era nulo en primer lugar.

$\square$

Más adelante…

En entradas subsecuentes estudiaremos polinomios de matrices con propiedades especiales, como por ejemplo el polinomio mínimo, que se distinguen por sus deseables propiedades algebraicas. Este es el primer paso hacia el teorema de Cayley-Hamilton.

Tarea moral

Aquí hay unos ejercicios para que practiques lo visto en esta entrada.

  1. Compara el ejemplo que se dio de evaluar un polinomio en una transformación $T$ con el de evaluar un polinomio en una matriz $A$. ¿Por qué se parecen tanto?
  2. Considera $V$ el espacio vectorial de funciones $C^\infty$ en el intervalo $[0,2\pi]$ y $D:V\to V$ a la transformación que manda una función a su derivada, es decir $D(f)=f’$. Encuentra un polinomio $P$ tal que $P(D)(\sin(x)+\cos(x))$ sea la función cero.
  3. Demuestra que si $A$ es una matriz diagonal, $P(A)$ también es diagonal.
  4. Si
    \begin{align*}
    A=\begin{pmatrix}
    1 & 2\\
    0 &-1\end{pmatrix}
    \end{align*}
    y $P(X)=X^3-X^2+X-1$, calcula $P(A)$.
  5. Generaliza el último problema de la entrada como sigue: Si $V$ es un espacio vectorial y $T:V\to V$ es tal que existen elementos $v_i$ con $i\in \mathbb{N}$ que cumplen $T^{i}(v_i)\neq 0$ y $T^{j}(v_i)=0$ para $j>i$, entonces no existe $P$ no nulo tal que $P(T)$ sea cero.

Entradas relacionadas

Álgebra Lineal I: Combinaciones lineales

Por Julio Sampietro

Introducción

En esta entrada presentamos el concepto de combinaciones lineales en espacios vectoriales que será fundamental para nuestro estudio. De cierta manera (que se verá más claramente cuando hablemos de bases en espacios vectoriales arbitrarios) captura un aspecto de la base canónica de $F^n$: Todo vector lo podemos escribir como $x_1 e_1+\dots+x_n e_n$, lo que con nuestro lenguaje será una combinación lineal de los vectores $e_i$.

También hablamos del concepto de espacio generado. De manera intuitiva, el espacio generado por un conjunto de vectores es el mínimo subespacio que los tiene (y que a la vez tiene a todas las combinaciones lineales de ellos). Geometricamente, los espacios generados describen muchos de los objetos conocidos como rectas y planos. De manera algebraica, este concepto nos servirá mucho en lo que sigue del curso.

Definición de combinaciones lineales

Sea $V$ un espacio vectorial sobre un campo $F$, y sean $v_1, \dots, v_n$ vectores en $V$. Por definición, $V$ contiene a todos los vectores de la forma $c_1 v_1+\dots +c_n v_n$ con $c_1, \dots, c_n \in F$. La colección de los vectores de este estilo es importante y le damos una definición formal:

Definición. Sean $v_1, \dots, v_n$ vectores en un espacio vectorial $V$ sobre $F$.

  1. Un vector $v$ es una combinación lineal de los vectores $v_1, \dots, v_n$ si existen escalares $c_1,\dots, c_n\in F$ tales que
    \begin{align*}
    v= c_1 v_1 +c_2 v_2+\dots +c_n v_n.
    \end{align*}
  2. El espacio generado (que a veces abreviaremos como el generado) por $v_1, \dots, v_n$ es el subconjunto de $V$ de todas las combinaciones lineales de $v_1,\dots, v_n$, y lo denotamos por $\text{span}(v_1, \dots, v_n)$.

Ejemplo.

  1. La matriz $A=\begin{pmatrix} 2 & 2 \\ 1 & 1 \end{pmatrix}$ es una combinación lineal de las matrices $B= \begin{pmatrix} 10 & 0 \\ 5 & 0\end{pmatrix}$ y $C=\begin{pmatrix} 0 & 1 \\ 0 & \frac{1}{2}\end{pmatrix}$ pues $A=\frac{1}{5} B + 2 C$. Así, $A$ está en el generado por $B$ y $C$.
  2. El generado $\text{span}(v)$ de un único vector en $\mathbb{R}^n$ consta de puras copias re-escaladas de $v$ (también nos referimos a estos vectores como múltiplos escalares de $v$). Usando la interpretación geométrica de vectores en $\mathbb{R}^2$ o $\mathbb{R}^3$, si $v\neq 0$ entonces $\text{span}(v)$ representa una recta por el origen en la dirección de $v$.
  3. Si $e_1=(1,0,0)$ y $e_2=(0,1,0)$, entonces
    \begin{align*}
    x e_1+ y e_2=(x,y,0).
    \end{align*}
    Como $x$ y $y$ fueron arbitrarios, podemos concluir que $\text{span}(e_1,e_2)$ consta de todos los vectores en $\mathbb{R}^3$ cuya tercer entrada es cero. Esto es el plano $xy$. En general, si $v_1, v_2$ son dos vectores no colineales en $\mathbb{R}^3$ entonces su espacio generado es el único plano por el origen que los contiene.
  4. El polinomio $3x^{10}+7$ del espacio vectorial $\mathbb{R}_{10}[x]$ no puede ser escrito como combinación lineal de los polinomios $x^{10}+x^2+1$, $x^7+3x+1$, $7x^3$. Para demostrar esto, debemos probar que no existen reales $a,b,c$ tales que $$3x^{10}+7=a(x^{10}+x^2+1)+b(x^7+3x+1)+7cx^3.$$
    Procedamos por contradicción. Si acaso esto fuera posible, desarrollando el producto de la derecha y observando el coeficiente de $x^{10}$, necesitamos que $a$ sea igual a $3$. Pero entonces a la derecha va a quedar un término $3x^2$ que no se puede cancelar con ninguno otro de los sumandos, sin importar el valor de $b$ o $c$. Igualando términos cuadráticos, tendríamos entonces $0=3x^2$, lo cual es una contradicción.

$\square$

Problemas prácticos de combinaciones lineales

La definición de que un vector sea combinación de otros es existencial. Para mostrar que sí es combinación lineal, basta encontrar algunos coeficientes. Para mostrar que no es combinación lineal, hay que argumental por qué ninguna de las combinaciones lineales de los vectores es igual al vector buscado.

Problema. Muestra que el vector $(1,1,1)$ de $\mathbb{R}^3$ no se puede expresar como combinación lineal de los vectores

\begin{align*}
v_1= (1,0,0), \hspace{2mm} v_2=(0,1,0)\text{ y } v_3=(1,1,0).
\end{align*}

Solución: Una combinación lineal arbitraria de $v_1, v_2, v_3$ es de la forma

\begin{align*}
x_1 v_1 +x_2 v_2 + x_3 v_3 = (x_1 + x_3, x_2 + x_3, 0)
\end{align*}

para $x_1,x_2,x_3$ reales. Así, las combinaciones lineales de $v_1,v_2,v_2$ siempre tienen a $0$ como tercera coordenada. De esta forma, ninguna de ellas puede ser igual a $(1,1,1)$.

$\square$

Más generalmente, consideramos el siguiente problema práctico: dada una familia de vectores $v_1, v_2, \dots, v_k$ en $F^n$ y un vector $v\in F^n$, decide si $v$ es una combinación lineal de $v_1, \dots, v_k$. En otras palabras, si $v\in \text{span}(v_1, \dots, v_k)$.

Para resolver este problema, consideramos la matriz de tamaño $n\times k$ cuyas columnas son $v_1, \dots, v_k$. Decir que $v\in \text{span}(v_1, \dots, v_k)$ es lo mismo que encontrar escalares $x_1, \dots, x_k\in F$ tales que $v= x_1 v_1 +\dots +x_k v_k$. De manera equivalente, si tomamos $X=(x_1,\ldots,x_k)$, queremos la existencia de una solución al sistema $AX=v$.

Esto es muy útil. Como tenemos una manera práctica de decidir si este sistema es consistente (por reducción gaussiana de la matriz aumentada $(A\vert v)$), tenemos una manera práctica de resolver el problema de si un vector es combinación lineal de otros. Por supuesto, esto también nos da una solución concreta al problema, es decir, no sólo decide la existencia de la combinación lineal, sino que además da una cuando existe.

Problema. Sean $v_1=(1,0,1,2), v_2=(3,4,2,1)$ y $v_3=(5,8,3,0)$ vectores en el espacio vectorial $\mathbb{R}^4$. ¿Está el vector $v=(1,0,0,0)$ en el generado de $v_1,v_2$ y $v_3$? ¿El vector $w=(4,4,3,3)$?

Solución: Aplicamos el método que describimos en el párrafo anterior. Es decir, tomemos la matriz

\begin{align*}
A= \begin{pmatrix} 1 & 3 & 5\\ 0 & 4 & 8\\ 1 & 2 & 3\\ 2 & 1 & 0\end{pmatrix}.
\end{align*}

Queremos ver si el sistema $AX=v$ es consistente. Haciendo reducción gaussiana a mano, o bien usando una calculadora de forma escalonada reducia (por ejemplo, la de eMathHelp), obtenemos que la forma escalonada reducida de la matriz aumentada $(A\vert v)$ es

\begin{align*}
(A\vert v)\sim \begin{pmatrix} 1 & 0 & -1 & 0\\ 0 & 1 &2 & 0\\ 0 & 0 & 0 &1 \\ 0 & 0 & 0 &0\end{pmatrix}.
\end{align*}

Viendo el tercer renglón, notamos que tiene pivote en la última columna. Deducimos que el sistema no es consistente, así que $v\notin \text{span}(v_1, v_2, v_3)$.

Procedemos de manera similar para el vector $w$. Esta vez tenemos

\begin{align*}
(A\vert w)\sim \begin{pmatrix} 1 & 0 & -1 & 1\\ 0 & 1 & 2 & 1\\ 0 & 0 & 0 & 0\\ 0 & 0 & 0 &0\end{pmatrix},
\end{align*}

lo que muestra que el sistema es consistente (pues ninguna fila tiene su pivote en la última columna), por lo tanto $w\in \text{span}(v_1, v_2, v_3)$. Si queremos encontrar una combinación lineal explícita tenemos que resolver el sistema

\begin{align*}
\begin{pmatrix} 1 & 0 & -1 \\ 0 & 1 & 2\\ 0 & 0 &0 \\ 0 & 0 & 0\end{pmatrix} \cdot \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix} = \begin{pmatrix} 1 \\ 1\\ 0 \\ 0\end{pmatrix}.
\end{align*}

Tenemos que ninguna fila tiene su pivote en la columna $3$, así que $x_3$ es variable libre. Las variables $x_1$ y $x_2$ son pivote. Esto nos da como solución $x_1= x_3+1$ y $x_2=1-2x_3$. Entonces podemos escribir

\begin{align*}
w= (1+x_3) v_1 + (1-2x_3) v_2+ x_3v_3
\end{align*}

y esto es válido para cualquier elección de $x_3$. Podemos, por ejemplo, escoger $x_3=0$ y obtener $w=v_1 + v_2$.

$\square$

Por supuesto, en el problema anterior pudimos haber encontrado la expresión $w=v_1+v_2$ explorando el problema o por casualidad. Esto sería suficiente para mostrar qeu $w$ es combinación lineal. Pero la ventaja del método sistemático que mostramos es que no se corre el riesgo de no encontrar la solución a simple vista. De me manera definitiva nos dice si hay o no hay solución, y cuando sí hay, encuentra una.

Una caracterización del espacio generado

Probamos el siguiente resultado, que explica la importancia del concepto de espacio generado. En particular, la proposición muestra que el espacio generado es un subespacio. Si te parece un poco confusa la demostración, puede ser de ayuda leer antes la observación que le sigue.

Proposición. Sea $V$ un espacio vectorial sobre un campo $F$ y $v_1, v_2, \dots, v_n \in V$. Entonces

  1. $\text{span}(v_1, v_2, \dots, v_n)$ es la intersección de todos los subespacios vectoriales de $V$ que contienen a todos los vectores $v_1, \dots, v_n$.
  2. $\text{span}(v_1, v_2, \dots, v_n)$ es el subespacio más chico (en contención) de $V$ que contiene a $v_1,\dots, v_n$.

Demostración: Como la intersección arbitraria de subespacios es un subespacio, la parte $1$ implica la parte $2$. Probemos entonces la parte $1$.

Primero demostremos que $\text{span}(v_1, v_2,\dots, v_n)$ está contenido en todo subespacio $W$ de $V$ que tiene a $v_1, \dots, v_n$. En otras palabras, tenemos que ver que cualquier subespacio $W$ que tenga a $v_1,\ldots,v_n$ tiene a todas las combinaciones lineales de ellos. Esto se sigue de que $W$, por ser subespacio, es cerrado bajo productos por escalar y bajo sumas. Así, si tomamos escalares $\alpha_1,\ldots,\alpha_n$ tenemos que cada uno de $\alpha_1 v_1, \ldots, \alpha_n v_n$ está en $W$ y por lo tanto la combinación lineal (que es la suma de todos estos), también está en $W$.

La afirmación anterior implica que $\text{span}(v_1, \dots, v_n)$ está contenido en la intersección de todos los espacios que tienen a $v_1,\ldots, v_n$, pues está contenido en cada uno de ellos.

Ahora, queremos ver ‘la otra contención’, es decir, que $\text{span}(v_1,\ldots,v_n)$ contiene a la intersección de todos los espacios que tienen a $v_1,\ldots,v_n$. Para esto veremos primero que $\text{span}(v_1, \dots, v_n)$ es un subespacio vectorial. Sean $x,y\in \text{span}(v_1, \dots, v_n)$ y $c\in F$ un escalar. Como $x$ y $y$ son, por definición, combinaciones lineales de $v_1, \dots, v_n$, podemos escribir $x=a_1 v_1+\dots +a_n v_n$ para algunos escalares $a_i$ y $y=b_1 v_1+\dots + b_n v_n$ para unos escalares $b_i$. Así

\begin{align*}
x+cy= (a_1+cb_1) v_1 + \dots + (a_n +c b_n) v_n
\end{align*}

también es una combinación lineal de $v_1, \dots, v_n$ y por tanto un elemento del espacio generado. Se sigue que $\text{span}(v_1,\dots, v_n)$ es uno de los subespacios que tienen a $v_1, \dots, v_n$. Así, este generado «aparece» en la intersección que hacemos de subespacios que tienen a estos vectores, y como la intersección de una familia de conjuntos está contenida en cada uno de esos conjuntos, concluimos que $\text{span}(v_1, \dots, v_n)$ contiene a dicha interesección.

Argumentemos ahora la segunda parte de la proposición. Se usa el mismo argumento que arriba. Si $W$ es cualquier subespacio que contiene a $v_1, \dots, v_n$, entonces «aparece» en la intersección y por tanto $\text{span}(v_1, \dots, v_n)$ está contenido en $W$. Es decir, es más chico (en contención) que cualquier otro subespacio que contenga a estos vectores.

$\square$

Observación. Ya que la demostración previa puede resultar un poco confusa, presentamos una versión un poco más relajada de la idea que se usó. Sea $\lbrace W_i\mid i\in I\rbrace$ la familia de todos los subespacios de $V$ que contienen a $v_1, \dots, v_n$.

En el primer párrafo, probamos que

\begin{align*}
\text{span}(v_1,\dots, v_n)\subseteq W_i
\end{align*}

para todo $i\in I$. Luego $\text{span}(v_1, \dots, v_n)\subseteq \bigcap_{i\in I} W_i$.

En el segundo párrafo, probamos que $Span(v_1,\dots, v_n)$ es un subespacio que contiene a $v_1, \dots, v_n$. Es decir, entra en nuestra familia $\lbrace W_i\mid i\in I\rbrace$, es uno de los $W_i$, digamos $W_j$. Entonces

\begin{align*}
\text{span}(v_1, \dots, v_n)= W_j \supseteq \bigcap_{i\in I} W_i.
\end{align*}

En ese momento ya tenemos la primer igualdad: $\text{span}(v_1,\ldots,v_n)=\bigcap_{i\in I} W_i.$

Ahora, la segunda conclusión de la proposición se sigue de esto con una observación más: Si $W’$ es un subespacio que contiene a $v_1, \dots, v_n$ entonces también entra en nuestra familia de los $W_i$’s, es decir es $W_{p}$ para algún $p\in I$. Ahora usando el inciso $1$, tenemos que

\begin{align*}
\text{span}(v_1, \dots, v_n)= \bigcap_{i\in I} W_i \subseteq W_p=W’.
\end{align*}

Esto concluye la demostración.

Tarea moral

Los siguientes ejercicios te ayudarán a repasar los conceptos vistos en esta entrada.

  • ¿Se puede expresar al vector $(1,3,0,5)$ como combinación lineal de $(0,1,0,3)$, $(0,-1,2,0)$ y $(2, 0,-1,-6)$? Si sí, encuentra una o más combinaciones lineales que den el vector $(1,3,0,5)$
  • ¿Se puede expresar al polinomio $1+x^2 +3x^3 -x^4 +x^5$ como combinación lineal de los siguientes polinomios
    \begin{align*}
    x^2-3x^4,\\
    1+x^2-x^5,\\
    2x+x^4,\\
    2+x^2,\\
    5x+5x^2-x^5?
    \end{align*}
  • Sea $P$ un plano en $\mathbb{R}^3$ por el origen y $L$ una recta de $\mathbb{R}^3$ por el origen y con dirección dada por un vector $v\neq 0$. Demuestra que la intersección de $L$ con $P$ es una recta si y sólo si existen dos vectores en $P$ tal que su suma sea $v$.
  • Encuentra el conjunto generado por los vectores del espacio vectorial indicado
    • Las matrices $\begin{pmatrix} 1 & 0 \\ 0 & 1\end{pmatrix}$ y $\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix}$ del espacio $M_{2}$.
    • Los vectores $(1,-1,0)$ y $(1,0,-1)$ del espacio $\mathbb{R}^3$.
    • Los polinomios $1$, $x$, $x^2$ y $x^3$ del espacio $\mathbb{R}[x]$.
  • Sea $V$ un espacio vectorial. Si $v_1, \dots, v_n, x$ son vectores en un espacio vectorial $V$, ¿será cierto siempre que $\text{span}(v_1, \dots, v_n)\subseteq \text{span}(v_1, \dots, v_n, x)$? De ser así, ¿esta contención siempre es estricta? Demuestra tu respuesta o da un contraejemplo.
  • Sean $v_1,\ldots, v_n$ y $x$ vectores en un espacio vectorial $V$. Supongamos que $v_n$ está en $\text{span}(v_1,\ldots,v_{n-1},x)$. Muestra que $$\text{span}(v_1,\ldots,v_{n-1},x)=\text{span}(v_1,\ldots,v_{n-1},v_n).$$

Más adelante…

El concepto de combinación lineal es la piedra angular para definir varios otros conceptos importantes en espacios vectoriales. Es un primer paso para definir a los conjuntos de vectores generadores y a los conjuntos de vectores linealmente independientes. Una vez que hayamos desarrollado ambos conceptos, podremos hablar de bases de un espacio vectorial, y con ello hablar de la dimensión de un espacio vectorial.

Entradas relacionadas

Álgebra Lineal I: Problemas de bases y dimensión de espacios vectoriales

Por Leonardo Ignacio Martínez Sandoval

Introducción

En las entradas anteriores vimos cómo se puede definir la dimensión de un espacio vectorial. Para ello, necesitamos encontrar una base. En el caso finito, la dimensión del espacio es la cardinalidad de una base. Esto está bien definido pues todas las bases tienen la misma cardinalidad. A continuación solucionaremos algunos ejemplos para reforzar los temas vistos.

Recordatorio de truco para mostrar que algo es base

En varios de los problemas usamos el siguiente resultado. Ya lo enunciamos y demostramos previamente. Pero como es sumamente útil, lo volvemos a enunciar, en términos más prácticos.

Proposición. Sea $V$ un espacio vectorial que ya sepamos que tiene dimensión finita $n$. Sea $B=\{v_1,v_2,\dots, v_n\}$ un conjunto de $n$ vectores de $v$. Entonces, cualquiera de las siguientes afirmaciones implica las otras dos:

  1. $B$ es un conjunto linealmente independiente en $V$
  2. $B$ es un conjunto generador para $V$.
  3. $B$ es una base de $V$

Por supuesto, el tercer punto implica los otros dos por la definición de base. Lo que es realmente útil en situaciones teóricas y prácticas es que si ya sabemos que un espacio tiene dimensión $n$, y tenemos un conjunto de $n$ vectores, entonces basta verificar que o bien (1) o bien (2). Con esto tendremos la otra afirmación gratuitamente.

Al usar este resultado, es muy importante verificar las hipótesis. Es decir, para usarlo se necesita:

  • Argumentar por qué la dimensión de un espacio vectorial es cierto entero $n$.
  • Argumentar que se está estudiando un conjunto con $n$ vectores.
  • Demostrar ya sea (1) o (2).

Problemas resueltos

Problema. Muestra que las siguientes cuatro matrices $A=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}$, $B=\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}$, $C=\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}$, $D=\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}$ son una base del espacio vectorial $M_2(\mathbb{R})$.

Solución. Ya sabemos que $M_2(\mathbb{R})$ es un espacio vectorial de dimensión $4$, pues una base está conformada por las matrices $E_{11}$, $E_{12}$, $E_{21}$ y $E_{22}$ de la base canónica. El conjunto que tenemos consiste de $4$ matrices. Así, para mostrar que conforman una base, es suficiente con que mostremos que son un conjunto linealmente independiente.

Supongamos que existen reales $a,b,c,d$ tales que $$aA+bB+cC+dD=O_2.$$ Haciendo las operaciones entrada por entrada en esta igualdad, obtenemos que esto sucede si y sólo si $a,b,c,d$ son soluciones al sistema de ecuaciones
$$\begin{cases}a+c&=0\\b-d&=0\\b+d&=0\\a-c&=0.\end{cases}$$

Podríamos encontrar todas las soluciones a este sistema usando reducción gaussiana. Sin embargo, afortunadamente para este sistema hay una forma más sencilla de proceder. Sumando la primera y cuarta igualdad, obtenemos $2a=0$, de donde $a=0$ y entonces por la primer ecuación $c=0$. De manera simétrica, $b=d=0$. De esta forma, la única combinación lineal de $A,B,C,D$ que da la matriz cero es la trivial. Concluimos que $A,B,C,D$ son linealmente independientes, y por lo tanto son una base de $M_2(\mathbb{R})$.

$\square$

En el problema anterior resultó más práctico mostrar que las matrices eran linealmente independientes, pero también pudimos simplemente mostrar que generaban a $M_2(\mathbb{R})$. Por la proposición que enunciamos, cualquiera de los dos implica que en este contexto las matrices forman una base.

Veamos ahora un ejemplo en el que es más conveniente mostrar que el conjunto propuesto es generador.

Problema. Encuentra una base de $\mathbb{R}_4[x]$ que tenga al polinomio $$p(x)=1+x+x^2+x^3+x^4.$$

Solución. Ya sabemos que $\mathbb{R}_4[x]$ tiene dimensión $5$, pues una base es el conjunto de polinomios $\mathcal{B}=\{1,x,x^2,x^3,x^4\}$.

Proponemos al conjunto $$\mathcal{B}’=\{1,x,x^2,x^3,p(x)\}$$ como solución al problema.

Como $\mathcal{B}’$ es un conjunto con $5$ elementos, basta con mostrar que es un conjunto que genera a $\mathbb{R}_4[x]$. Para ello, notemos que $\mathcal{B}’$ puede generar al polinomio $x^4$ pues se obtiene mediante la combinación lineal $$x^4=p(x)-1-x-x^2-x^3.$$

De esta forma, $\mathcal{B}’$ puede generar todo lo que puede generar $\mathcal{B}$. En símbolos: $$\mathbb{R}_4[x]\subseteq \text{span}(\mathcal{B})\subseteq \text{span}(\mathcal{B}’) \subseteq \mathbb{R}_4[x].$$

Concluimos que $\text{span}(\mathcal{B}’) = \mathbb{R}_4[x]$. Esto muestra que $\mathcal{B}’$ es una base de $\mathbb{R}_4[x]$ que tiene al polinomio $p(x)$.

$\square$

Problema. Exactamente uno de los vectores $u=(9,5,1)$ y $v=(9,-5,1)$ puede ser escrito como combinación lineal de los vectores columna de la matriz $$A=\begin{pmatrix} 3 & 0 & 3 \\ 2 & 1 & 1 \\ 1 & 2 & -1 \end{pmatrix}.$$ Determina cuál de ellos es y exprésalo como una combinación lineal de los vectores columna de $A$.

Solución. Un vector $b$ se puede escribir como combinación lineal de las columnas de una matriz $A$ si y sólo si el sistema lineal de ecuaciones $AX=b$ tiene solución. En efecto, si $X=(x,y,z)$, recordemos que $$AX=xC_1+yC_2+zC_3,$$ en donde $C_1$, $C_2$ y $C_3$ son las columnas de la matriz $A$.

De esta forma, una forma de proceder es plantear los sistemas de ecuaciones $AX=u$ y $AX=v$, y ver cuál de ellos tiene solución. Esto se puede hacer y dará la solución al problema.

Sin embargo, aprovecharemos este problema para introducir un truco más. Como queremos resolver ambos sistemas, podemos hacer reducción gaussiana en la matriz aumentada $(A|u|v)$, en donde estamos agregando dos vectores columna nuevos. De la forma escalonada reducida podremos leer todo lo que queremos. La matriz que nos interesa es
\begin{align*}\begin{pmatrix}
3 & 0 & 3 & 9 & 9 \\ 2 & 1 & 1 & 5 & -5\\ 1 & 2 & -1 & 1 & 1
\end{pmatrix}.\end{align*}

Usando la herramienta online de eMathHelp para calcular la forma escalonada reducida de esta matriz, obtenemos

\begin{align*}(A_{red}|u’|v’)=\begin{pmatrix}
1 & 0 & 1 & 3 & 0 \\ 0 & 1 & -1 & -1 & 0\\ 0 & 0 & 0 & 0 & 1
\end{pmatrix}.\end{align*}

Estamos listos para hacer el análisis. Tomando la submatriz conformada por las primeras cuatro columnas (las correspondientes a $A_{red}$ y $u’$), vemos que no queda pivote en la última columna. De este modo, sí hay una solución para $AX=u$.

Para obtener una solución, basta trabajar con esta submatriz y usar nuestros argumentos usuales de sistemas de ecuaciones lineales. La variable $z$ es libre. Las variables $x$ y $y$ son pivote. Haciendo $z=0$ obtenemos $x=3$ y $y=-1$. Concluimos que $$\begin{pmatrix} 9 \\ 5 \\ 1 \end{pmatrix} = 3\begin{pmatrix} 3 \\ 2 \\ 1 \end{pmatrix} + (-1) \begin{pmatrix} 0 \\ 1 \\ 2 \end{pmatrix} + 0 \begin{pmatrix} 3 \\ 1 \\ -1 \end{pmatrix}.$$

Esto sería suficiente para terminar el problema, pues el enunciado garantiza que uno y sólo uno de los vectores es combinación lineal de las columnas.

Pero estudiemos el otro caso para ver qué sucede. Tomando la submatriz conformada por las columnas $1$, $2$, $3$, $5$ de $(A_{red}|u’|v’)$ (correspondientes a $A_{red}$ y $v’$), vemos que sí hay un pivote en la última columna: el de la tercera fila. Entonces, no hay solución para $AX=v$.

$\square$

El problema anterior ayuda a fortalecer mucho nuestra intuición para resolver sistemas de ecuaciones lineales: el sistema $AX=b$ tiene solución si y sólo si el vector $b$ es combinación lineal de los vectores columna de $A$. Cada solución al sistema corresponde a una de estas combinaciones lineales.

Problema. Para $n$ un entero positivo y $k$ un entero de $0$ a $n$, definimos al polinomio $P_k(x)=x^k(1-x)^{(n-k)}$. Muestra que $P_0(x),\ldots, P_n(x)$ es una base para el espacio $\mathbb{R}_n[x]$.

Solución. Como $\mathbb{R}_n[x]$ tiene dimensión $n+1$ y estamos considerando un conjunto de $n+1$ polinomios, entonces basta mostrar que este conjunto es linealmente independiente. Supongamos que hay una combinación lineal de ellos que es igual a cero, digamos $$\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x) + \alpha_n x^n=0.$$

Si evaluamos la expresión anterior en $x=1$, casi todos los sumandos se anulan, excepto el último. De aquí, obtenemos que $\alpha_n 1^n=0$, de donde $\alpha_n=0$. La expresión se convierte entonces en $$\alpha_0 (1-x)^n + \alpha_1 x(1-x)^{n-1} + \ldots + \alpha_{n-1} x^{n-1} (1-x)=0.$$

Factorizando $1-x$ de todos los sumandos y usando que el polinomio $1-x\neq 0$, podemos «cancelar» al factor $1-x$. En otras palabras, podemos «dividir» la combinación lineal entre $1-x$ para obtener $$\alpha_0 (1-x)^{n-1} + \alpha_1 x(1-x)^{n-2} + \ldots + \alpha_{n-1} x^{n-1}=0.$$

De aquí podemos seguir aplicando el mismo argumento: evaluamos en $1$, concluimos que el último coeficiente es igual a $0$, y entonces podemos dividir subsecuentemente entre $1-x$. De esta forma, obtenemos $\alpha_n=\alpha_{n-1}=\ldots=\alpha_0=0$. Concluimos entonces que los polinomios propuestos son linealmente independientes, y por lo tanto forman una base de $\mathbb{R}_n[x]$.

$\square$

El argumento del último párrafo se puede formalizar todavía más usando inducción sobre $n$. Piensa en lo complicado que hubiera sido mostrar de manera directa que los polinomios propuestos generan a $\mathbb{R}_n[x]$. Gracias a la proposición que discutimos al inicio, esto lo obtenemos de manera automática.

Entradas relacionadas