Archivo de la etiqueta: álgebra lineal

Investigación de Operaciones: Forma canónica y forma estándar de un problema lineal (9)

Por Aldo Romero

Introducción

En las entradas anteriores hemos dado ejemplos de varios problemas de aplicación que pueden ser planteados mediante un problema de programación lineal. Una vez que llegamos a un modelo, se pueden tener restricciones de los tipos $\leq$, $=$ y $\geq$. Además, puede haber restricciones de signo sobre las variables. Puede que se les pida ser no positivas, no negativas o irrestrictas (no restringidas) en signo. Lo que haremos ahora es ver cómo podemos llegar a un cierto formato (forma estándar o forma canónica).

Forma canónica de un problema lineal

A continuación introducimos el primer formato que nos facilitará el trabajo.

Definición. Se dice que un problema de programación lineal está en forma canónica si cumple simultáneamente las siguientes tres propiedades:

  1. El problema es de maximización.
  2. Las restricciones del problema son todas del tipo $\leq$ (menor o igual).
  3. Las variables de decisión son no negativas.

Así, tenemos entonces que un problema en forma canónica se ve como sigue:

\begin{align*}
Max \quad z &= c_1x_1+\ldots+c_nx_n\\
s.a.&\\
&\left\{\begin{matrix} a_{11}x_1 + a_{12}x_2 + \ldots + a_{1n}x_n \leq b_1\\
a_{21}x_1+a_{22}x_2+\ldots + a_{2n}x_n \leq b_2\\
\vdots \\
a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n\leq b_n. \\
x_1\geq 0, x_2\geq 0, \ldots, x_n\geq 0.\end{matrix}\right.
\end{align*}

En términos matriciales, esto podemos reescribirlo de manera mucho más compacta como sigue:

\begin{align*}
Max \quad z &= c\cdot x\\
s.a.&\\
Ax &\leq b\\
x &\geq 0,\\
\end{align*}

en donde:

  • $c=(c_1,\ldots,c_n)\in \mathbb R^n$ es el vector de costos (vector renglón)
  • $x = (x_1,\ldots,x_n)\in \mathbb R^n$ es el vector de variables de decisión (vector columna),
  • $A=[a_{ij}]$ es la matriz de restricciones, que es una matriz de $m \times n$ y
  • $b=(b_1,\ldots,b_m) \in \mathbb R^m$ es el vector de constantes que acotan las combinaciones lineales de variables.

Todo problema de programación lineal puede ser expresado en forma canónica; es decir, puede definirse un problema en forma canónica equivalente a él. En efecto:

  • Si el problema es de minimización, puede considerarse en vez de $z$ la función $z’ = -z$ y en el problema equivalente se busca maximizar $z’$.
  • Si una restricción es del tipo $\geq$ puede ser mutiplicada por -1 para obtener una del tipo $\leq$.
  • Una ecuación puede ser substituida por una desigualdad del tipo $\leq$ y otra del tipo $\geq$. Luego, la del tipo $\geq$ puede ser substituida por una del tipo $\leq$ como en el punto anterior.
  • Para una variable $x_i\leq 0$ puede definirse $x_i’ = -x_i$, resultando $x_i’ \geq 0$. Claramente hay una biyección entre elegir el valor de $x_i$ y $x_i’$.
  • Para una $x_i$ no restringida pueden ser definidas dos variables no negativas $x_i’$ y $x_i^\ast$ tales que $x_i’-x_i^\ast = x_i$. Para cualquier $x_i$ dado podemos construir dichas variables, y viceversa, para $x_i’$ y $x_i^\ast$ se puede construir $x_i$.

Ejemplo de pasar un problema a forma canónica

Transformaremos el siguiente modelo a su forma canónica
\begin{align*}
Min \quad z &= x_1-3x_2+7x_3\\
&s.a.\\
3x_1+&x_2+3x_3 &\leq 40\\
x_1+&9x_2-7x_3 &\geq 50\\
5x_1+&3x_2 &= 20\\
&5x_2 + 8x_3 &\leq 80\\
x_1, x_2 &\geq 0, \quad x_3 \quad libre.\\
\end{align*}

Primeramente se definen las variables no negativas $x_3’$ y $x_3^{\ast}$, tales que $x’_3-x_3^{\ast} = x_3$, con objeto de satisfacer el punto (3) de la definición. Para satisfacer el punto (1) se considera la función:
\begin{align*}
z’ &= -z \\&= -x_1+3x_2-7x_3\\&=-x_1+3 x_2-7 x’_3+7x_3^{\ast}
\end{align*}

y se busca maximiza ésta (equivalente a minimizar $z$). Finalmente se realizan cambios en las restricciones para satisfacer el punto (2). La primera y cuarta desigualdad cumplen con la definición por lo que no se modifican (más allá de la sustitución de $x_3$ por $x’_3-x_3^{\ast}$); la segunda desigualdad se multiplica por $-1$ para obtener una del tipo $\leq$: $$ x_1 + 9x_2 – 7x_3 \geq 50 \quad \Leftrightarrow \quad -x_1 – 9x_2 + 7x_3 \leq -50.$$

Substituyendo las nuevas variables se obtiene: $$-x_1-9x_2+7x’_3-7x_3^{\ast}\leq -50.$$

Para la tercera desigualdad se tiene lo siguiente:

\begin{align*}
5x_1+3x_2 &= 20\\
&\Leftrightarrow\\
5x_1 + 3x_2 \leq 20 \quad& y \quad 5x_1 + 3x_2 \geq 20\\
&\Leftrightarrow\\
5x_1 + 3x_2 \leq 20 \quad& y \quad -5x_1 – 3x_2 \leq -20.\\
\end{align*}

Finalmente el problema queda expresado en forma canónica como:

\begin{align*}
Max \quad z’ &= -x_1+3x_2-7x’_3+7x_3^{\ast}\\
&s.a.\\
3x_1+&x_2+3x’_3-3x_3^{\ast} &\leq 40\\
-x_1-&9x_2+7x’_3-7x_3^{\ast} &\leq -50\\
5x_1+&3x_2 &\leq 20\\
-5x_1-&3x_2 &\leq -20\\
&5x_2+8x’_3-8x_3^{\ast} &\leq 80\\
x_1, x_2&, x’_3, x_3^{\ast} \geq 0.\\
\end{align*}

Forma estándar de un problema lineal

Definición. Se dice que un problema de programación lineal está en forma estándar si

  1. Todas las restricciones son ecuaciones.
  2. Todas las variables son no negativas.
  3. La función objetivo puede pedirse que se optimice maximizándola, o minimizándola.

De esta manera, un problema en forma estándar se ve como sigue:

\begin{align*}
Max\, (\text{o } Min) \quad z &= c_1x_1+\ldots+c_nx_n\\
s.a.&\\
&\left\{\begin{matrix} a_{11}x_1 + a_{12}x_2 + \ldots + a_{1n}x_n = b_1\\
a_{21}x_1+a_{22}x_2+\ldots + a_{2n}x_n = b_2\\
\vdots \\
a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n= b_n\\
x_1\geq 0, x_2\geq 0, \ldots, x_n\geq 0.
\end{matrix}\right.\\
\end{align*}

En notación matricial, el problema en forma canónica queda expresado de la siguiente manera:

\begin{align*}
Max\, (\text{o } Min) \quad z &= cx\\
&s.a.\\
Ax &= b\\
x &\geq 0\\
\end{align*}

en donde $c, x, A$ y $b \geq 0$ son como se mencionó antes.

Así como cualquier problema de programación lineal puede ser expresado en forma canónica, también cualquier problema de programación lineal puede expresarse en forma estándar. Una restricción del tipo $\leq$ ($\geq$) puede ser transformada en una ecuación sumando (o restando) una variable no negativa que recibe el nombre de variable de holgura.

Ejemplo de pasar un problema a forma estándar

Retomemos el problema ejemplo anterior, antes de expresarlo en forma canónica.

\begin{align*}
Min \quad z &= x_1-3x_2+7x_3\\
&s.a.\\
3x_1+&x_2+3x_3 &\leq 40\\
x_1+&9x_2-7x_3 &\geq 50\\
5x_1+&3x_2 &= 20\\
&5x_2 + 8x_3 &\leq 80\\
x_1, x_2 &\geq 0, \quad x_3 \quad libre.\\
\end{align*}

Vamos a expresarlo ahora en forma estándar. Como lo hicimos anteriormente, hacemos la sustitución $x=x’_3-x_3^\ast$ para que la variable libre se convierta en dos con restricciones de ser no negativas.

Para satisfacer (1) se introducen las variables de holgura, $x_4$, $x_5$ y $x_6$ que pediremos que sean no negativas. A la primera desigualdad le sumamos $x_4$. A la quinta le sumamos $x_6$. Y finalment, a la segunda le restamos $x_5$. Esto transforma las desigualdades en igualdades. De esta manera, el problema queda expresado de la siguiente manera:

\begin{align*}
Min \quad z &= x_1 – 3x_2+7x’_3-7x_3^\ast\\
&s.a.\\
3x_1 + &x_2 + 3x’_3 – 3x_3^\ast + x_4 &= 40\\
x_1 + &9x_2 – 7x’_3 + 7x_3^\ast – x_5 &= 50\\
5x_1 + &3x_2 &= 20\\
&5x_2 + 8x’_3 – 8x_3^\ast + x_6 &= 80\\
x_1,&x_2,x’_3,x_3^\ast,x_4,x_5,x_6 \geq 0.\\
\end{align*}

Más adelante…

Las formas que estudiamos en esta entrada nos ayudarán posteriormente para plantear soluciones para problemas de programación lineal.

Mientras tanto, en la siguiente entrada hablaremos de algunos otros conceptos relativos a la teoría de problemas lineales y posibles propiedades que puede tener una asignación de variables. Diremos qué es una solución básica, una solución factible y un punto extremo para un problema lineal.

Tarea moral

  1. ¿Cuál sería la forma estándar del problema de maximizar $x+y$ sujeto a $x-y\leq 8$ y $y\leq 0$? ¿Y su forma canónica?
  2. Transforma el siguiente problema de programación lineal a su forma canónica y a su forma estándar:
    \begin{align*}
    Max \quad z &= -2x_1 + 3x_2 – 2x_3\\
    &s.a.\\
    4x_1 – &x_2 – 5x_3 &= 10\\
    2x_1 + &3x_2 + 2x_3 &\geq 12\\
    x_1 &\geq 0, \quad x_2, x_3 \quad irrestrictas\\
    \end{align*}
  3. Revisa nuevamente las entradas anteriores y encuentra las formas canónicas y formas estándar de los problemas que hemos planteado hasta ahora.
  4. La forma estándar (o bien la forma canónica) de un programa lineal «es equivalente» al problema original. Justifica esta afirmación formalmente. Es decir, explica por qué una solución $x_1,\ldots,x_n$ que optimiza el problema original está asociada a una solución de su forma estándar (o canónica) y viceversa.
  5. Imagina que tenemos un sistema de ecuaciones de la forma $Ax=B$ con $A$ matriz en $M_{m,n}(\mathbb{R})$ y $b$ vector en $\mathbb{R}^m$. Queremos encontrar de todas las posibles soluciones al sistema aquella que minimiza la suma de las entradas de $x$. Plantea esto como un problema lineal y transfórmalo a su forma canónica y a su forma estándar.

Entradas relacionadas

Cálculo Diferencial e Integral III: Polinomio característico

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.

A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:

Polinomio característico

Pensemos en el problema de hallar los eigenvalores de una transformación lineal $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$. Si $\lambda \in \mathbb{R}$ es uno de estos eigenvalores, queremos poder encontrar vectores $\bar{v}\neq \bar{0}$ tales que $T(\bar{v})=\lambda \bar{v}$. Esto sucede si y sólo si $\lambda \bar{v}-T(\bar{v})=\bar{0}$, lo cual sucede si y sólo si $(\lambda \text{Id}-T)(\bar{v})=\bar{0}$, en donde $\text{Id}:\mathbb{R}^n\to \mathbb{R}^n$ es la transformación identidad de $\mathbb{R}^n$ en $\mathbb{R}^n$. Tenemos de esta manera que $\bar{v}$ es un eigenvector si y sólo si $\bar{v}\in \ker(\lambda\text{Id}-T)$.

Si existe $\bar{v}\neq \bar{0}$ tal que $\bar{v}\in \ker(\lambda \text{Id}-T)$; entonces $\ker(\lambda \text{Id}-T)\neq \{ \bar{0}\}$ por lo cual la transformación $\lambda \text{Id}-T$ no es invertible, pues no es inyectiva. Así, en ninguna base $\text{Mat}_\beta(\lambda \text{Id}-T)$ es invertible, y por tanto su determinante es $0$. Estos pasos son reversibles. Concluimos entonces que $\lambda\in \mathbb{R}$ es un eigenvalor de $T$ si y sólo si en alguna base $\beta$ se cumple que $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0.$ Esto motiva la siguiente definición.

Definición. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Llamamos a $\det(\text{Mat}_\beta(\lambda \text{Id} – T))$ al polinomio característico de $T$ en la base $\beta$.

Por la discusión anterior, los escalares que cumplen $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0$ son los eigenvalores $T$. Para obtener los correspondientes eigenvectores, basta con resolver $\text{Mat}_\beta(T)X=\lambda X$, lo cual es un sistema de ecuaciones en el vector de variables $X$. Las soluciones $X$ nos darán las representaciones matriciales de vectores propios $\bar{v}\in \mathbb{R}^n$ en la base $\beta$.

Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.

Ejemplo: Consideremos $T:\mathbb{R}^{3}\rightarrow \mathbb{R}^{3}$ dada por $T(x,y,z)=(2x+z,y+x,-z)$. Calculemos su representación matricial con respecto a la base canónica $\beta$. Para ello, realizamos las siguientes evaluaciones:
\begin{align*}
T(1,0,0)&=(2,1,0)\\
T(0,1,0)&=(0,1,0)\\
T(0,0,1)&=(1,0,-1),
\end{align*}

de donde: $$\text{Mat}_\beta=\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix}.$$

Calculando el polinomio característico obtenemos: \[ det\begin{pmatrix} \lambda-2 & 0 & -1 \\ -1 & \lambda-1 & 0 \\ 0 & 0 & \lambda+1 \end{pmatrix}= (\lambda-2)(\lambda-1)(\lambda+1). \]

Las raíces de $(\lambda-2)(\lambda-1)(\lambda+1)$ son $\lambda_{1}=2$, $\lambda_{2}=1$ y $\lambda_{3}=-1$. Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor $\lambda=2$. Para que $(x,y,z)$ represente a un eigenvector en la base canónica, debe pasar que:

\[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = 2\begin{pmatrix} x \\ y \\ z \end{pmatrix},\]

lo cual sucede si y sólo si:

\[\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} – 2\begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\left[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} – 2\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\right] \begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\begin{pmatrix} 0 & 0 & 1 \\ 1 & -1& 0 \\ 0 & 0 & -3 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:

\[\begin{pmatrix} 1 & -1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

En esta forma es sencillo leer las soluciones. Tenemos que $z$ es variable pivote con $z=0$, que $y$ es variable libre, y que $x$ es variable pivote dada por $x=y$. Concluimos entonces que todos los posibles eigenvectores para el eigenvalor $2$ son de la forma $(y,y,0)$, es decir $E_2=\{(y,y,0): y \in \mathbb{R}\}$.

Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores $1$ y $-1$.

$\triangle$

Matrices similares

En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.

Sea $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$ una transformación lineal y sean $\beta_1=\{ \bar{e}_{1}, \dots , \bar{e}_{n}\}$, $\beta_2=\{ \bar{u}_{1}, \dots , \bar{u}_{n}\}$ dos bases (ordenadas) de $\mathbb{R}^n$. Supongamos que:

\begin{align*}
A&=\text{Mat}_{\beta_1}(T)=[a_{ij}]\\
B&=\text{Mat}_{\beta_2}(T)=[b_{ij}].
\end{align*}

Por cómo se construyen las matrices $A$ y $B$, tenemos que:

\begin{align*}
T(\bar{e}_j)&=\sum_{i=1}^n a_{ij} \bar{e}_i\quad\text{para $j=1,\ldots,n$}\\
T(\bar{u}_k)&=\sum_{j=1}^n b_{jk} \bar{u}_j\quad\text{para $k=1,\ldots,n$}.
\end{align*}

Como $\beta_{1}$ es base, podemos poner a cada un de los $\bar{u}_k$ de $\beta_{2}$ en términos de la base $\beta_{1}$ mediante combinaciones lineales, digamos:

\begin{equation}
\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}
\label{eq:valor-u}
\end{equation}

en donde los $c_{jk}$ son escalares para $j=1,\ldots, n$ y $k=1,\ldots,n$. La matriz $C$ de $n\times n$, con entradas $c_{jk}$ representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que $CB=AC$. Para ello, tomaremos una $k$ en $[n]$ y expresaremos $T(\bar{u}_k)$ de dos formas distintas.

Por un lado, usando \eqref{eq:valor-u} y por como es cada $T(\bar{e}_k)$ en la base $\beta_{1}$ tenemos que:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^n c_{jk} T(\bar{e}_j)\\
&=\sum_{j=1}^n c_{jk} \sum_{i=1}^n a_{ij} \bar{e}_i\\
&=\sum_{j=1}^n \sum_{i=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n a_{ij} c_{jk}\right) \bar{e}_i.
\end{align*}

Por otro lado, usando $\eqref{eq:valor-u}$ y por como es cada $T(\bar{u}_k)$ en la base $\beta_{2}$:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^nb_{jk} \bar{u}_j\\
&=\sum_{j=1}^n b_{jk} \sum_{i=1}^{n}c_{ji}\bar{e}_{j} \\
&=\sum_{j=1}^n \sum_{i=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n c_{ij} b_{jk} \right) \bar{e}_i.
\end{align*}

Comparemos ambas expresiones para $T(\bar{u}_k)$. La primera es una combinación lineal de los $\bar{e}_i$ y la segunda también. Como $T(\bar{u}_k)$ tiene una única expresión como combinación lineal de los $\bar{e}_i$, entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada $i$ se cumple:

$$\sum_{j=1}^n a_{ij} c_{jk}=\sum_{j=1}^n c_{ij} b_{jk}.$$

Pero esto precisamente nos dice que la entrada $(i,k)$ de la matriz $AC$ es igual a la entrada $(i,k)$ de la matriz $CB$. Con esto concluimos que $AC=CB$, como queríamos.

En resumen, obtuvimos que para dos matrices $A$ y $B$ que representan a la misma transformación lineal, existe una matriz invertible $C$ tal que: $B=C^{-1}AC$. Además $C$ es la matriz con entradas dadas por \eqref{eq:valor-u}.

Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.

Definición. Dos matrices $A$ y $B$ se llamarán similares (o semejantes), cuando existe otra matriz $C$ invertible tal que $B=C^{-1}AC$.

Sintetizamos nuestro resultado de la siguiente manera.

Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.

El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.

Proposición. Sean $A$ y $B$ matrices similares. Entonces $A$ y $B$ representan a una misma transformación lineal $T$, quizás bajo distintas bases.

Demostración: Supongamos que las matrices $A$ y $B$ son similares con $B=C^{-1}AC$, donde las matrices $A$, $B$, $C$ están dadas por entradas $A=[a_{ij}]$ $B=[b_{ij}]$, $C=[c_{jk}]$. Tomemos una base ordenada $\beta=\{\bar{e}_{1}, \dots ,\bar{e}_{n}\}$ de $\mathbb{R}^n$. Consideremos la transformación lineal $T\in \mathcal{L}(\mathbb{R}^n,\mathbb{R}^n)$ dada por $$T(\bar{e}_j)=\sum_{i=1}^n a_{ij} \bar{e}_i.$$

De esta manera $T$ tiene forma matricial $A$ en la base $\beta$.

Construyamos ahora una nueva base ordenada de $\mathbb{R}^n$ dada por vectores $\bar{u}_k$ para $k=1,\ldots,n$ construidos como sigue:

$$\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}.$$

Como $C$ es invertible, en efecto tenemos que $\beta’:=\{\bar{u}_1,\ldots,\bar{u}_n\}$ también es base de $\mathbb{R}^n$. Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de $T$ en la base $\beta’$ será $B$.

Así, hemos exhibido una transformación $T$ que en una base tiene representación $A$ y en otra tiene representación $B$.

$\square$

Juntando ambos resultados en uno solo, llegamos a lo siguiente.

Teorema. Dos matrices $A$ y $B$ en $M_n(\mathbb{R})$ son similares si y sólo si representan a una misma transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^n$, quizás bajo distintas bases.

El polinomio característico no depende de la base

Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal en un espacio sobre $\mathbb{R}$ de dimensión finita. Sean $\beta$ y $\beta’$ bases de $\mathbb{R}^n$. Entonces se obtiene lo mismo calculando el polinomio característico de $T$ en la base $\beta$, que en la base $\beta’$.

Demostración. Tomemos $A=\text{Mat}_{\beta}(T)$ y $B=\text{Mat}_{\beta’}(T)$. Como $A$ y $B$ representan a la misma transformación lineal $T$, entonces son similares y por lo tanto existe $C$ invertible con $B=C^{-1}AC$.

Para encontrar el polinomio característico de $T$ en la base $\beta$, necesitamos $\Mat_{\beta}(\lambda\text{Id}-T)$, que justo es $\lambda I -A$. Así mismo, en la base $\beta’$ tenemos $\lambda I – B$. Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:

\begin{align*}
\det(\lambda I -B) &= \det (\lambda C^{-1}C – C^{-1} A C)\\
&=\det(C^{-1}(\lambda I – A) C)\\
&=\det(C^{-1})\det(\lambda I – A) \det(C)\\
&=\det(C^{-1})\det(C)\det(\lambda I-A)\\
&=\det(I)\det(\lambda I-A)\\
&=\det(\lambda I-A).
\end{align*}

Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con $\det$, lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.

$\square$

Este teorema nos permite hablar del polinomio característico de una transformación lineal.

Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Supongamos que el polinomio característico de $T$ tiene raíces distintas $\lambda_{1}, \dots ,\lambda_{n}$. Entonces se cumple lo siguiente:

  1. Si tomamos un eigenvector $\bar{u}_i$ para cada eigenvalor $\lambda_i$, entonces $\bar{u}_{1},\dots ,\bar{u}_{n}$ forman una base $\beta$ para $\mathbb{R}^n$.
  2. Con dicha base $\beta$, se cumple que $\text{Mat}_\beta(T)$ es una matriz diagonal con entradas $\lambda_{1},\dots ,\lambda_{n}$ en su diagonal.
  3. Si $\beta’$ es otra base de $\mathbb{R}^n$ y $A=\text{Mat}_{\beta’}(T)$, entonces $\text{Mat}_\beta(T) = C^{-1}AC$ para una matriz invertible $C$ con entradas dadas por \eqref{eq:valor-u}.

La demostración de este resultado queda como tarea moral.

Más adelante…

En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación $T$: 1) la transformamos en una matriz $A$, 2) encontramos el polinomio característico mediante $\det(\lambda I – A)$, 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones $(\lambda I – A) X=0$ dan los vectores coordenada de los eigenvectores.

Como platicamos en la entrada, una condición suficiente para que una transformación de $\mathbb{R}^n$ a sí mismo sea diagonalizable es que tenga $n$ eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.

Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de $\mathbb{R}^{n}$ a $\mathbb{R}^{m}$ son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.

Tarea moral

  1. Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
  2. Considera la transformación lineal $T(x,y,z)=(2x+z,y+x,-z)$ de $\mathbb{R}^3$ en $\mathbb{R}^3$. Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base $\{(1,1,1),(1,2,3),(0,1,1)\}$ de $\mathbb{R}^3$. Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
  3. Demuestra que si $A$ y $B$ son dos representaciones matriciales de una misma transformación lineal $T$, entonces $\det(A)=\det(B)$.
  4. Sea $T:\mathbb{R}^{3}\to \mathbb{R}^{3}$ dada por $T(x,y,z)=(x+y+z,x,y)$. Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base $\beta$ en la cual $\text{Mat}_{\beta}(T)$ es diagonal.
  5. Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.

Entradas relacionadas

1.6. SUBESPACIO GENERADO POR UN CONJUNTO: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

Queremos saber:
¿Podemos describir el conjunto de todas las combinaciones lineales de un conjunto dado?
Dado un elemento de un conjunto $A$, ¿cómo saber si podemos obtenerlo como combinación lineal de otro conjunto $B$?
¿Qué características cumple el conjunto de todas las combinaciones lineales de un conjunto cualquiera?

SUBESPACIO GENERADO

Definición: Sean $V$ un $K$ – espacio vectorial y $S$ un subconjunto de $V$. Diremos que el subespacio de $V$ generado por $S$ es:
el conjunto de combinaciones lineales de $S$, si $S\not=\emptyset$,
o bien, $\{\theta_V\}$, si $S=\emptyset$.
Se denota por $\langle S\rangle$.

Si $W$ es un subespacio de $V$, se dice que $S$ genera a $W$, o que $S$ es un conjunto generador de $W$, si $\langle S\rangle =W$.

Observación: La proposición de la entrada anterior nos menciona tres importantes propiedades del conjunto de todas las combinaciones de un subconjunto dado, en particular, que forma un subespacio.

Nota: Es común que en algunos libros se denote como $span(S)$ en lugar de $\langle S\rangle$. Además, se suele escribir $\langle v_1,…,v_n\rangle$ cuando $S=\{v_1,…,v_n\}$.

Ejemplos:

  • Sean $K=\mathbb{R}$, $V=\mathbb{R}^3$ y $S=\{(1,0,0),(0,1,0),(0,0,1)\}=\{e_1,e_2,e_3\}$.
    $\langle S\rangle =V$.

Justificación: Para cualesquiera $a,b,c\in\mathbb{R}$, tenemos que $a(1,0,0)+b(0,1,0)+c(0,0,1)=(a,b,c)\in V$, así que $\langle S\rangle\subseteq V$.
Para cualquier $(x,y,z)\in V$, tenemos que $(x,y,z)=x\,e_1+y\,e_2+z\,e_3\in S$, por lo que $V\subseteq\langle S\rangle$.

  • Sean $K=\mathbb{R}$, $V=\mathcal{P}_2(\mathbb{R})$ y $S=\{1,1-x,1-x-x^2\}$.
    $\langle S\rangle =V$.

Justificación: Para cualesquiera $\lambda_1,\lambda_2,\lambda_3\in\mathbb{R}$, tenemos que $\lambda_1(1)+\lambda_2(1-x)+\lambda_3(1-x-x^2)$
$=(\lambda_1+\lambda_2+\lambda_3)+(-\lambda_2-\lambda_3)x+(-\lambda_3)x^2\in V$, así que $\langle S\rangle\subseteq V$.
Para cualquier $a+bx+cx^2\in V$, tenemos que $a+bx+cx^2=(a+b)(1)+(c-b)(1-x)+(-c)(1-x-x^2)\in S$, por lo que $V\subseteq\langle S\rangle$.

  • Sean $K=\mathbb{R}$, $V=\mathbb{R}^3$ y $S=\{(1,0,0),(1,-1,0),(1,1,-1)\}$.
    $\langle S\rangle =V$.

Justificación: Para cualesquiera $a,b,c\in\mathbb{R}$, tenemos que $a(1,0,0)+b(1,-1,0)+c(1,1,-1)=(a+b+c,-b+c,-c)\in V$, así que $\langle S\rangle\subseteq V$.
Para cualquier $(x,y,z)\in V$, tenemos que $(x,y,z)=(x+y+2z)(1,0,0)+(-y-z)(1,-1,0)+(-z)(1,1,-1)\in S$, por lo que $V\subseteq\langle S\rangle.$

  • Sean $K=\mathbb{R}$, $V=\mathcal{M}_{2\times 2}(\mathbb{R})$ y $S=\left\{ \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} , \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} \right\}$.
    $\langle S\rangle =\left\{ \begin{pmatrix} a & a \\ b & a \end{pmatrix} \bigg\vert a,b\in\mathbb{R}\right\}$.

Justificación: \begin{align*}
\langle S\rangle &= \bigg\{ \lambda \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} + \mu \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} \bigg\vert \,\lambda,\mu\in\mathbb{R}\bigg\}\\
&= \bigg\{ \begin{pmatrix} \lambda & \lambda \\ \lambda & \lambda \end{pmatrix} + \begin{pmatrix} \mu & \mu \\ 0 & \mu \end{pmatrix} \bigg\vert \lambda ,\mu\in\mathbb{R} \bigg\} \\
&= \bigg\{ \begin{pmatrix} \lambda +\mu & \lambda + \mu \\ \lambda & \lambda +\mu \end{pmatrix} \bigg\vert\, \lambda ,\mu\in\mathbb{R} \bigg\} \\
&= \bigg\{ (\lambda +\mu)\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} + \lambda \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} \bigg\vert\, \lambda ,\mu\in\mathbb{R} \bigg\} \\
&= \bigg\{ a\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} + b\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} \bigg\vert\, a,b\in\mathbb{R} \bigg\} \\
&= \bigg\{ \begin{pmatrix} a & a \\ b & a \end{pmatrix} \bigg\vert \,a,b\in\mathbb{R}\bigg\}
\end{align*}

Nota: Puede ocurrir que $W\subseteq\langle S\rangle$ y $W\not=\langle S\rangle$. En ese caso, $S$ no genera a $W$.
Por ejemplo, si $W=\{(a,a)|a\in\mathbb{R}\}$ y $S=\{e_1,e_2\}$, es claro que $\langle S\rangle =\mathbb{R}^2$, por lo cual, $W\subseteq\langle S\rangle$, pero no son iguales.

Observación: Si $S\subseteq W$, entonces $\langle S\rangle\subseteq W$.
Si además todo vector en $W$ es combinación lineal de vectores de $S$, entonces $W\subseteq\langle S\rangle$ y en ese caso tendremos que $\langle S\rangle= W.$

Como el subespacio generado por un conjunto es un conjunto, nos interesa analizar algunas operaciones y ver qué relaciones encontramos.

Sea $V=\mathbb{R}^2$ con $K=\mathbb{R}$.
Sean $S_1=\{(1,0)\}$, $S_2=\{(0,1)\}$ y $S_3={(1,1)}$.

  • $S_1\cup S_2=\{(1,0),(0,1)\}$
  • $S_1\cap S_2=\emptyset$
  • $S_1\cup S_3=\{(1,0),(1,1)\}$
  • $S_1\cap S_3=\emptyset$
  • $\langle S_1\rangle =\{(x,0)|x\in\mathbb{R}\}$
  • $\langle S_2\rangle =\{(0,y)|y\in\mathbb{R}\}$
  • $\langle S_3\rangle =\{(x,x)|x\in\mathbb{R}\}$
  • $\langle S_1\cup S_2\rangle$$=\langle\{(1,0),(0,1)\}\rangle$
    Sean $a\in\mathbb{R}$, $b\in\mathbb{R}$
    Como $a(1,0)+b(0,1)=(a,0)+(0,b)=(a,b)$ y $a$ y $b$ son números reales cualesquiera, entonces para cualquier $(x,y)\in\mathbb{R}$ podremos encontrar una combinación lineal de $S_1\cup S_2$ cuyo resultado sea $(x,y)$
    Por lo tanto, $\langle S_1\cup S_2\rangle=\mathbb{R}^2$.
  • $\langle S_1\rangle\cup\langle S_2\rangle$$=\{(x,0)|x\in\mathbb{R}\}\cup\{(0,y)|y\in\mathbb{R}\}$
    Es decir, únicamente podemos obtener valores en los ejes de nuestro plano cartesiano.
  • $\langle S_1\cap S_3\rangle$$=\emptyset$$=(0,0)$
  • $\langle S_1\rangle\cap\langle S_3\rangle$$=\langle\{(x,0)|x\in\mathbb{R}\}\rangle\cap\langle\{(x,x)|x\in\mathbb{R}\}\rangle$
    Una combinación lineal pertenece a este conjunto si el resultado puede expresarse con únicamente elementos de $S_1$ y con únicamente elementos de $S_2$.
    ¿Qué elementos de $\mathbb{R}^2$ tienen en la segunda entrada al cero y en ambas entradas al mismo número? Solo en $(0,0)$
    Por lo tanto, $\langle S_1\rangle\cap\langle S_3\rangle =(0,0)$.

Tarea Moral

  1. Encuentra un $K_1$ campo y un $K_1$ – espacio vectorial donde puedas definir un subconjunto infinito $S_1$ tal que $\langle S_1\rangle$ sea finito.
  2. Encuentra un $K_2$ campo y un $K_2$ – espacio vectorial donde puedas definir un subconjunto $S_2$ de un solo elemento tal que $\langle S_2\rangle$ sea infinito.
  3. Toma en cuenta los subconjuntos definidos al final de esta entrada donde $K=\mathbb{R}$ y $V=\mathbb{R}^2$. Describe la relación que existe entre:
    • $\langle S_1\cup S_3\rangle$ y $\langle S_1\rangle\cup\langle S_3\rangle$
    • $\langle S_1\cap S_2\rangle$ y $\langle S_1\rangle\cap\langle S_2\rangle$

Más adelante…

Muchas veces en matemáticas buscamos el mayor / menor conjunto con el cual obtengamos ciertas propiedes. Siguiendo esta idea, veremos un nuevo concepto: conjunto linealmente independiente.

Entradas relacionadas

1.5. COMBINACIÓN LINEAL: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Tenemos nuestros ingredientes: los vectores y los escalares.
Tenemos nuestras parejas: resultado del producto un vector por un escalar.
Tenemos nuestros equipos: resultado de la suma de parejas.

En el caso de $K=\mathbb{R}$ tenemos que las parejas nos dicen «cuánto» de cada «ingrediente».

La combinación lineal es el «equipo» que formamos por medio de nuestras «parejas» (puede ser una pareja solita). Por medio de este concepto, entrelazamos todo lo que hemos visto: campos y espacios vectoriales (con sus operaciones y propiedades).

COMBINACIÓN LINEAL

Definición: Sea $V$ un $K$ – espacio vectorial. Consideremos $m\in \mathbb{N}^{+}$ y $v_1,…,v_m\in V$. Una combinación lineal de $v_1,…,v_m$ es una expresión de la forma
$\lambda_1v_1+…+\lambda_mv_m$ con $\lambda_1,…,\lambda_m\in K$.

Nota: De modo más general, si $S$ es un subconjunto de $V$, entonces una combinación lineal de vectores de $S$ es un vector de la forma
$\lambda_1v_1+…+\lambda_mv_m$ con $v_1,…,v_m\in S$ y $\lambda_1,…,\lambda_m\in K$.

Ejemplos:

  • Sea $S=\{(1,0,0),(1,-1,0),(1,1,-1)\}$.
    $2(1,0,0)-(1,-1,0)+5(1,1,-1)=(6,6,-5)$;
    $-3(1,0,0)+0(1,-1,0)+(1,1,-1)=(-2,1,-1)$;
    $0(1,0,0)+(1,-1,0)+0(1,1,-1)=(1,-1,0)$
    son combinaciones lineales de vectores de $S$.
  • Sea $S=\{(\frac{1}{n},\frac{1}{n})|n\in\mathbb{N}^{+}\}$.
    $2(\frac{1}{2},\frac{1}{2})+3(\frac{1}{6},\frac{1}{6})-4(\frac{1}{12},\frac{1}{12})=(\frac{7}{6},\frac{7}{6})$
    es una combinación lineal de vectores de $S$.
  • Sea $S=\mathcal{P}_2(\mathbb{R})=\{a+bx+cx^2|a,b,c\in\mathbb{R}\}$.
    $\frac{1}{2}x+(1-2x+5x^2)-(8+3x)+3(4-2x+x^2)$$=5-\frac{21}{2}x+8x^2$
    es una combinación lineal de vectores de $S$.

Nota: Aun cuando el conjunto $S$ sea infinito, sólo consideraremos combinaciones lineales en las que se use una cantidad finita de vectores de $S$.

Observación: A menudo, uno o más vectores en un conjunto dado pueden expresarse como combinaciones lineales de otros vectores en el conjunto.

Proposición: Sean $V$ un $K$ – espacio vectorial, $S\not=\emptyset$ un subconjunto de $V$. El conjunto de todas las combinaciones lineales de vectores de $S$ cumple lo siguiente:

i) es un subespacio de $V$.

ii) contiene a $S.$

iii) está contenido en cualquier subespacio de $V$ que contenga a $S$.

Demostración: Sea $V$ un $K$ – espacio vectorial, $S\subseteq V$, $S\not=\emptyset$.
Denotemos por $\mathcal{C}(S)$ al conjunto de todas las combinaciones lineales de vectores de $S$.

i) P.D. $\mathcal{C}(S)\leqslant V$

  • Primero, como $S\not=\emptyset$, podemos tomar $v\in S$.
    $\therefore\theta_V=0v\in \mathcal{C}(S)$.
  • Luego, sean $v,w\in\mathcal{C}(S)$.
    Es decir, existen $n,m\in \mathbb{N}^{+}$, $\lambda_1,…,\lambda_n, \mu_1,…,\mu_m\in K$, $v_1,…,v_n,\omega_1,…,\omega_m\in S$ tales que:
    $v=\lambda_1v_1+…+\lambda_nv_n$
    $w=\mu_1\omega_1+…+\mu_m\omega_m$
    Veamos que $v+w\in\mathcal{C}(S)$.
    $v+w=(\lambda_1v_1+…+\lambda_nv_n)+(\mu_1\omega_1+…+\mu_m\omega_m)\in \mathcal{C}(S).$.
  • Por último, sean $v\in\mathcal{C}(S)$, $\lambda\in K$.
    Es decir, existen $n\in \mathbb{N}^{+}$, $\lambda_1,…,\lambda_n\in K$ tales que
    $v=\lambda_1v_1+…+\lambda_nv_n$
    Veamos que $\lambda v\in K$.
    $\begin{align*} \lambda v & =\lambda(\lambda_1v_1+…+\lambda_nv_n) \\ & =\lambda(\lambda_1v_1)+…+\lambda(\lambda_nv_n) \\ & =(\lambda\lambda_1)v_1+…+(\lambda\lambda_n)v_n\in\mathcal{C}(S) \end{align*}.$

ii) P.D. $S\subseteq\mathcal{C}(S)$

Sea $v\in S$.
Tenemos que $v=1v\in\mathcal{C}(S).$

iii) P.D. Si $W \leq V$ es tal que $S\subseteq W$, entonces $\mathcal{C}(S)\subseteq W$.

Sea $W \leq V$ tal que $S\subseteq W$.
Tomaremos $v$ un elemento arbitrario de $\mathcal{C}(S)$:
Sean $v_n \in\mathcal{C}(S)$, existen $n\in\mathbb{N}^{+}$ y $v_1,\dots, v_n \in\mathcal{C}(S)$ de manera que
$v=\lambda_1v_1+…+\lambda_nv_n$
donde $\lambda_1,…,\lambda_n\in K$ y $v_1,…,v_n\in S$.
Tenemos que $\forall i$ $(v_i\in S\subseteq W)$
$\therefore v_i\in W$ para toda $i.$
Gracias a que $W$ es un subespacio y a que el producto por escalar y la suma son cerrados en los subespacios, se cumple que $\lambda_iv_i\in W$ para toda $i$ y por ende, $v=\lambda_1v_1+…+\lambda_nv_n\in W.$

Tarea Moral

  1. Describe (en lenguaje natural o algebraico) los elementos que se pueden obtener mediante combinaciones lineales de $S=\{(1,-1,0),(2,-2,0),(3,-3,0),…\}$.
  2. Obtén $\begin{pmatrix} i & 3i \\ 2 & 1-i \end{pmatrix}$ como combinación lineal de $\begin{pmatrix} 2i & 6i \\ 4 & 2-2i \end{pmatrix}$ y $\begin{pmatrix} i & 3i \\ 2 & 1-i \end{pmatrix}$ de 5 maneras distintas.
  3. ¿Existe algún conjunto $S$ infinito donde al menos un elemento no se pueda escribir como combinación lineal de otros elementos del conjunto? Puedes construirlo pensando en el ejercicio 1 – agregando un elemento -.

Más adelante…

Ahora que podemos tomar un subconjunto finito de vectores y obtener, por medio de combinaciones lineales, tanto conjuntos finitos como infinitos, analizaremos una propiedad muy peculiar del conjunto que resulta a partir de ello y el nombre que recibe.

Entradas relacionadas

1.4. SUBESPACIO: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Si tenemos un conjunto $C$ con ciertas propiedades de nuestro interés, no forzosamente todo subconjunto de $C$ va a conservar esas propiedades, pero nos interesa encontrar condiciones suficientes (y de preferencia también necesarias) para saber si un subconjunto $D$ de $C$ dado tiene o no las propiedades que queremos.

Si $C$ es un conjunto que contiene a hombres y a mujeres, podemos definir un subconjunto que no contenga hombres y un subconjunto que no tenga mujeres, con lo que ya no preservan la propiedad deseada.

En esta entrada analizaremos qué se requiere para que un subconjunto de un espacio vectorial, tenga también estructura de espacio vectorial. Veremos que aunque aparentemente se requiere pedir muchas condiciones, en realidad éstas se pueden reducir sólo a unas cuantas.

SUBESPACIO

Definición: Sea $V$ un $K$ – espacio vectorial y $W$ un subconjunto de $V$. Decimos que $W$ es un subespacio de $V$, y se le denota como $W\leqslant V$ si:

i) $W$ contiene al neutro del espacio $V$,
i.e. $\theta_V\in W$

ii) La suma es cerrada en $W,$
i.e. $\forall u,v\in W:$
$u+v\in W$

iii) El producto por escalar es cerrado en $W$,
i.e. $\lambda\in K$, $w\in W:$
$\lambda w\in W$

Veamos una equivalencia a esta definición que nos facilitará demostrar si un subconjunto dado de un espacio vectorial es por sí mismo un espacio vectorial.

Proposición: Sean $V$ un $K$ – espacio vectorial y $W$ un subconjunto de $V$. Se cumple que $W\leqslant V$ si y sólo si $W$ con las operaciones restringidas de $V$ es un $K$ – espacio vectorial.

Demostración: Veamos que se cumplen ambas implicaciones.

$\Longrightarrow )$ Sup. que $W\leqslant V$.
Por ii) y iii) la suma y el producto por escalar son cerrados en $W$, entonces las operaciones restringidas de $V$ dan una suma y un producto por escalar en $W$.
Propiedades $1$, $2$, $5$, $6$, $7.1$ y $7.2$ de espacio vectorial: Como $u+v=v+u$ para cualesquiera $u,v\in V$, en particular $u+v=v+u$ para toda $u,v\in W$. Por lo tanto, la suma en $W$ es conmutativa.
Nota: Decimos en este caso que la conmutatividad de la suma se hereda de $V$.
Análogamente se heredan la asociatividad de la suma en $W$ y las propiedades $5$, $6$, $7.1$ y $7.2$ de espacio vectorial.
Propiedad $4$ de espacio vectorial: Para cada $w\in W$ se cumple que $-w=(-1_K)w\in W$ ya que el producto es cerrado en $W$.
Propiedad $5$ de espacio vectorial: Por hipótesis $\theta_V\in W$ y como es el neutro en $V$, $\theta_V+v=v+\theta_V=v$ para todo $v\in V$, en particular $\theta_V+w=w+\theta_V=w$ para todo $w\in W$, así $\theta_V$ funciona como neutro en $W$.
$\therefore W$ con las operaciones restringidas de $V$ es un $K$ – espacio vectorial.

$\Longleftarrow )$ Sup. que $W$ es un $K$ – espacio vectorial con las operaciones restringidas de $V$.
Entonces la suma y el producto por escalar son cerrados en $W$, es decir, se cumplen ii. y iii.
Además $W$ tiene un neutro, digamos $\theta_W\in W$.
Por un lado $\theta_V+\theta_W=\theta_W$ en $V$, pues $\theta_V$ es neutro en $V$.
Por otro lado $\theta_W+\theta_W=\theta_W$ en $W$, pues $\theta_W$ es neutro en $W$.
Así, $\theta_V+\theta_W=\theta_W+\theta_W$ en $V$ y por cancelación en $V$, $\theta_V=\theta_W$.
De donde $\theta_V\in W$
$\therefore W\leqslant V$ .

Obs. Sean $V$ un $K$ – espacio vectorial, $W$ un subconjunto de $V$. Resulta que
$W\leqslant V$ si y sólo si se cumple que: a) $W\not=\emptyset$ y b) $\forall u,v\in W$ $\forall\lambda\in K(\lambda u+v\in W)$.

La implicación de ida es muy directa y queda como ejercicio. Para justificar el regreso sup. que se cumplen a) y b). Dados $u,v\in W$ se tiene que $u+v=1_Ku+v$ y gracias a b) sabemos que $1_Ku+v\in W$, así se cumple la propiedad ii). Por otro lado, como se cumple a) podemos asegurar que existe $v \in W$, y por la propiedad b) $\theta_V=-v+v=(-1_K)v+v\in W$, por lo que $\theta_V\in W$ y se cumple i). Finalmente dados $u\in W, \lambda \in K$ como $\theta_V\in W$, usando b) se tiene que $\lambda u=\lambda u+\theta_V\in W$ por lo que se cumple la propiedad iii).

Ejemplos:

  • $\{ (x,y,0)|x,y\in\mathbb{R}\}$ es un subespacio de $\mathbb{R}^3.$
  • $\{\begin{pmatrix}a&b\\b&a\end{pmatrix}|a,b\in\mathbb{R}\}$ es un subespacio de $\mathcal{M}_{2\times 2}(\mathbb{R})$.
  • $\mathcal{P}_n(\mathbb{R})$ (el conjunto de polinomios de grado mayor o igual a $n$ con coeficientes en $\mathbb{R}$) es un subespacio de $\mathbb{R}[x]$
  • $\{ f:\mathbb{R}\longrightarrow\mathbb{R}| f$ es continua$\}$ es un subespacio de $\{ f|f:\mathbb{R}\longrightarrow\mathbb{R}\}.$
  • $\{(x,y,z)|x=y=z\in \mathbb{R}\}$ es un subespacio de $\mathbb{R}^3.$

EJEMPLO SISTEMA HOMOGÉNEO

Sean $V=\mathcal{M}{n\times 1}(K)$ y $A\in\mathcal{M}{m\times n}(K)$.
$W={X\in V|AX=0}$$\leqslant V$.

Recordemos que si tenemos el sistema de ecuaciones homogéneo de $m$ ecuaciones con $n$ incógnitas:

\begin{align*}
\begin{matrix}a_{11}x_1 & +a_{12}x_2 & \cdots & +a_{1n}x_n=0\\ a_{21}x_1 & +a_{22}x_2 & \cdots & +a_{2n}x_n=0 \\ \vdots & & \ddots & \vdots \\ a_{m1} x_1& +a_{m2}x_2 & \cdots & +a_{mn}x_n=0, \end{matrix} \end{align*}
entonces su forma matricial es:
\begin{align*}
AX=\begin{pmatrix}a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix} \begin{pmatrix}x_1\\ \vdots\\ x_n\end{pmatrix}
= \begin{pmatrix}0\\ \vdots\\ 0\end{pmatrix} = 0 \end{align*}
Recordemos que estamos usando al $0$ para denotar a la matriz $n\times 1$ con todas sus entradas iguales al cero del campo. Veamos que las soluciones del sistema homogéneo dado por $A$ es un subespacio del espacio vectorial de matrices de $n\times 1$ con entradas en el campo $K$.

DEMOSTRACIÓN

Vamos a ver que $W$ cumple las tres condiciones suficientes y necesarias (por definición) para ser subespacio de $V$:

Sean $X,Y\in W$, $\lambda\in K$.

  1. P.D. $W$ tiene al neutro de $V$
    $i.e.$ $\theta_V\in W.$

Sabemos que $A\theta_V=A0=0$.
$\therefore\theta_V\in W.$

  1. P.D. La suma es cerrada en $W$
    $i.e.$ $X+Y\in W$.

Como $X,Y\in W$, $AX=AY=0$ y por lo tanto, $AX+AY=0+0=0$.
Basta recordar que por distributividad en las matrices $A(X+Y)=AX+AY$ para obtener que $A(X+Y)=0$.
$\therefore X+Y\in W.$

  1. P.D. El producto por escalar es cerrado en $W$
    $i.e.$ $\lambda X\in W$.

Como $X\in W$, $AX=0$ y por lo tanto, $\lambda (AX)=0$.
Basta recordar que por propiedad del producto por escalar en matrices $A(\lambda X)=\lambda(AX)$ para obtener que $A(\lambda X)=0$
$\therefore\lambda X\in W.$

Así, concluimos que $W=\{X\in V|AX=0\}$, donde $A\in\mathcal{M}_{m\times n}(K)$, es un subespacio de $V=\mathcal{M}_{n\times 1}(K)$.

Proposición: La intersección de una familia no vacía de subespacios es un subespacio.

Demostración: Sean $V$ un $K$ – espacio vectorial y $W=\{W_i|i\in I\}$ una familia no vacía de subespacios de $V$.

Sean $V$ un $K$ – espacio vectorial y $W=\{W_i|i\in I\}$ una familia no vacía de subespacios de $V$. Vamos a ver que $W$ cumple las tres condiciones suficientes y necesarias (por definición) para ser subespacio de $V$:

Sean $u,v\in W$, $\lambda\in K$.

  1. P.D. $W$ contiene al neutro de $V$
    $i.e.$ $\theta_V\in W.$

Sabemos que $\forall i\in I(\theta_V\in W_i)$ porque todos los $W_i$ son subespacios de $V$.
$\displaystyle\therefore\theta_V\in\bigcap_{i\in I}W_i.$

  1. P.D. La suma es cerrada en $W$
    $i.e.$ $u+v\in W$.

Dado que $u,v\in W$, $\forall i\in I(u,v\in W_i)$ y como todos los $W_i$ son subespacios de $V$, entonces $\forall i\in I(u+v\in W_i)$.
$\displaystyle\therefore u+v\in\bigcap_{i\in I}W_i.$

  1. P.D. El producto por escalar es cerrado en $W$
    $i.e.$ $\lambda u\in W$.

Dado que $u\in W$, $\forall i\in I(u\in W_i)$ y como todos los $W_i$ son subespacios de $V$, entonces $\forall i\in I(\lambda u\in W_i)$.
$\displaystyle\therefore\lambda u\in\bigcap_{i\in I}W_i.$

Concluimos así que $W\leqslant V.$

Tarea Moral

  1. Dado $V$ un $K$ – espacio vectorial. Sean $W_1, W_2\leqslant V$. Demuestra que si $W_1\bigcup W_2\leqslant V$, entonces $W_1\subseteq W_2$, o bien, $W_2\subseteq W_1$.
    Para lograrlo se te sugiere lo siguiente:
    • Sup. que $W_1 \nsubseteq W_2$.
    • Observamos que para cualesquiera $w_1\in W_1\backslash W_2$ y $w_2\in W_2$, tenemos que $w_1,w_2\in W_1\bigcup W_2$. Y como $W_1\bigcup W_2\leqslant V$, entonces $w_1+w_2\in W_1\bigcup W_2$. Además, gracias a la primera proposición de esta entrada, sabemos que $W_1$ y $W_2$ son $K$ – espacios vectoriales, de modo que los inversos aditivos de $w_1$ y $w_2$ son elementos de $W_1$ y $W_2$ respectivamente.
    • Ahora argumenta por qué $w_1+w_2\notin W_2$ para concluir que $w_1+w_2\in W_1$.
    • Por último argumenta por qué gracias a que $w_1+w_2\in W_1$, obtenemos que $w_2\in W_1$ para concluir que $W_2\subseteq W_1$.
  1. Sean $K=\mathbb{R}$ y $V=\{a+bx+cx^2+dx^3\mid a,b,c,d\in\mathbb{R}\}$.
    Determina si $U=\{p(x)\in V|p(1)=0\}$ y $T=\{p(x)\in V|p'(1)=0\}$ son subespacios de $V$ y encuentra $U\cap T$.

MÁS ADELANTE…

Definiremos y analizaremos un nuevo concepto que dará lugar a un nuevo subespacio muy peculiar y central en el Álgebra Lineal.

Entradas relacionadas