Archivo de la etiqueta: álgebra lineal

Nota 26. Propiedades de $\mathbb R^n$

Por Julio César Soria Ramírez

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

En la siguiente nota veremos algunas propiedades del $\mathbb R$-espacio vectorial $\mathbb R^n$. Probaremos la unicidad del neutro aditivo, así como la unicidad de los inversos aditivos, veremos que las propiedades de cancelación de la suma también se cumplen, se demostrará que la multiplicación del neutro aditivo de $\mathbb R$ por cualquier vector de $\mathbb R^n$ nos da el neutro aditivo, y que la multiplicación de cualquier escalar por el neutro aditivo, es el neutro aditivo. Finalizaremos viendo que el inverso aditivo de un vector $v$, que hemos denotado por $\tilde{v}$, es de hecho $(-1)v$.

Aunque denotamos las operaciones de suma y producto por escalar en $\mathbb R^n$ como $\oplus$ y $\odot$ para distinguirlas de la suma y el producto en $\mathbb R$, en general es claro por el contexto si se trata de unas u otras, así que a partir de aquí simplificaremos la notación y denotaremos a la suma de $u,v\in\mathbb R^n$ como $u+v$, y al producto de $\lambda\in\mathbb R $ por $v\in\mathbb R^n$ como $\lambda v$.

Proposición 1

En $\mathbb R^n$ el neutro aditivo es único.

Demostración

Supongamos que $\bar{0}$ y $\bar{0}’$ son dos neutros aditivos en $\mathbb R^n$.

Por demostrar que $\bar{0}=\bar{0}’$

Explicación
$\bar{0}=$Consideramos uno de los neutros.
$=\bar{0}+\bar{0}’$Gracias a que $\bar{0}’$ es un neutro.
$=\bar{0}’$Pues $\bar{0}$ es un neutro.

$\square$

Proposición 2

En $\mathbb R^n$ los inversos aditivos son únicos.

Demostración

Sea $v\in \mathbb R^n$, supongamos que $\tilde{v}$ y $\hat{v}$, son inversos aditivos de $v$.

Por demostrar que $\tilde{v}=\hat{v}$.

Explicación
$\tilde{v}=\tilde{v}+\bar{0}=$Gracias a que $\bar{0}$ es el neutro.
$=\tilde{v}+(v+\hat{v})=$Como $\hat{v}$ es un inverso de $v$
$v+\hat{v}=\bar{0}$.
$=(\tilde{v}+v)+\hat{v}=$Gracias a la asociatividad.
=$\bar{0}+\hat{v}$$\tilde{v}$ también es un inverso de $v$ y entonces
$\tilde{v}+v=\bar{0}$.
$=\hat{v}$Pues $\bar{0}$ es el neutro.

$\square$

Propiedades de cancelación

Sean $u,v,w\in \mathbb R^n.$

i) Si $u+v=w+v$, entonces $u=w.$

ii) Si $v+u=v+w$, entonces $u=w.$

Demostración

Sean $u,v,w\in \mathbb R^n$.

Demostración de i)

Supongamos que $u+v=w+v$, si le sumamos el inverso de $v$, $\tilde{v}$, de ambos lados de la igualdad tenemos que:

$(u+v)+\tilde{v}=(w+v)+\tilde{v}.$

En virtud de la asociatividad tenemos que:

$u+(v+\tilde{v})=w+(v+\tilde{v})$

y como $\tilde{v}$ es el inverso de $v$ obtenemos

$u+\bar{0}=w+\bar{0}.$

Así, $u=w.$

Demostración de ii)

Observa que se obtiene de la demostración del inciso anterior y de la conmutatividad de la suma, ya que si $v+u=v+w$, por la conmutatividad de la suma tenemos que $u+v=w+v$ y debido al inciso anterior concluimos que $u=w.$

$\square$

Proposición 3

En $\mathbb R^n$ se cumple que:

1. $0v=\bar{0}\,\,\,\,\forall v\in \mathbb R^n.$

2. $\lambda \bar{0}\,\,\,\,\forall \lambda\in \mathbb R.$

Demostración

Demostración de 1

Explicación
$\bar{0}+0v=0v=$Gracias a que $\bar{0}$ es el neutro en $\mathbb R^n$.
$=(0+0)v$$0=0+0$, gracias a que $0$ es neutro en $\mathbb R.$
$=0v+0v$Gracias a la distributividad en $\mathbb R$.

Obtenemos de las igualdades en la tabla que $\bar{0}+0v=0v+0v$, por la propiedad de la cancelación mostrada anteriormente tenemos que $\bar{0}=0v$.

Demostración de 2

Explicación
$\bar{0}+\lambda\bar{0}=\lambda\bar{0}=$Gracias a que $\bar{0}$ es neutro en $\mathbb R^n$.
$\lambda(\bar{0}+\bar{0})$$\bar{0}=\bar{0}+\bar{0}$, gracias a que $\bar{0}$ es neutro en $\mathbb R^n$.
$\lambda\bar{0}+\lambda\bar{0}$Gracias a la distributividad en $\mathbb R^n$.

Obtenemos de las igualdades en la tabla que $\bar{0}+\lambda\bar{0}=\lambda\bar{0}+\lambda\bar{0}$, por la propiedad de la cancelación mostrada anteriormente tenemos que $\bar{0}=\lambda\bar{0}$.

$\square$

Proposición 4

Para todo $v\in \mathbb R^n,\,\,\,\,(-1)v$ es el inverso aditivo de $v$.

Demostración

Sea $v\in \mathbb R^n$. Veamos que $(-1)v$ es su inverso aditivo.

Explicación
$v+(-1)v=1v+(-1)v=$Pues $v=1v$.
$=(1+(-1))v$Por distributividad.
$=0v$Pues en $\mathbb R$ se tiene que $1+(-1)=0$.
$=\bar{0}$Por la proposición 3.

Hemos probado que $v+(-1)v=\bar{0}$ y por la conmutatividad de la suma también $(-1)v+v=\bar{0}$. En virtud de la unicidad de los inversos concluimos que $(-1)v$ es el inverso aditivo de $v$.

$\square$

Notación

Dado $v\in \mathbb R^n$ denotaremos por $-v$ a su inverso aditivo.

Corolario

En $\mathbb R^n$e cumple que:

$(-\lambda) v=-(\lambda v)=\lambda (-v),\,\,\,\,\forall \lambda\in \mathbb R\,\,\,\,\forall v\in \mathbb R^n$.

Explicación
$\lambda (-v)=\lambda((-1)v)$$-v=(-1)v$ por la proposición 4.
$=(\lambda(-1))v$Propiedades del producto escalar en $\mathbb R^n$.
$=(-\lambda)v$Gracias a que en $\mathbb R$ $\lambda(-1)=-\lambda$.
$=((-1)\lambda)v$Gracias a que en $\mathbb R$ $\lambda(-1)=-\lambda$.
$=(-1)(\lambda v)$Propiedades del producto escalar en $\mathbb R^n$.
$=-(\lambda v)$Por la proposición 4.

$\square$

Tarea Moral

Determina si dados $v\in \mathbb R^n$, $\lambda\in \mathbb R$, el hecho de que $\lambda v=\bar{0}$ implica necesariamente que $v=\bar{0}$ o que $\lambda =0$.

Más adelante

En la siguiente nota veremos el importante concepto de subespacio vectorial.

Enlaces relacionados

Página principal del curso.

Enlace a la nota anterior. Nota 25. Espacios vectoriales.

Enlace a la nota siguiente. Nota 27. Subespacios vectoriales.

Investigación de Operaciones: Forma canónica y forma estándar de un problema lineal (9)

Por Aldo Romero

Introducción

En las entradas anteriores hemos dado ejemplos de varios problemas de aplicación que pueden ser planteados mediante un problema de programación lineal. Una vez que llegamos a un modelo, se pueden tener restricciones de los tipos $\leq$, $=$ y $\geq$. Además, puede haber restricciones de signo sobre las variables. Puede que se les pida ser no positivas, no negativas o irrestrictas (no restringidas) en signo. Lo que haremos ahora es recordar forma estándar y forma canónica de un problema lineal; y como pasar de un formato a otro.

Forma canónica de un problema lineal

Definición. Se dice que un problema de programación lineal está en forma canónica si cumple las siguientes tres propiedades:

  1. Las variables de decisión son todas no negativas ($x_i \geq 0$).
  2. El problema es de maximización ($Max \quad z = c_1x_1+\ldots+c_nx_n$).
  3. Las restricciones del problema son todas del tipo $\leq$ ($a_{i1}x_1+ \ldots + a_{in}x_n \leq b_i$).

Tenemos entonces que un problema en forma canónica se ve de la siguiente manera:

\begin{align*}
Max \quad z &= c_1x_1+\ldots+c_nx_n\\
s.a.&\\
&\begin{matrix} a_{11}x_1 + a_{12}x_2 + \ldots + a_{1n}x_n \leq b_1\\
a_{21}x_1+a_{22}x_2+\ldots + a_{2n}x_n \leq b_2\\
\vdots \\
a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n\leq b_n\end{matrix}\\
& x_1\geq 0, x_2\geq 0, \ldots, x_n\geq 0.
\end{align*}

En términos matriciales, esto podemos reescribirlo de manera mucho más compacta como sigue:

\begin{align*}
Max \quad z &= cx\\
s.a.&\\
Ax &\leq b\\
x &\geq \bar 0,\\
\end{align*}

en donde:

  • $c=(c_1,\ldots,c_n)\in \mathbb R^n$ es el vector de costos (vector fila)
  • $x = (x_1,\ldots,x_n)\in \mathbb R^n$ es el vector de variables de decisión (vector columna),
  • $A=[a_{ij}]$ es la matriz de restricciones, que es una matriz de $m \times n$ y
  • $b = (b_1,\ldots,b_m) \in \mathbb R^m$ es el vector de términos independientes o vector de recursos (vector columna),
  • Entendemos $\bar{0}$ como el vector en $\mathbb{R}^n$ cuyas entradas son todas cero (vector fila o vector columna según sea el caso).

Dado un problema de programación lineal, este siempre se puede ser expresar en su forma canónica; es decir, puede definirse un problema en forma canónica equivalente a él. Esta expresión del problema nos ayuda a resolverlo con métodos de solución que veremos más adelante, pero que requieren que el problema esté en su forma canónica.

A continuación se presentarán dos ejemplos de problemas de programación lineal y se explicará como transformarlos a su forma canónica.

Ejemplo 1 de pasar un problema a forma canónica

Transformemos el siguiente problema a su forma canónica:
\begin{align*}
Min \quad z &= 3x_1-x_2\\
s.a&\\
&\begin{matrix}2x_1&+x_2& \leq 50\\
-x_1&+3x_2& \geq 20\end{matrix}\\
& x_1\geq 0, x_2 \leq 0\\
\end{align*}

Primero, observemos que la primera condición se cumple para la variable $x_1$, pero para $x_2$ no ya que $x_2 \geq 0$. Entonces definimos $x_2′ = -x_2$ y de esa manera, $x_2′ \leq 0$.

Ahora, la segunda condición nos dice que el problema tiene que ser de maximización y en este momento es de minimización. Para transformar nuestro problema a uno de maximización solo tenemos que invertir el signo de la función objetivo, ya que el minimizar la primera función ($z$) es equivalente a maximizar la función negativa ($-z$).

$$Max \quad z = -3x_1 + x_2$$

Y por último verifiquemos que se cumpla la tercera condición. La primera restricción claramente es del tipo $\leq$, pero la segunda restricción no es del tipo $\leq$ sino que es del tipo $\geq$. A esta restricción se le puede multiplicar por -1 de ambos lados y se convierte en una restricción del tipo $\leq$.

\begin{matrix}2x_1&+x_2& \leq 50\\
x_1&-3x_2& \leq -20\end{matrix}

Entonces nuestro problema ya cumple las 3 condiciones y podemos decir que está en forma canónica:

\begin{align*}
Max \quad z &= -3x_1 + x_2\\
&s.a\\
&\begin{matrix}2x_1&+x_2& \leq& 50\\
x_1&-3x_2& \leq& -20\end{matrix}\\
& x_1, x_2\geq 0\\
\end{align*}

Ejemplo 2 de pasar un problema a forma canónica

Transformemos el siguiente problema a su forma canónica.

\begin{align*}
Max \quad z &= 2x_1 + 5x_2 -3x_3\\
&s.a\\
&\begin{matrix}-x_1&+2x_2&-4x_3 =& -9\\
3x_1&+x_2&-5x_3 \geq& 10\\
4x_1&-6x_2&+7x_3 \geq& 2\\
\end{matrix}\\
& x_1, x_2\geq 0, \quad x_3 \quad SRS\\
\end{align*}

Primero observemos que la primera condición se cumple para $x_1$ y $x_2$ pero $x_3$ está sin restricción de signo, por lo que vamos a definir $x_3’$ y $x_3″$ no negativos tales que $x_3 = x_3′- x_3″$.

Ahora, observemos que el problema ya es de maximización. Lo único que haremos es sustituir la variable $x_3$ que acabamos de re definir:

$$Max \quad z = 2x_1 + 5x_2 – 3x_3′ + 3x_3″$$

Y por último, para cumplir la tercera restricción tenemos que hacer a todas nuestras restricciones del tipo $\leq$.

Para la primera restricción, primero sustituimos la variable $x_3$ en términos de $x_3’$ y $x_3″$:

$$-x_1 + 2x_2 – 4x_3′ + 4x_3″ = -9$$

Y dado que es una igualdad, la podemos sustituir por dos desigualdades. Estas son:

\begin{matrix}-x_1&+2x_2&-4x_3’& + 4x_3″& \leq -9\\
-x_1&+2x_2& -4x_3’& +4x_3″& \geq -9\end{matrix}

La primera de estas dos nuevas restricciones ya es del tipo $\leq$, pero la segunda es del tipo $\geq$, por lo que lo único que hay que hacer es multiplicar por $-1$ de cada lado para que la desigualdad se invierta y la restricción sea del tipo $\leq$:

\begin{matrix}-x_1&+2x_2&-4x_3’& + 4x_3″& \leq -9\\
x_1&-2x_2& +4x_3’& -4x_3″& \leq 9\end{matrix}

Para la segunda y tercera restricción del problema original, primero sustituimos a variable $x_3$ en términos de $x_3’$ y $x_3″$:

\begin{matrix}3x_1&+x_2&-5x_3’& + 5x_3″& \geq 10\\
4x_1&-6x_2& +7x_3’& -7x_3″& \geq 2\end{matrix}

Y luego transformamos estas restricciones en restricciones del tipo \leq como acabamos de hacer.

\begin{matrix}-3x_1&-x_2&+5x_3’& -5x_3″& \leq -10\\
-4x_1&+6x_2& -7x_3’& +7x_3″& \leq -2\end{matrix}

Y así, juntando todo, el problema quedaría planteado de la siguiente manera:

\begin{align*}
Max \quad z = 2x_1 + 5x_2 – 3x_3′ + 3x_3″\\
\begin{matrix}-x_1&+2x_2&-4x_3’& + 4x_3″& \leq -9\\
x_1&-2x_2& +4x_3’& -4x_3″& \leq 9\\
3x_1&-x_2&+5x_3’& -5x_3″& \leq -10\\
-4x_1&+6x_2& -7x_3’& +7x_3″& \leq -2\end{matrix}\\
x_1, x_2, x_3′, x_3″ \geq 0\\
\end{align*}

Y así este segundo problema quedaría en su forma canónica.

Claves para pasar a forma canónica

A continuación de presenta una serie de posibilidades que podria tener un problema de programación lineal formulado y qué se debe de hacer para que cumpla las condiciones para pasarlo a su forma estándar.

  • Para una variable negativa ($x_i\leq 0$), se puede sustituir por una nueva variable $x_i’$ definida como $x_i’ = -x_i$, siendo ahora $x_i’ \geq 0$. El valor de $x_i$ está directamente relacionado con el valor de $x_i’$ ya que es su opuesto negativo.
  • Para una variable $x_i$ sin restricción de signo (SRS), se pueden definir dos variables no negativas $x_i’$ y $x_i»$ tales que el resultado de su resta sea $x_i$ ($x_i = x_i’-x_i$»). Dada cualquier $x_i$, podemos construir dichas variables, y así mismo; dadas cualesquiera $x_i’$ y $x_i»$, se puede construir $x_i$.
  • Si el problema formulado es a minimizar ($Min \quad z = c_1x_1+\ldots+c_nx_n$), puede considerarse en vez de la función $z$, su opuesta negativa $z’$ (es decir, $z’ = -z$). Así, minimizar la función $z$ equivale a maximizar la función $z’$ ($Max \quad z’ = -c_1x_1 – \ldots -c_nx_n$).
  • Si dada una restricción, esta es del tipo $\geq$ ($a_{i1}x_1+ \ldots + a_{in}x_n \geq b_i$), se pueden multiplicar ambos lados de la restricción por un $-1$ para que la desigualdad se invierta y nos quede una restricción del tipo $\leq$ ($-a_{i1}x_1- \ldots – a_{in}x_n \leq -b_i$).
  • Una ecuación ($a_{i1}x_1+ \ldots + a_{in}x_n = b_i$) puede ser substituida por dos desigualdades, una del tipo $\leq$ ($a_{i1}x_1+ \ldots + a_{in}x_n \leq b_i$) y otra del tipo $\geq$ ($a_{i1}x_1+ \ldots + a_{in}x_n \geq b_i$). Luego, la ecuación del tipo $\geq$ puede se multiplica de ambos lados por un $-1$ para que sea una ecuación del tipo $\leq$ ($-a_{i1}x_1 – \ldots -a_{in}x_n \leq -b_i$).

Forma estándar de un problema lineal

Definición. Se dice que un problema de programación lineal está en forma estándar si

  1. Todas las variables son no negativas.
  2. Todas las restricciones son ecuaciones.
  3. Todos los elementos del vector de recursos son no negativos

De esta manera, un problema en forma estándar se ve como sigue:

\begin{align*}
Max\, (\text{o } Min) \quad z &= c_1x_1+\ldots+c_nx_n\\
s.a.&\\
&\begin{matrix} a_{11}x_1 + a_{12}x_2 + \ldots + a_{1n}x_n = b_1\\
a_{21}x_1+a_{22}x_2+\ldots + a_{2n}x_n = b_2\\
\vdots \\
a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n= b_n\\
x_1\geq 0, x_2\geq 0, \ldots, x_n\geq 0.
\end{matrix}\\
\end{align*}

En notación matricial, el problema en forma canónica queda expresado de la siguiente manera:

\begin{align*}
Max\, (\text{o } Min) \quad z &= c^tx\\
s.a.&\\
Ax &= b\\
x &\geq \bar 0\\
\end{align*}

en donde $c, x, A$ y $b \geq \bar 0$ son como se mencionó antes.

Así como cualquier problema de programación lineal puede ser escrito en su forma canónica, así también cualquier problema de programación lineal puede ser escrito en forma estándar.

A continuación se presentarán dos ejemplos de problemas de programación lineal y se explicará como transformarlos a su forma estandar.

Ejemplo 1 de pasar un problema a forma estándar

Retomemos el primer ejemplo, antes de expresarlo en forma estándar.

\begin{align*}
Min \quad z &= 3x_1-x_2\\
s.a&\\
&\begin{matrix}2x_1&+x_2& \leq 50\\
-x_1&+3x_2& \geq 20 \end{matrix}\\
& x_1 \geq 0, x_2 \leq 0\\
\end{align*}

Observemos que la primera condición se cumple para la variable $x_1$, pero para $x_2$ no ya que $x_2 \geq 0$. Entonces definimos $x_2′ = -x_2$ y de esa manera, $x_2′ \leq 0$.

Para la función objetivo, solo hay que sustituir $x_2$ en términos de $x_2’$, ya que recordemos la función puede ser a maximizar o minimizar:

$$Min \quad z = 3x_1+x_2’$$

Para cumplir la segunda condición, debemos añadir variables de holgura a las restricciones que son desigualdades como se acaba de mencionar. En la primera restricción, se define un variable no negativa $x_3$ tal que $2x_1+x_2 +x_3 = 50$. En la segunda restricción, se define una variable no negativa $x_4$ tal que $-x_1+3x_2 -x_4 = 20$

Y la tercera condición se cumple, ya que 50 y 20 son no negativos.

Así, juntando todos estos cambios, la forma estándar de este problema quedaría de la siguiente manera:

\begin{align*} Min \quad z &= 3x_1+x_2’\\
s.a&\\
&\begin{matrix}2x_1&+x_2& +x_3 = 50\\
-x_1&+3x_2& -x_4 = 20 \end{matrix}\\
& x_1, x_2′ \geq 0\\
\end{align*}

Ejemplo 2 de pasar un problema a forma estándar

Retomemos el segundo ejemplo, antes de expresarlo en forma estándar.

\begin{align*}
Max \quad z &= 2x_1 + 5x_2 -3x_3\\
&s.a\\
&\begin{matrix}-x_1&+2x_2&-4x_3 =& -9\\
3x_1&+x_2&-5x_3 \geq& 10\\
4x_1&-6x_2&+7x_3 \geq& 2\\
\end{matrix}\\
& x_1, x_2\geq 0, \quad x_3 \quad SRS\\
\end{align*}

Para la primera condición, las variables $x_1$ y $x_2$ cumplen con la no negatividad. La variable $x_3$ en cambio es una variable sin restricción de signo (SRS), por lo que, como se hizo anteriormente, definiremos variables no negativas $x_3’$ y $x_3″$ tales que $x_3 = x_3′ – x_3″$. En la función objetivo solo reemplazamos $x_3$ en términos de $x_3’$ y $x_3″$:

$$Max \quad z = 2x_1 + 5x_2 -3x_3′ + x_3″$$

La primera restricción ya cumple la segunda condición, por lo que solo hay que sustituir a $x_3$.

$$-x_1 +2x_2 -4x_3′ +4x_3″ = -9$$

En la segunda restricción definimos una variable de holgura no negativa $x_4$ tal que $3x_1 +x_2 -5x_3 -x_4 = 10$. Y sustituimos $x_3$ de igual forma:

$$3x_1 +x_2 -5x_3′ + 5x_3″ -x_4 = 10$$

Y para la tercera restricción definimos una variable de holgura no negativa $x_5$ tal que $4x_1-6x_2+7x_3 -x_5 = 2$. Y también sustituimos $x_3$:

$$4x_1-6x_2+7x_3′ – 7x_3″ -x_5 = 2$$

Y por último, la única restricción que no cumple la tercera condición es la primera, por lo que multiplicamos la ecuación por $-1$ para invertir el signo del valor independiente y sea no negativo:

$$x_1 -2x_2 +4x_3′ -4x_3″ = 9$$

Por lo que, juntando los cambios anteriores, la forma estándar de este problema sería la siguiente:

\begin{align*}
Max \quad z &= 2x_1 + 5x_2 -3x_3′ + 3x_3″\\
&s.a\\
&\begin{matrix}x_1&-2x_2&+4x_3’&-4x_3″& =& 9\\
3x_1&+x_2&-5x_3’& +5x_3″& -x_4& = 10\\
4x_1&-6x_2&+7x_3’& -7x_3″& -x_5& = 2\\
\end{matrix}\\
& x_1, x_2, x_3′, x_3″,x_4, x_5\geq 0\\
\end{align*}

Claves para pasar a forma estándar

Aparte de las indicaciones anteriores que dimos para pasar un problema a su forma canónica, daremos una indicación de qué hacer cuando tenemos una desigualdad y queremos convertirla en igualdad:

  • Si tenemos una restricción del tipo $\leq$ ($a_{i1}x_1+ \ldots + a_{in}x_n \leq b_i$), definiremos una variable de holgura no negativa $x_{n+1}$ tal que $a_{i1}x_1+ \ldots + a_{in}x_n + x_{n+1} = b_i$.
  • Si tenemos una restricción del tipo $\geq$ ($a_{i1}x_1+ \ldots + a_{in}x_n \geq b_i$), definiremos una variable de holgura no negativa $x_{n+1}$ tal que $a_{i1}x_1+ \ldots + a_{in}x_n – x_{n+1} = b_i$.

Más adelante…

Las forma canónica que estudiamos en esta entrada nos servirá posteriormente para diferentes fines, entre los cuales están:

  • La interpretación geométrica y de región factible, ya que es la representación más directa de un poliedro en el espacio $R^n$.
  • Pasar del problema Primal al Dual es casi automático cuando el problema está en forma canónica (más adelante recordaremos cual es la forma Dual de un problema).
  • Para análisis de sensibilidad teórico, ya que al manejar desigualdades, es más sencillo realizar análisis sobre qué pasaría si los límites de los recursos ($b$) cambian

Y la forma estándar tiene los siguientes fines, entre algunos otros:

  • Habilitar el uso del Álgebra Lineal, ya que transformas un espacio de desigualdades en un sistema de ecuaciones lineales del tipo $Ax = b$.
  • La forma estándar permite dividir tus variables en dos grupos claros: Las variables básicas que son las que forman una matriz identidad y te dan el valor de la solución actual y las variables no básicas que son las que valen cero.

Tarea moral

  1. ¿Cuál sería la forma canónica del problema de maximizar $x+3y$ sujeto a $x-y\leq 8$ y $x + y \leq 0$, con $x \geq 0, y \quad \text{SRS}$? ¿Y su forma estándar?
  2. Transforma el siguiente problema de programación lineal a su forma canónica y a su forma estándar:
    \begin{align*}
    Max \quad z &= -2x_1 + 3x_2 – 2x_3\\
    &s.a.\\
    &\begin{matrix}4x_1 &-x_2 &- 5x_3 &=& 10\\
    2x_1 &+ 3x_2 &+ 2x_3 &\geq &12\end{matrix}\\
    & x_1 \leq 0, \quad x_2 \geq 0, x_3 \quad SRS.
    \end{align*}
  3. Encontrar la solución a la forma estándar (y también la canónica) de un problema de programación lineal es equivalente a encontrar la solución al problema original. ¿Porqué crees que se da esto? Justifica con tus propias palabras.

Respuestas

1.- \begin{align*}
Max \quad z &= x + 3y\\
&s.a\\
x-y &\geq -8\\
x+y &\leq 15 \\
x &\geq 0, y \quad SRS\\
\end{align*}

Primero, vamos a pasar el problema a su forma canónica.

Notemos que $x$ es no negativa. Sin embargo, $y$ es una variable sin restricción de signo, por lo que definimos variables no negativas $y’$ y $y»$ tales que $y = y’ – y»$

Sustituimos $y$ en la función objetivo que ya es a maximizar:

$$Max \quad z = x + 3y’ -3y»$$

Ahora, la segunda restricción ya es del tipo \leq, pero la primera restricción no, por lo que multiplicamos por $-1$ ambos lados de la desigualdad para invertirla y que ya sea del tipo $\leq$.

Juntando todo tenemos el problema en su forma canónica:

\begin{align*}
Max \quad z &= x + 3y’ – 3y»\\
&s.a\\
-x+y’+y» &\leq 8\\
x+y’+y» &\leq 15 \\
x,y’,y» &\geq 0\\
\end{align*}

Para la forma estándar solo hay que hacer cambios en las restricciones. Para la primera restricción definimos una variable de holgura no negativa $z_1$ tal que $-x+y’+y» +z_1 = 8$. Para la segunda restricción definimos una variable de holgura no negativa $z_2$ tal que $x+y’+y» +z_2 = 15$.

Entonces el problema en su forma estándar sería de la siguiente manera:

\begin{align*}
Max \quad z &= x + 3y’ – 3y»\\
&s.a\\
-x+y’+y» +z_1 &= 8\\
x+y’+y» +z_2 &= 15 \\
x,y’,y»,z_1,z_2 &\geq 0\\
\end{align*}

2.- \begin{align*}
Max \quad z &= -2x_1 + 3x_2 – 2x_3\\
&s.a.\\
&\begin{matrix}4x_1 &-x_2 &- 5x_3 &=& 10\\
2x_1 &+ 3x_2 &+ 2x_3 &\geq &12\end{matrix}\\
& x_1 \leq 0, \quad x_2 \geq 0, x_3 \quad SRS
\end{align*}

Primero vamos a expresar el problema en su forma estándar.

La variable $x_2$ ya es no negativa. La variable $x_1$ es no positiva por lo que definimos $x_1’$ tal que $x_1′ = -x_1$. $x_3$ es una variable sin restricción de signo, por lo que definimos variables no negativas $x_3’$ y $x_3″$ tal que $x_3= x_3′ – x_3″$.

En la función objetivo solo sustituimos los valores de $x_1$ y $x_3$:

$Max \quad z = 2x_1′ + 3x_2 – 2x_3′ + 2x_3″$$

La primera restricción ya es una ecuación. La segunda restricción es del tipo $\geq$, entonces definimos una variable de holgura no negativa $x_4$ tal que $2x_1 + 3x_2 + 2x_3 – x_4 = 12$. Ahora sustituimos $x_1$ y $x_3$ en ambas restricciones.

\begin{matrix}-4x_1′ & – x_2& – 5x_3’& + 5x_3″=& 10\\
-2x_1’& + 3x_2& + 2x_3’& – 2x_3″& – x_4 =& 12\end{matrix}

Y el vector de recursos es no negativo ya que $10,12 \geq 0$

Entonces la forma estándar de este problema sería la siguiente:

\begin{align*}
Max \quad z &= 2x_1′ + 3x_2 – 2x_3′ + 2x_3″\\
&s.a.\\
&\begin{matrix}
-4x_1’& – x_2& – 5x_3’& + 5x_3″& =& 10\\
-2x_1’& + 3x_2& + 2x_3’& – 2x_3″& – x_4 =& 12\\
\end{matrix}\\
&x_1′,x_2,x_3′,x_3″,x_4 \geq 0
\end{align*}

Para la forma canónica, vamos a hacer cambios a las restricciones resultantes de pasar el problema a su forma estándar.

Para la primera restricción que es una ecuación, la vamos a expresar como dos desigualdades:

\begin{align*}
-4x_1’& – x_2& – 5x_3’& + 5x_3″& \leq& 10\\
-4x_1’& – x_2& – 5x_3’& + 5x_3″& \geq& 10\\
\end{align*}

Para la restricción del tipo $\geq$, multiplicamos por $-1$ de ambos lados para invertir la desigualdad y que sea del tipo $\leq$:

\begin{align}
-4x_1’& – x_2& – 5x_3’& + 5x_3″& \leq& 10\\
4x_1’& + x_2& + 5x_3’& – 5x_3″& \leq& -10\\
\end{align}

Ahora, para la segunda restricción del problema estandarizado, retiramos la variable de holgura no negativa:

$$-2x_1′ + 3x_2 + 2x_3′ – 2x_3″ \geq 12$$

Y multiplicamos por $-1$ para invertir la desigualdad:

$$2x_1′ – 3x_2 – 2x_3′ + 2x_3″ \leq -12$$

Entonces la forma canónica de este problema sería la siguiente:

\begin{align*}
Max \quad z &= 2x_1′ + 3x_2 – 2x_3′ + 2x_3″\\
&s.a.\\
&\begin{matrix}
-4x_1’& – x_2& – 5x_3’& + 5x_3″& \leq& 10\\
4x_1’& + x_2& + 5x_3’& – 5x_3″& \leq& -10\\
2x_1’& – 3x_2& – 2x_3’& + 2x_3″& \leq& -12\\
\end{matrix}\\
&x_1′,x_2,x_3′,x_3″ \geq 0
\end{align*}

Entradas relacionadas

Cálculo Diferencial e Integral III: Polinomio característico

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.

A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:

Polinomio característico

Pensemos en el problema de hallar los eigenvalores de una transformación lineal $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$. Si $\lambda \in \mathbb{R}$ es uno de estos eigenvalores, queremos poder encontrar vectores $\bar{v}\neq \bar{0}$ tales que $T(\bar{v})=\lambda \bar{v}$. Esto sucede si y sólo si $\lambda \bar{v}-T(\bar{v})=\bar{0}$, lo cual sucede si y sólo si $(\lambda \text{Id}-T)(\bar{v})=\bar{0}$, en donde $\text{Id}:\mathbb{R}^n\to \mathbb{R}^n$ es la transformación identidad de $\mathbb{R}^n$ en $\mathbb{R}^n$. Tenemos de esta manera que $\bar{v}$ es un eigenvector si y sólo si $\bar{v}\in \ker(\lambda\text{Id}-T)$.

Si existe $\bar{v}\neq \bar{0}$ tal que $\bar{v}\in \ker(\lambda \text{Id}-T)$; entonces $\ker(\lambda \text{Id}-T)\neq \{ \bar{0}\}$ por lo cual la transformación $\lambda \text{Id}-T$ no es invertible, pues no es inyectiva. Así, en ninguna base $\text{Mat}_\beta(\lambda \text{Id}-T)$ es invertible, y por tanto su determinante es $0$. Estos pasos son reversibles. Concluimos entonces que $\lambda\in \mathbb{R}$ es un eigenvalor de $T$ si y sólo si en alguna base $\beta$ se cumple que $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0.$ Esto motiva la siguiente definición.

Definición. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Llamamos a $\det(\text{Mat}_\beta(\lambda \text{Id} – T))$ al polinomio característico de $T$ en la base $\beta$.

Por la discusión anterior, los escalares que cumplen $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0$ son los eigenvalores $T$. Para obtener los correspondientes eigenvectores, basta con resolver $\text{Mat}_\beta(T)X=\lambda X$, lo cual es un sistema de ecuaciones en el vector de variables $X$. Las soluciones $X$ nos darán las representaciones matriciales de vectores propios $\bar{v}\in \mathbb{R}^n$ en la base $\beta$.

Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.

Ejemplo: Consideremos $T:\mathbb{R}^{3}\rightarrow \mathbb{R}^{3}$ dada por $T(x,y,z)=(2x+z,y+x,-z)$. Calculemos su representación matricial con respecto a la base canónica $\beta$. Para ello, realizamos las siguientes evaluaciones:
\begin{align*}
T(1,0,0)&=(2,1,0)\\
T(0,1,0)&=(0,1,0)\\
T(0,0,1)&=(1,0,-1),
\end{align*}

de donde: $$\text{Mat}_\beta=\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix}.$$

Calculando el polinomio característico obtenemos: \[ det\begin{pmatrix} \lambda-2 & 0 & -1 \\ -1 & \lambda-1 & 0 \\ 0 & 0 & \lambda+1 \end{pmatrix}= (\lambda-2)(\lambda-1)(\lambda+1). \]

Las raíces de $(\lambda-2)(\lambda-1)(\lambda+1)$ son $\lambda_{1}=2$, $\lambda_{2}=1$ y $\lambda_{3}=-1$. Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor $\lambda=2$. Para que $(x,y,z)$ represente a un eigenvector en la base canónica, debe pasar que:

\[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = 2\begin{pmatrix} x \\ y \\ z \end{pmatrix},\]

lo cual sucede si y sólo si:

\[\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} – 2\begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\left[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} – 2\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\right] \begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\begin{pmatrix} 0 & 0 & 1 \\ 1 & -1& 0 \\ 0 & 0 & -3 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:

\[\begin{pmatrix} 1 & -1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

En esta forma es sencillo leer las soluciones. Tenemos que $z$ es variable pivote con $z=0$, que $y$ es variable libre, y que $x$ es variable pivote dada por $x=y$. Concluimos entonces que todos los posibles eigenvectores para el eigenvalor $2$ son de la forma $(y,y,0)$, es decir $E_2=\{(y,y,0): y \in \mathbb{R}\}$.

Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores $1$ y $-1$.

$\triangle$

Matrices similares

En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.

Sea $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$ una transformación lineal y sean $\beta_1=\{ \bar{e}_{1}, \dots , \bar{e}_{n}\}$, $\beta_2=\{ \bar{u}_{1}, \dots , \bar{u}_{n}\}$ dos bases (ordenadas) de $\mathbb{R}^n$. Supongamos que:

\begin{align*}
A&=\text{Mat}_{\beta_1}(T)=[a_{ij}]\\
B&=\text{Mat}_{\beta_2}(T)=[b_{ij}].
\end{align*}

Por cómo se construyen las matrices $A$ y $B$, tenemos que:

\begin{align*}
T(\bar{e}_j)&=\sum_{i=1}^n a_{ij} \bar{e}_i\quad\text{para $j=1,\ldots,n$}\\
T(\bar{u}_k)&=\sum_{j=1}^n b_{jk} \bar{u}_j\quad\text{para $k=1,\ldots,n$}.
\end{align*}

Como $\beta_{1}$ es base, podemos poner a cada un de los $\bar{u}_k$ de $\beta_{2}$ en términos de la base $\beta_{1}$ mediante combinaciones lineales, digamos:

\begin{equation}
\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}
\label{eq:valor-u}
\end{equation}

en donde los $c_{jk}$ son escalares para $j=1,\ldots, n$ y $k=1,\ldots,n$. La matriz $C$ de $n\times n$, con entradas $c_{jk}$ representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que $CB=AC$. Para ello, tomaremos una $k$ en $[n]$ y expresaremos $T(\bar{u}_k)$ de dos formas distintas.

Por un lado, usando \eqref{eq:valor-u} y por como es cada $T(\bar{e}_k)$ en la base $\beta_{1}$ tenemos que:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^n c_{jk} T(\bar{e}_j)\\
&=\sum_{j=1}^n c_{jk} \sum_{i=1}^n a_{ij} \bar{e}_i\\
&=\sum_{j=1}^n \sum_{i=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n a_{ij} c_{jk}\right) \bar{e}_i.
\end{align*}

Por otro lado, usando $\eqref{eq:valor-u}$ y por como es cada $T(\bar{u}_k)$ en la base $\beta_{2}$:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^nb_{jk} \bar{u}_j\\
&=\sum_{j=1}^n b_{jk} \sum_{i=1}^{n}c_{ji}\bar{e}_{j} \\
&=\sum_{j=1}^n \sum_{i=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n c_{ij} b_{jk} \right) \bar{e}_i.
\end{align*}

Comparemos ambas expresiones para $T(\bar{u}_k)$. La primera es una combinación lineal de los $\bar{e}_i$ y la segunda también. Como $T(\bar{u}_k)$ tiene una única expresión como combinación lineal de los $\bar{e}_i$, entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada $i$ se cumple:

$$\sum_{j=1}^n a_{ij} c_{jk}=\sum_{j=1}^n c_{ij} b_{jk}.$$

Pero esto precisamente nos dice que la entrada $(i,k)$ de la matriz $AC$ es igual a la entrada $(i,k)$ de la matriz $CB$. Con esto concluimos que $AC=CB$, como queríamos.

En resumen, obtuvimos que para dos matrices $A$ y $B$ que representan a la misma transformación lineal, existe una matriz invertible $C$ tal que: $B=C^{-1}AC$. Además $C$ es la matriz con entradas dadas por \eqref{eq:valor-u}.

Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.

Definición. Dos matrices $A$ y $B$ se llamarán similares (o semejantes), cuando existe otra matriz $C$ invertible tal que $B=C^{-1}AC$.

Sintetizamos nuestro resultado de la siguiente manera.

Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.

El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.

Proposición. Sean $A$ y $B$ matrices similares. Entonces $A$ y $B$ representan a una misma transformación lineal $T$, quizás bajo distintas bases.

Demostración: Supongamos que las matrices $A$ y $B$ son similares con $B=C^{-1}AC$, donde las matrices $A$, $B$, $C$ están dadas por entradas $A=[a_{ij}]$ $B=[b_{ij}]$, $C=[c_{jk}]$. Tomemos una base ordenada $\beta=\{\bar{e}_{1}, \dots ,\bar{e}_{n}\}$ de $\mathbb{R}^n$. Consideremos la transformación lineal $T\in \mathcal{L}(\mathbb{R}^n,\mathbb{R}^n)$ dada por $$T(\bar{e}_j)=\sum_{i=1}^n a_{ij} \bar{e}_i.$$

De esta manera $T$ tiene forma matricial $A$ en la base $\beta$.

Construyamos ahora una nueva base ordenada de $\mathbb{R}^n$ dada por vectores $\bar{u}_k$ para $k=1,\ldots,n$ construidos como sigue:

$$\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}.$$

Como $C$ es invertible, en efecto tenemos que $\beta’:=\{\bar{u}_1,\ldots,\bar{u}_n\}$ también es base de $\mathbb{R}^n$. Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de $T$ en la base $\beta’$ será $B$.

Así, hemos exhibido una transformación $T$ que en una base tiene representación $A$ y en otra tiene representación $B$.

$\square$

Juntando ambos resultados en uno solo, llegamos a lo siguiente.

Teorema. Dos matrices $A$ y $B$ en $M_n(\mathbb{R})$ son similares si y sólo si representan a una misma transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^n$, quizás bajo distintas bases.

El polinomio característico no depende de la base

Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal en un espacio sobre $\mathbb{R}$ de dimensión finita. Sean $\beta$ y $\beta’$ bases de $\mathbb{R}^n$. Entonces se obtiene lo mismo calculando el polinomio característico de $T$ en la base $\beta$, que en la base $\beta’$.

Demostración. Tomemos $A=\text{Mat}_{\beta}(T)$ y $B=\text{Mat}_{\beta’}(T)$. Como $A$ y $B$ representan a la misma transformación lineal $T$, entonces son similares y por lo tanto existe $C$ invertible con $B=C^{-1}AC$.

Para encontrar el polinomio característico de $T$ en la base $\beta$, necesitamos $\Mat_{\beta}(\lambda\text{Id}-T)$, que justo es $\lambda I -A$. Así mismo, en la base $\beta’$ tenemos $\lambda I – B$. Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:

\begin{align*}
\det(\lambda I -B) &= \det (\lambda C^{-1}C – C^{-1} A C)\\
&=\det(C^{-1}(\lambda I – A) C)\\
&=\det(C^{-1})\det(\lambda I – A) \det(C)\\
&=\det(C^{-1})\det(C)\det(\lambda I-A)\\
&=\det(I)\det(\lambda I-A)\\
&=\det(\lambda I-A).
\end{align*}

Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con $\det$, lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.

$\square$

Este teorema nos permite hablar del polinomio característico de una transformación lineal.

Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Supongamos que el polinomio característico de $T$ tiene raíces distintas $\lambda_{1}, \dots ,\lambda_{n}$. Entonces se cumple lo siguiente:

  1. Si tomamos un eigenvector $\bar{u}_i$ para cada eigenvalor $\lambda_i$, entonces $\bar{u}_{1},\dots ,\bar{u}_{n}$ forman una base $\beta$ para $\mathbb{R}^n$.
  2. Con dicha base $\beta$, se cumple que $\text{Mat}_\beta(T)$ es una matriz diagonal con entradas $\lambda_{1},\dots ,\lambda_{n}$ en su diagonal.
  3. Si $\beta’$ es otra base de $\mathbb{R}^n$ y $A=\text{Mat}_{\beta’}(T)$, entonces $\text{Mat}_\beta(T) = C^{-1}AC$ para una matriz invertible $C$ con entradas dadas por \eqref{eq:valor-u}.

La demostración de este resultado queda como tarea moral.

Más adelante…

En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación $T$: 1) la transformamos en una matriz $A$, 2) encontramos el polinomio característico mediante $\det(\lambda I – A)$, 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones $(\lambda I – A) X=0$ dan los vectores coordenada de los eigenvectores.

Como platicamos en la entrada, una condición suficiente para que una transformación de $\mathbb{R}^n$ a sí mismo sea diagonalizable es que tenga $n$ eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.

Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de $\mathbb{R}^{n}$ a $\mathbb{R}^{m}$ son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.

Tarea moral

  1. Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
  2. Considera la transformación lineal $T(x,y,z)=(2x+z,y+x,-z)$ de $\mathbb{R}^3$ en $\mathbb{R}^3$. Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base $\{(1,1,1),(1,2,3),(0,1,1)\}$ de $\mathbb{R}^3$. Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
  3. Demuestra que si $A$ y $B$ son dos representaciones matriciales de una misma transformación lineal $T$, entonces $\det(A)=\det(B)$.
  4. Sea $T:\mathbb{R}^{3}\to \mathbb{R}^{3}$ dada por $T(x,y,z)=(x+y+z,x,y)$. Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base $\beta$ en la cual $\text{Mat}_{\beta}(T)$ es diagonal.
  5. Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.

Entradas relacionadas

1.6. SUBESPACIO GENERADO POR UN CONJUNTO: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Queremos saber:
¿Podemos describir el conjunto de todas las combinaciones lineales de un conjunto dado?
Dado un elemento de un conjunto $A$, ¿cómo saber si podemos obtenerlo como combinación lineal de otro conjunto $B$?
¿Qué características cumple el conjunto de todas las combinaciones lineales de un conjunto cualquiera?

Si una combinación lineal es la suma de productos por escalar, ¿qué pueden formar en conjunto?

SUBESPACIO GENERADO

Definición: Sean $V$ un $K$ – espacio vectorial y $S$ un subconjunto de $V$. Diremos que el subespacio de $V$ generado por $S$ es:
el conjunto de combinaciones lineales de $S$, si $S\not=\emptyset$,
o bien, $\{\theta_V\}$, si $S=\emptyset$.
Se denota por $\langle S\rangle$.

Si $W$ es un subespacio de $V$, se dice que $S$ genera a $W$, o que $S$ es un conjunto generador de $W$, si $\langle S\rangle =W$.

Observación: La proposición 1.5.1. (en la entrada anterior) nos menciona tres importantes propiedades del conjunto de todas las combinaciones de un subconjunto dado, en particular, que forma un subespacio.

Nota: Es común que en algunos libros se denote como $span(S)$ en lugar de $\langle S\rangle$. Además, se suele escribir $\langle v_1,…,v_n\rangle$ cuando $S=\{v_1,…,v_n\}$.

Ejemplos:

  • Sean $K=\mathbb{R}$, $V=\mathbb{R}^3$ y $S=\{(1,0,0),(0,1,0),(0,0,1)\}=\{e_1,e_2,e_3\}$.
    $\langle S\rangle =V$.

Justificación: Para cualesquiera $a,b,c\in\mathbb{R}$, tenemos que $a(1,0,0)+b(0,1,0)+c(0,0,1)=(a,b,c)\in V$, así que $\langle S\rangle\subseteq V$.
Para cualquier $(x,y,z)\in V$, tenemos que $(x,y,z)=x\,e_1+y\,e_2+z\,e_3\in S$, por lo que $V\subseteq\langle S\rangle$.

  • Sean $K=\mathbb{R}$, $V=\mathcal{P}_2(\mathbb{R})$ y $S=\{1,1-x,1-x-x^2\}$.
    $\langle S\rangle =V$.

Justificación: Para cualesquiera $\lambda_1,\lambda_2,\lambda_3\in\mathbb{R}$, tenemos que $\lambda_1(1)+\lambda_2(1-x)+\lambda_3(1-x-x^2)$
$=(\lambda_1+\lambda_2+\lambda_3)+(-\lambda_2-\lambda_3)x+(-\lambda_3)x^2\in V$, así que $\langle S\rangle\subseteq V$.
Para cualquier $a+bx+cx^2\in V$, tenemos que $a+bx+cx^2=(a+b)(1)+(c-b)(1-x)+(-c)(1-x-x^2)\in S$, por lo que $V\subseteq\langle S\rangle$.

  • Sean $K=\mathbb{R}$, $V=\mathbb{R}^3$ y $S=\{(1,0,0),(1,-1,0),(1,1,-1)\}$.
    $\langle S\rangle =V$.

Justificación: Para cualesquiera $a,b,c\in\mathbb{R}$, tenemos que $a(1,0,0)+b(1,-1,0)+c(1,1,-1)=(a+b+c,-b+c,-c)\in V$, así que $\langle S\rangle\subseteq V$.
Para cualquier $(x,y,z)\in V$, tenemos que $(x,y,z)=(x+y+2z)(1,0,0)+(-y-z)(1,-1,0)+(-z)(1,1,-1)\in S$, por lo que $V\subseteq\langle S\rangle.$

  • Sean $K=\mathbb{R}$, $V=\mathcal{M}_{2\times 2}(\mathbb{R})$ y $S=\left\{ \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} , \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} \right\}$.
    $\langle S\rangle =\left\{ \begin{pmatrix} a & a \\ b & a \end{pmatrix} \bigg\vert a,b\in\mathbb{R}\right\}$.

Justificación: \begin{align*}
\langle S\rangle &= \bigg\{ \lambda \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} + \mu \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} \bigg\vert \,\lambda,\mu\in\mathbb{R}\bigg\}\\
&= \bigg\{ \begin{pmatrix} \lambda & \lambda \\ \lambda & \lambda \end{pmatrix} + \begin{pmatrix} \mu & \mu \\ 0 & \mu \end{pmatrix} \bigg\vert \lambda ,\mu\in\mathbb{R} \bigg\} \\
&= \bigg\{ \begin{pmatrix} \lambda +\mu & \lambda + \mu \\ \lambda & \lambda +\mu \end{pmatrix} \bigg\vert\, \lambda ,\mu\in\mathbb{R} \bigg\} \\
&= \bigg\{ (\lambda +\mu)\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} + \lambda \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} \bigg\vert\, \lambda ,\mu\in\mathbb{R} \bigg\} \\
&= \bigg\{ a\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} + b\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} \bigg\vert\, a,b\in\mathbb{R} \bigg\} \\
&= \bigg\{ \begin{pmatrix} a & a \\ b & a \end{pmatrix} \bigg\vert \,a,b\in\mathbb{R}\bigg\}
\end{align*}

Nota: Puede ocurrir que $W\subseteq\langle S\rangle$ y $W\not=\langle S\rangle$. En ese caso, $S$ no genera a $W$.
Por ejemplo, si $W=\{(a,a)|a\in\mathbb{R}\}$ y $S=\{e_1,e_2\}$, es claro que $\langle S\rangle =\mathbb{R}^2$, por lo cual, $W\subseteq\langle S\rangle$, pero no son iguales.

Observación: Si $S\subseteq W$, entonces $\langle S\rangle\subseteq W$.
Si además todo vector en $W$ es combinación lineal de vectores de $S$, entonces $W\subseteq\langle S\rangle$ y en ese caso tendremos que $\langle S\rangle= W.$

Como el subespacio generado por un conjunto es un conjunto, nos interesa analizar algunas operaciones y ver qué relaciones encontramos.

Sea $V=\mathbb{R}^2$ con $K=\mathbb{R}$.
Sean $S_1=\{(1,0)\}$, $S_2=\{(0,1)\}$ y $S_3={(1,1)}$.

  • $S_1\cup S_2=\{(1,0),(0,1)\}$
  • $S_1\cap S_2=\emptyset$
  • $S_1\cup S_3=\{(1,0),(1,1)\}$
  • $S_1\cap S_3=\emptyset$
  • $\langle S_1\rangle =\{(x,0)|x\in\mathbb{R}\}$
  • $\langle S_2\rangle =\{(0,y)|y\in\mathbb{R}\}$
  • $\langle S_3\rangle =\{(x,x)|x\in\mathbb{R}\}$
  • $\langle S_1\cup S_2\rangle$$=\langle\{(1,0),(0,1)\}\rangle$
    Sean $a\in\mathbb{R}$, $b\in\mathbb{R}$
    Como $a(1,0)+b(0,1)=(a,0)+(0,b)=(a,b)$ y $a$ y $b$ son números reales cualesquiera, entonces para cualquier $(x,y)\in\mathbb{R}$ podremos encontrar una combinación lineal de $S_1\cup S_2$ cuyo resultado sea $(x,y)$
    Por lo tanto, $\langle S_1\cup S_2\rangle=\mathbb{R}^2$.
  • $\langle S_1\rangle\cup\langle S_2\rangle$$=\{(x,0)|x\in\mathbb{R}\}\cup\{(0,y)|y\in\mathbb{R}\}$
    Es decir, únicamente podemos obtener valores en los ejes de nuestro plano cartesiano.
  • $\langle S_1\cap S_3\rangle$$=\emptyset$$=(0,0)$
  • $\langle S_1\rangle\cap\langle S_3\rangle$$=\langle\{(x,0)|x\in\mathbb{R}\}\rangle\cap\langle\{(x,x)|x\in\mathbb{R}\}\rangle$
    Una combinación lineal pertenece a este conjunto si el resultado puede expresarse con únicamente elementos de $S_1$ y con únicamente elementos de $S_2$.
    ¿Qué elementos de $\mathbb{R}^2$ tienen en la segunda entrada al cero y en ambas entradas al mismo número? Solo en $(0,0)$
    Por lo tanto, $\langle S_1\rangle\cap\langle S_3\rangle =(0,0)$.

Tarea Moral

  1. Encuentra un $K_1$ campo y un $K_1$ – espacio vectorial donde puedas definir un subconjunto infinito $S_1$ tal que $\langle S_1\rangle$ sea finito.
  2. Encuentra un $K_2$ campo y un $K_2$ – espacio vectorial donde puedas definir un subconjunto $S_2$ de un solo elemento tal que $\langle S_2\rangle$ sea infinito.
  3. Toma en cuenta los subconjuntos definidos al final de esta entrada donde $K=\mathbb{R}$ y $V=\mathbb{R}^2$. Describe la relación que existe entre:
    • $\langle S_1\cup S_3\rangle$ y $\langle S_1\rangle\cup\langle S_3\rangle$
    • $\langle S_1\cap S_2\rangle$ y $\langle S_1\rangle\cap\langle S_2\rangle$

Más adelante…

Muchas veces en matemáticas buscamos el mayor / menor conjunto con el cual obtengamos ciertas propiedes. Siguiendo esta idea, veremos un nuevo concepto: conjunto linealmente independiente.

Entradas relacionadas

1.5. COMBINACIÓN LINEAL: definición y ejemplos

Por Jennyfer Paulina Bennetts Castillo

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

INTRODUCCIÓN

Tenemos nuestros ingredientes: los vectores y los escalares.
Tenemos nuestras parejas: resultado del producto un vector por un escalar.
Tenemos nuestros equipos: resultado de la suma de parejas.

En el caso de $K=\mathbb{R}$ tenemos que las parejas nos dicen «cuánto» de cada «ingrediente».

La combinación lineal es el «equipo» que formamos por medio de nuestras «parejas» (puede ser una pareja solita). Por medio de este concepto, entrelazamos todo lo que hemos visto: campos y espacios vectoriales (con sus operaciones y propiedades).

COMBINACIÓN LINEAL

Definición: Sea $V$ un $K$ – espacio vectorial. Consideremos $m\in \mathbb{N}^{+}$ y $v_1,…,v_m\in V$. Una combinación lineal de $v_1,…,v_m$ es una expresión de la forma
$\lambda_1v_1+…+\lambda_mv_m$ con $\lambda_1,…,\lambda_m\in K$.

Nota: De modo más general, si $S$ es un subconjunto de $V$, entonces una combinación lineal de vectores de $S$ es un vector de la forma
$\lambda_1v_1+…+\lambda_mv_m$ con $v_1,…,v_m\in S$ y $\lambda_1,…,\lambda_m\in K$.

Ejemplos:

  • Sea $S=\{(1,0,0),(1,-1,0),(1,1,-1)\}$.
    $2(1,0,0)-(1,-1,0)+5(1,1,-1)=(6,6,-5)$;
    $-3(1,0,0)+0(1,-1,0)+(1,1,-1)=(-2,1,-1)$;
    $0(1,0,0)+(1,-1,0)+0(1,1,-1)=(1,-1,0)$
    son combinaciones lineales de vectores de $S$.
  • Sea $S=\{(\frac{1}{n},\frac{1}{n})|n\in\mathbb{N}^{+}\}$.
    $2(\frac{1}{2},\frac{1}{2})+3(\frac{1}{6},\frac{1}{6})-4(\frac{1}{12},\frac{1}{12})=(\frac{7}{6},\frac{7}{6})$
    es una combinación lineal de vectores de $S$.
  • Sea $S=\mathcal{P}_2(\mathbb{R})=\{a+bx+cx^2|a,b,c\in\mathbb{R}\}$.
    $\frac{1}{2}x+(1-2x+5x^2)-(8+3x)+3(4-2x+x^2)$$=5-\frac{21}{2}x+8x^2$
    es una combinación lineal de vectores de $S$.

Nota: Aún cuando el conjunto $S$ sea infinito, sólo consideraremos combinaciones lineales en las que se use una cantidad finita de vectores de $S$.

Observación: A menudo, uno o más vectores en un conjunto dado pueden expresarse como combinaciones lineales de otros vectores en el conjunto.

Proposición (1.5.1.): Sean $V$ un $K$ – espacio vectorial, $S\not=\emptyset$ un subconjunto de $V$. El conjunto de todas las combinaciones lineales de vectores de $S$ cumple lo siguiente:

i) es un subespacio de $V$.

ii) contiene a $S.$

iii) está contenido en cualquier subespacio de $V$ que contenga a $S$.

Demostración: Sea $V$ un $K$ – espacio vectorial, $S\subseteq V$, $S\not=\emptyset$.
Denotemos por $\mathcal{C}(S)$ al conjunto de todas las combinaciones lineales de vectores de $S$.

i) P.D. $\mathcal{C}(S)\leqslant V$

  • Primero, como $S\not=\emptyset$, podemos tomar $v\in S$.
    $\therefore\theta_V=0v\in \mathcal{C}(S)$.
  • Luego, sean $v,w\in\mathcal{C}(S)$.
    Es decir, existen $n,m\in \mathbb{N}^{+}$, $\lambda_1,…,\lambda_n, \mu_1,…,\mu_m\in K$, $v_1,…,v_n,\omega_1,…,\omega_m\in S$ tales que:
    $v=\lambda_1v_1+…+\lambda_nv_n$
    $w=\mu_1\omega_1+…+\mu_m\omega_m$
    Veamos que $v+w\in\mathcal{C}(S)$.
    $v+w=(\lambda_1v_1+…+\lambda_nv_n)+(\mu_1\omega_1+…+\mu_m\omega_m)\in \mathcal{C}(S).$.
  • Por último, sean $v\in\mathcal{C}(S)$, $\lambda\in K$.
    Es decir, existen $n\in \mathbb{N}^{+}$, $\lambda_1,…,\lambda_n\in K$ tales que
    $v=\lambda_1v_1+…+\lambda_nv_n$
    Veamos que $\lambda v\in K$.
    $\begin{align*} \lambda v & =\lambda(\lambda_1v_1+…+\lambda_nv_n) \\ & =\lambda(\lambda_1v_1)+…+\lambda(\lambda_nv_n) \\ & =(\lambda\lambda_1)v_1+…+(\lambda\lambda_n)v_n\in\mathcal{C}(S) \end{align*}.$

ii) P.D. $S\subseteq\mathcal{C}(S)$

Sea $v\in S$.
Tenemos que $v=1v\in\mathcal{C}(S).$

iii) P.D. Si $W \leq V$ es tal que $S\subseteq W$, entonces $\mathcal{C}(S)\subseteq W$.

Sea $W \leq V$ tal que $S\subseteq W$.
Tomaremos $v$ un elemento arbitrario de $\mathcal{C}(S)$:
Sean $v_n \in\mathcal{C}(S)$, existen $n\in\mathbb{N}^{+}$ y $v_1,\dots, v_n \in\mathcal{C}(S)$ de manera que
$v=\lambda_1v_1+…+\lambda_nv_n$
donde $\lambda_1,…,\lambda_n\in K$ y $v_1,…,v_n\in S$.
Tenemos que $\forall i$ $(v_i\in S\subseteq W)$
$\therefore v_i\in W$ para toda $i.$
Gracias a que $W$ es un subespacio y a que el producto por escalar y la suma son cerrados en los subespacios, se cumple que $\lambda_iv_i\in W$ para toda $i$ y por ende, $v=\lambda_1v_1+…+\lambda_nv_n\in W.$

Tarea Moral

  1. Describe (en lenguaje natural o algebraico) los elementos que se pueden obtener mediante combinaciones lineales de $S=\{(1,-1,0),(2,-2,0),(3,-3,0),…\}$.
  2. Obtén $\begin{pmatrix} i & 3i \\ 2 & 1-i \end{pmatrix}$ como combinación lineal de $\begin{pmatrix} 2i & 6i \\ 4 & 2-2i \end{pmatrix}$ y $\begin{pmatrix} i & 3i \\ 2 & 1-i \end{pmatrix}$ de 5 maneras distintas.
  3. ¿Existe algún conjunto $S$ infinito donde al menos un elemento no se pueda escribir como combinación lineal de otros elementos del conjunto? Puedes construirlo pensando en el ejercicio 1 – agregando un elemento -.

Más adelante…

Ahora que podemos tomar un subconjunto finito de vectores y obtener, por medio de combinaciones lineales, tanto conjuntos finitos como infinitos, analizaremos una propiedad muy peculiar del conjunto que resulta a partir de ello y el nombre que recibe.

Entradas relacionadas