Archivo de la etiqueta: álgebra lineal

Álgebra Superior I: Los espacios vectoriales $\mathbb{R}^2$ y $\mathbb{R}^3$

Por Eduardo García Caballero

Introducción

A lo largo de esta unidad nos hemos enfocado en estudiar los vectores, las operaciones entre estos y sus propiedades. Sin embargo, hasta ahora solo hemos ocupado una definición provisional de vectores —listas ordenadas con entradas reales—, pero no hemos dado una definición formal de estos. En esta entrada definiremos qué es un espacio vectorial y exploraremos algunas de las propiedades de dos ejemplos importantes de espacios vectoriales: $\mathbb{R}^2$ y $\mathbb{R}^3$-

Las propiedades de espacio vectorial

En entradas anteriores demostramos que los pares ordenados con entradas reales (es decir, los elementos de $\mathbb{R}^2$), en conjunto con la suma entrada a entrada y el producto escalar, cumplen las siguientes propiedades:

1. La suma es asociativa:
\begin{align*}
(u+v)+w &= ((u_1,u_2) + (v_1,v_2)) + (w_1,w_2) \\
&= (u_1,u_2) + ((v_1,v_2) + (w_1,w_2)) \\
&= u+(v+w).\end{align*}

2. La suma es conmutativa:
\begin{align*}u+v &= (u_1,u_2) + (v_1,v_2) \\&= (v_1,v_2) + (u_1,u_2) \\&= v+u.\end{align*}

3. Existe un elemento neutro para la suma:
\begin{align*}
u + 0 &= (u_1,u_2) + (0,0) \\&= (0,0) + (u_1,u_2) \\&= (u_1,u_2) \\&= u.
\end{align*}

4. Para cada par ordenado existe un elemento inverso:
\begin{align*}
u + (-u) &= (u_1,u_2) + (-u_1,-u_2) \\&= (-u_1,-u_2) + (u_1,u_2) \\&= (0,0) \\&= 0.
\end{align*}

5. La suma escalar se distribuye bajo el producto:
\begin{align*}
(r+s)u &= (r+s)(u_1,u_2) \\&= r(u_1,u_2) + s(u_1,u_2) \\&= ru + su.
\end{align*}

6. La suma de pares ordenados se distribuye bajo el producto escalar:
\begin{align*}
r(u + v) &= r((u_1,u_2) + (v_1,v_2)) \\&= r(u_1,u_2) + r(v_1,v_2) \\&= ru + rv.
\end{align*}

7. El producto escalar es compatible con el producto de reales:
\[
(rs)u = (rs)(u_1,u_2) = r(s(u_1,u_2)) = r(su).
\]

8. Existe un elemento neutro para el producto escalar, que justo es el neutro del producto de reales:
\[
1u = 1(u_1,u_2) = (u_1,u_2) = u.
\]

Cuando una colección de objetos matemáticos, en conjunto con una operación de suma y otra operación de producto, cumple las ocho propiedades anteriormente mencionadas, decimos que dicha colección forma un espacio vectorial. Teniendo esto en consideración, los objetos matemáticos que pertenecen a la colección que forma el espacio vectorial los llamaremos vectores.

Así, podemos ver que los pares ordenados con entradas reales, en conjunto con la suma entrada a entrada y el producto escalar, forman un espacio vectorial, al cual solemos denominar $\mathbb{R}^2$. De este modo, los vectores del espacio vectorial $\mathbb{R}^2$ son exactamente los pares ordenados con entradas reales.

Como recordarás, anteriormente también demostramos que las ternas ordenadas con entradas reales, en conjunto con su respectiva suma entrada a entrada y producto escalar, cumplen las ocho propiedades antes mencionadas (¿puedes verificarlo?). Esto nos indica que $\mathbb{R}^3$ también es un espacio vectorial, y sus vectores son las ternas ordenadas con entradas reales. En general, el que un objeto matemático se pueda considerar o no como vector dependerá de si este es elemento de un espacio vectorial.

Como seguramente sospecharás, para valores de $n$ distintos de 2 y de 3 también se cumple que $\mathbb{R}^n$ forma un espacio vectorial. Sin embargo los espacios $\mathbb{R}^2$ y $\mathbb{R}^3$ son muy importantes pues podemos visualizarlos como el plano y el espacio, logrando así describir muchas de sus propiedades. Por esta razón, en esta entrada exploraremos algunas de las principales propiedades de $\mathbb{R}^2$ y $\mathbb{R}^3$.

Observación. Basándonos en la definición, el hecho de que una colección de elementos se pueda considerar o no como espacio vectorial depende también a las operaciones de suma y producto. Por esta razón, es común (y probablemente más conveniente) encontrar denotado el espacio vectorial $\mathbb{R}^2$ como $(\mathbb{R}^2,+,\cdot)$. Más aún, a veces será importante destacar a los elementos escalares y neutros, encontrando el mismo espacio denotado como $(\mathbb{R}^2, \mathbb{R}, +, \cdot, 0, 1)$. Esto lo veremos de manera más frecuente cuando trabajamos con más de un espacio vectorial, sin embargo, cuando el contexto nos permite saber con qué operaciones (y elementos) se está trabajando, podemos omitir ser explícitos y denotar el espacio vectorial simplemente como $\mathbb{R}^2$ o $\mathbb{R}^3$.

Combinaciones lineales

Como vimos en entradas anteriores, la suma de vectores en $\mathbb{R}^2$ la podemos visualizar en el plano como el resultado de poner una flecha seguida de otra, mientras que el producto escalar lo podemos ver como redimensionar y/o cambiar de dirección una flecha.

En el caso de $\mathbb{R}^3$, la intuición es la misma, pero esta vez en el espacio.

Si tenemos varios vectores, podemos sumar múltiplos escalares de ellos para obtener otros vectores. Esto nos lleva a la siguiente definición.

Definición. Dado un conjunto de $n$ vectores $v_1, \ldots, v_n$ en $\mathbb{R}^2$ o ($\mathbb{R}^3$), definimos una combinación lineal de estos vectores como el resultado de la operación
\[
r_1v_1 + r_2v_2 + \cdots + r_nv_n,
\]
donde $r_1, \ldots, r_n$ son escalares.

Ejemplo. En $\mathbb{R}^2$, las siguientes son combinaciones lineales:
\begin{align*}
4(9,-5) + 7(-1,0) + 3(-4,2) &= (17,-14), \\[10pt]
5(1,0) + 4(-1,-1) &= (1,-4), \\[10pt]
-1(1,0) + 0(-1,-1) &= (-1,0), \\[10pt]
5(3,2) &= (15,10).
\end{align*}
De este modo podemos decir que $(17,-14)$ es combinación lineal de los vectores $(9,-5)$, $(-1,0)$ y $(-4,2)$; los vectores $(1,-4)$ y $(-1,0)$ son ambos combinación lineal de los vectores $(1,0)$ y $(-1,-1)$; y $(15,10)$ es combinación lineal de $(3,2)$.

Las combinaciones lineales también tienen un significado geométrico. Por ejemplo, la siguiente figura muestra cómo se vería que $(1,-4)$ es combinación lineal de $(1,0)$ y $(-1,-1)$:

$\triangle$

Ejemplo. En el caso de $\mathbb{R}^3$, observamos que $(7,13,-22)$ es combinación lineal de los vectores $(8,1,-5)$, $(1,0,2)$ y $(9,-3,2)$, pues
\[
4(8,1,-5) + 2(1,0,2) + (-3)(9,-3,2) = (7,13,-22).
\]

$\triangle$

Espacio generado

La figura de la sección anterior nos sugiere cómo entender a una combinación lineal de ciertos vectores dados. Sin embargo, una pregunta natural que surge de esto es cómo se ve la colección de todas las posibles combinaciones lineales de una colección de vectores dados.

Definición. Dado un conjunto de $n$ vectores $v_1, \ldots, v_n$ en $\mathbb{R}^2$ o ($\mathbb{R}^3$), definimos al espacio generado por ellos como el conjunto de todas sus posibles combinaciones lineales. Al espacio generado por estos vectores podemos encontrarlo denotado como $\operatorname{span}(v_1, \ldots, v_n)$ o $\langle v_1, \ldots, v_n \rangle$ (aunque esta última notación a veces se suele dejar para otra operación del álgebra lineal).

¿Cómo puede verse el espacio generado por algunos vectores? Puede demostrarse que en el caso de $\mathbb{R}^2$ tenemos los siguientes casos.

  • Un punto: esto sucede si y sólo si todos los vectores del conjunto son iguales al vector $0$.
  • Una recta: esto sucede si al menos un vector $u$ es distinto de 0 y todos los vectores se encuentran alineados. La recta será precisamente aquella formada por los múltiplos escalares de $u$.
  • Todo $\mathbb{R}^2$: esto sucede si al menos dos vectores $u$ y $v$ de nuestro conjunto no son cero y además no están alineados. Intenta convencerte que en efecto en este caso puedes llegar a cualquier vector del plano sumando un múltiplo de $u$ y uno de $v$.

En $\mathbb{R}^3$, puede mostrarse que el espacio generado se ve como alguna de las siguientes posibilidades:

  • Un punto: esto sucede si y sólo si todos los vectores del conjunto son iguales al vector $0$.
  • Una recta: esto sucede si al menos un vector $u$ es distinto de $0$ y todos los vectores se encuentran alineados con $u$. La recta consiste precisamente de los reescalamientos de $u$.
  • Un plano: esto sucede si al menos dos vectores $u$ y $v$ no son cero y no están alineados, y además todos los demás están en el plano generado por $u$ y $v$ estos dos vectores.
  • Todo $\mathbb{R}^3$: esto sucede si hay tres vectores $u$, $v$ y $w$ que cumplan que ninguno es el vector cero, no hay dos de ellos alineados, y además el tercero no está en el plano generado por los otros dos.

Muchas veces no sólo nos interesa conocer la forma del espacio generado, sino también obtener una expresión que nos permita conocer qué vectores pertenecen a este. Una forma en la que podemos hacer esto es mediante ecuaciones.

Ejemplo. Por ejemplo, observemos que el espacio generado el vector $(3,2)$ en $\mathbb{R}^2$ corresponde a los vectores $(x,y)$ que son de la forma
\[
(x,y) = r(2,3),
\]
donde $r \in \mathbb{R}$ es algún escalar. Esto se cumple si y sólo si
\[
(x,y) = (2r,3r),
\]
lo cual a su vez se cumple si y sólo si $x$ y $y$ satisfacen el sistema de ecuaciones
\[
\begin{cases}
x = 2r \\
y = 3r
\end{cases}.
\]
Si despejamos $r$ en ambas ecuaciones y las igualamos, llegamos a que
\[
\frac{x}{2} = \frac{y}{3},
\]
de donde podemos expresar la ecuación de la recta en su forma homogénea:
\[
\frac{1}{2}x – \frac{1}{3}y = 0;
\]
o bien en como función de $y$:
\[
y = \frac{3}{2}x.
\]

$\triangle$

La estrategia anterior no funciona para todos los casos, y tenemos que ser un poco más cuidadosos.

Ejemplo. El espacio generado por $(0,4)$ corresponde a todos los vectores $(x,y)$ tales que existe $r \in \mathbb{R}$ que cumple
\begin{align*}
(x,y) &= r(0,4) \\
(x,y) &= (0,4r),
\end{align*}
es decir,
\[
\begin{cases}
x = 0 \\
y = 4r
\end{cases}.
\]
En este caso, la única recta que satisface ambas ecuaciones es la recta $x = 0$, la cual no podemos expresar como función de $y$.

En la siguiente entrada veremos otras estrategias para describir de manera analítica el espacio generado.

$\triangle$

El saber si un vector está o no en el espacio generado por otros es una pregunta que se puede resolver con un sistema de ecuaciones lineales.

Ejemplo. ¿Será que el vector $(4,1,2)$ está en el espacio generado por los vectores $(2,3,1)$ y $(1,1,1)$? Para que esto suceda, necesitamos que existan reales $r$ y $s$ tales que $r(2,3,1)+s(1,1,1)=(4,1,2)$. Haciendo las operaciones vectoriales, esto quiere decir que $(2r+s,3r+s,r+s)=(4,1,2)$, de donde tenemos el siguiente sistema de ecuaciones:

$$\left\{\begin{matrix} 2r+s &=4 \\ 3r+s&=1 \\ r+s &= 2.\end{matrix}\right.$$

Este sistema no tiene solución. Veamos por qué. Restando la primera igualdad a la segunda, obtendríamos $r=1-4=-3$. Restando la tercera igualdad a la primera, obtendríamos $r=2-4=-2$. Así, si hubiera solución tendríamos la contradicción $-2=r=-3$. De este modo no hay solución.

Así, el vector $(4,1,2)$ no está en el espacio generado por los vectores $(2,3,1)$ y $(1,1,1)$. Geométricamente, $(4,1,2)$ no está en el plano en $\mathbb{R}^3$ generado por los vectores $(2,3,1)$ y $(1,1,1)$.

$\triangle$

Si las preguntas de espacio generado tienen que ver con sistemas de ecuaciones lineales, entonces seguramente estarás pensando que todo lo que hemos aprendido de sistemas de ecuaciones lineales nos servirá. Tienes toda la razón. Veamos un ejemplo importante.

Ejemplo. Mostraremos que cualquier vector en $\mathbb{R}^2$ está en el espacio generado por los vectores $(1,2)$ y $(3,-1)$. Para ello, tomemos el vector $(x,y)$ que nosotros querramos. Nos gustaría (fijando $x$ y $y$) poder encontrar reales $r$ y $s$ tales que $r(1,2)+s(3,-1)=(x,y)$. Esto se traduce al sistema de ecuaciones

$$\left \{ \begin{matrix} r+3s&=x\\2r-s&=y. \end{matrix} \right.$$

En forma matricial, este sistema es $$\begin{pmatrix} 1 & 3 \\ 2 & -1 \end{pmatrix} \begin{pmatrix} r \\ s \end{pmatrix} = \begin{pmatrix} x \\ y \end{pmatrix}.$$

Como la matriz $\begin{pmatrix} 1 & 3 \\ 2 & -1 \end{pmatrix}$ tiene determinante $1(-1)-(3)(2)=-7$, entonces es invertible. ¡Entonces el sistema siempre tiene solución única en $r$ y $s$ sin importar el valor de $x$ y $y$! Hemos con ello demostrado que cualquier vector $(x,y)$ es combinación lineal de $(1,2)$ y $(3,-1)$ y que entonces el espacio generado por ambos es todo $\mathbb{R}^2$.

$\triangle$

Independencia lineal

Mientras platicábamos en la sección anterior de las posibilidades que podía tener el espcio generado de un conjunto de vectores en $\mathbb{R}^2$ y $\mathbb{R}^3$, fuimos haciendo ciertas precisiones: «que ningún vector sea cero», «que nos vectores no estén alineados», «que ningún vector esté en los planos por los otros dos», etc. La intuición es que si pasaba lo contrario a alguna de estas cosas, entonces los vectores no podían generar «todo lo posible». Si sí se cumplían esas restricciones, entonces cierta cantidad de vectores sí tenía un espacio generado de la dimensión correspondiente (por ejemplo, $2$ vectores de $\mathbb{R}^3$ no cero y no alineados sí generan un plano, algo de dimensión $2$). Resulta que todas estas restricciones se pueden resumir en una definición muy importante.

Definición. Dado un conjunto de $n$ vectores $v_1, \ldots, v_n$ en $\mathbb{R}^2$ o ($\mathbb{R}^3$), diremos que son linealmente independientes si es imposible escribir al vector $0$ como combinación lineal de ellos, a menos que todos los coeficientes de la combinación lineal sean iguales a $0$. En otras palabras, si sucede que $$r_1v_1 + r_2v_2 + \cdots + r_nv_n=0,$$ entonces forzosamente fue porque $r_1=r_2=\ldots=r_n=0$.

Puede mostrarse que si un conjunto de vectores es linealmente independiente, entonces ninguno de ellos se puede escribir como combinación lineal del resto de vectores en el conjunto. Así, la intuición de que «generan todo lo que pueden generar» se puede justificar como sigue: como el primero no es cero, genera una línea. Luego, como el segundo no es múltiplo del primero, entre los dos generarán un plano. Y si estamos en $\mathbb{R}^3$, un tercer vector quedará fuera de ese plano (por no ser combinación lineal de los anteriores) y entonces generarán entre los tres a todo el espacio.

La independencia lineal también se puede estudiar mediante sistemas de ecuaciones lineales.

Ejemplo. ¿Serán los vectores $(3,-1,-1)$, $(4,2,1)$ y $(0,-10,-7)$ linealmente independientes? Para determinar esto, queremos saber si existen escalares $r,s,t$ tales que $r(3,-1,-1)+s(4,2,1)+t(0,-10,-7)=(0,0,0)$ en donde al menos alguno de ellos no es el cero. Esto se traduce a entender las soluciones del siguiente sistema de ecuaciones:

$$\left\{ \begin{array} 33r + 4s &= 0 \\ -r +2s -10t &= 0 \\ -r + s -7t &= 0.\end{array} \right. $$

Podemos entender todas las soluciones usando reducción Gaussiana en la siguiente matriz:

$$\begin{pmatrix} 3 & 4 & 0 & 0 \\ -1 & 2 & -10 & 0 \\ -1 & 1 & -7 & 0 \end{pmatrix}.$$

Tras hacer esto, obtenemos la siguiente matriz:

$$\begin{pmatrix}1 & 0 & 4 & 0\\0 & 1 & -3 & 0\\0 & 0 & 0 & 0 \end{pmatrix}.$$

Así, este sistema de ecuaciones tiene a $t$ como variable libre, que puede valer lo que sea. De aquí, $s=3t$ y $r=-4t$ nos dan una solución. Así, este sistema tiene una infinidad de soluciones. Tomando por ejemplo $t=1$, tenemos $s=3$ y $r=-4$. Entonces hemos encontrado una combinación lineal de los vectores que nos da el vector $(0,0,0)$. Puedes verificar que, en efecto, $$(-4)(3,-1,-1)+3(4,2,1)+(0,-10,-7)=(0,0,0).$$

Concluimos que los vectores no son linealmente independientes.

$\triangle$

Si la única solución que hubiéramos obtenido es la $r=s=t=0$, entonces la conclusión hubiera sido que sí, que los vectores son linealmente independientes. También podemos usar lo que hemos aprendido de matrices y determinantes en algunos casos para poder decir cosas sobre la independencia lineal.

Ejemplo. Mostraremos que los vectores $(2,3,1)$, $(0,5,2)$ y $(0,0,1)$ son linealmente independientes. ¿Qué sucede si una combinación lineal de ellos fuera el vector cero? Tendríamos que $r(2,3,1)+s(0,5,2)+t(0,0,1)=(0,0,0)$, que se traduce en el sistema de ecuaciones $$\left\{ \begin{array} 2r &= 0 \\ 3r + 5s &= 0 \\ r + 2s + t &= 0. \end{array}\right.$$

La matriz asociada a este sistema de ecuaciones es $\begin{pmatrix} 2 & 0 & 0 \\ 3 & 5 & 0 \\ 1 & 2 & 1 \end{pmatrix}$, que por ser triangular inferior tiene determinante $2\cdot 5 \cdot 1 = 10\neq 0$. Así, es una matriz invertible, de modo que el sistema de ecuaciones tiene una única solución. Como $r=s=t$ sí es una solución, esta debe ser la única posible. Así, los vectores $(2,3,1)$, $(0,5,2)$ y $(0,0,1)$ son linealmente independientes. Geométricamente, ninguno de ellos está en el plano hecho por los otros dos.

$\triangle$

Bases

Como vimos anteriormente, existen casos en los que el espacio generado por vectores en $\mathbb{R}^2$ (o $\mathbb{R}^3$) no genera a todo el plano (o al espacio). Por ejemplo, en ambos espacios vectoriales, el espacio generado por únicamente un vector es una recta. Esto también puede pasar aunque tengamos muchos vectores. Si todos ellos están alineados con el vector $0$, entonces su espacio generado sigue siendo una recta también. En la sección anterior platicamos que intuitivamente el problema es que los vectores no son linealmente independientes. Así, a veces unos vectores no generan todo el espacio que pueden generar.

Hay otras ocasiones en las que unos vectores sí generan todo el espacio que pueden generar, pero lo hacen de «manera redundante», en el sentido de que uno o más vectores se pueden poner de más de una forma como combinación lineal de los vectores dados.

Ejemplo. Si consideramos los vectores $(2,1)$, $(1,0)$ y $(2,3)$, observamos que el vector $(2,3)$ se puede escribir como
\[
0(2,1)+3(1,0) + 2(2,3) = (7,6)
\]
o
\[
3(2,2) + 1(1,0) + 0(2,3)= (7,6),
\]
siendo ambas combinaciones lineales del mismo conjunto de vectores.

$\triangle$

Uno de los tipos de conjuntos de vectores más importantes en el álgebra lineal son aquellos conocidos como bases, que evitan los dos problemas de arriba. Por un lado, sí generan a todo el espacio. Por otro lado, lo hacen sin tener redundancias.

Definición. Diremos que un conjunto de vectores es base de $\mathbb{R}^2$ (resp. $\mathbb{R}^3$) si su espacio generado es todo $\mathbb{R}^2$ (resp. $\mathbb{R}^3$) y además son linealmente independientes.

El ejemplo de base más inmediato es el conocido como base canónica.

Ejemplo. En el caso de $\mathbb{R}^2$, la base canónica es $(1,0)$ y $(0,1)$. En \mathbb{R}^3$ la base canónica es $(1,0,0)$, $(0,1,0)$ y $(0,0,1)$.

Partiendo de las definiciones dadas anteriormente, vamos que cualquier vector $(a,b)$ en $\mathbb{R}$ se puede escribir como $a(1,0) + b(0,1)$; y cualquier vector $(a,b,c)$ en $\mathbb{R}^3$ se puede escribir como $a(1,0,0) + b(0,1,0) + c(0,0,1)$.

Más aún, es claro que los vectores $(1,0)$ y $(0,1)$ no están alineados con el origen. Y también es claro que $(1,0,0),(0,1,0),(0,0,1)$ son linealmente idependientes, pues la combinación lineal $r(1,0,0)+s(0,1,0)+t(0,0,1)=(0,0,0)$ implica directamente $r=s=t=0$.

$\triangle$

Veamos otros ejemplos.

Ejemplo. Se tiene lo siguiente:

  • Los vectores $(3,4)$ y $(-2,0)$ son base de $\mathbb{R}^2$ pues son linealmente independientes y su espacio generado es todo $\mathbb{R}^2$.
  • Los vectores $(8,5,-1)$, $(2,2,7)$ y $(-1,0,9)$ son base de $\mathbb{R}^3$ pues son linealmente independientes y su espacio generado es todo $\mathbb{R}^3$.

¡Ya tienes todo lo necesario para demostrar las afirmaciones anteriores! Inténtalo y haz dibujos en $\mathbb{R}^2$ y $\mathbb{R}^3$ de dónde se encuentran estos vectores.

$\triangle$

Como podemos observar, las bases de un espacio vectorial no son únicas, sin embargo, las bases que mencionamos para $\mathbb{R}^2$ coinciden en tener dos vectores, mientras que las bases para $\mathbb{R}^3$ coinciden en tener tres vectores. ¿Será cierto que todas las bases para un mismo espacio vectorial tienen la misma cantidad de vectores?

Más adelante…

En esta entrada revisamos qué propiedades debe cumplir una colección de objetos matemáticos para que sea considerado un espacio vectorial, además de que analizamos con más detalle los espacios vectoriales $\mathbb{R}^2$ y $\mathbb{R}^3$.

Como seguramente sospecharás, para otros valores de $n$ también se cumple que $\mathbb{R}^n$, en conjunto con sus respectivas suma entrada a entrada y producto escalar, forman un espacio vectorial. Sin embargo, en contraste con los espacios $\mathbb{R}^2$ y $\mathbb{R}^3$, este espacio es más difícil de visualizar. En la siguiente entrada generalizaremos para $\mathbb{R}^n$ varias de las propiedades que aprendimos en esta entrada.

Tarea moral

  1. Realiza lo siguiente:
    • De entre los siguientes vectores, encuentra dos que sean linealmente independientes: $(10,16),(-5,-8),(24,15),(10,16),(15,24),(-20,-32)$.
    • Encuentra un vector de $\mathbb{R}^2$ que genere a la recta $2x+3y=0$.
    • Determina qué es el espacio generado por los vectores $(1,2,3)$ y $(3,2,1)$ de $\mathbb{R}^3$.
    • Da un vector $(x,y,z)$ tal que $(4,0,1)$, $(2,1,0)$ y $(x,y,z)$ sean una base de $\mathbb{R}^3$.
  2. Demuestra que $(0,0)$ es el único vector $w$ en $\mathbb{R}^2$ tal que para todo vector $v$ de $\mathbb{R}^2$ se cumple que $v+w=v=w+v$.
  3. Prueba las siguientes dos afirmaciones:
    • Tres o más vectores en $\mathbb{R}^2$ nunca son linealmente independientes.
    • Dos o menos vectores en $\mathbb{R}^3$ nunca son un conjunto generador.
  4. Sean $u$ y $v$ vectores en $\mathbb{R}^2$ distintos del vector cero. Demuestra que $u$ y $v$ son linealmente independientes si y sólo si $v$ no está en la línea generada por $u$.
  5. Encuentra todas las bases de $\mathbb{R}^3$ en donde las entradas de cada uno de los vectores de cada base sean iguales a $0$ ó a $1$.

Entradas relacionadas

Álgebra Superior I: Introducción a vectores y matrices con entradas reales

Por Eduardo García Caballero

Introducción

Los vectores y las matrices son algunos de los objetos matemáticos que nos encontraremos con mayor frecuencia durante nuestra formación matemática. Esto se debe a que nos permiten abordar con sencillez varios problemas de distintas áreas de las matemáticas, como lo son la geometría analítica y la teoría de gráficas. Además, nos ayudan a modelar con gran precisión fenómenos de otras disciplinas, como de la mecánica clásica, gráficos por computadora, circuitos eléctricos, robótica, entre otras.

A pesar de que el estudio a profundidad de los vectores y matrices lo realizaremos en los cursos de Álgebra Lineal I y Álgebra Lineal II, esto no es un impedimento para que nos familiaricemos con varios de los conceptos, técnicas y algoritmos que nos permitirán sacar provecho a esta maravillosa área de las matemáticas.

¿Qué son los vectores?

Dependiendo del área que estudiemos, nos podríamos encontrar con distintas definiciones de vectores. Por ejemplo, en la mecánica clásica se visualiza a los vectores como flechas en el plano o en el espacio, ancladas en un «origen» o en cualquier otro punto del plano. En ciencias de la computación, entenderemos que un vector consiste en un arreglo en el que todas sus entradas son datos del mismo tipo. Como veremos más adelante, las distintas formas de visualizar los vectores son equivalentes.

En este curso trabajaremos con un tipo específico de vectores: los vectores cuyas entradas son números reales. ¿Números reales? Sí. Aquí el temario de la asignatura de un brinco un poco grande. Hasta ahora, hemos intentado construir las matemáticas desde sus fundamentos: lógica, conjuntos, funciones, números naturales, etc. Sin embargo, ahora trabajaremos con el conjunto $\mathbb{R}$ de números reales.

Ya platicamos de que el conjunto de naturales $\mathbb{N}$ se puede pensar desde un sistema axiomático y que de hecho podemos «construir» a los naturales a partir de nociones de teoría de conjuntos. En el curso de Álgebra Superior 2 se platica de cómo construir al conjunto $\mathbb{Z}$ de enteros a partir de $\mathbb{N}$, al conjunto $\mathbb{Q}$ de racionales a partir de $\mathbb{Z}$ y finalmente de cómo construir a $\mathbb{R}$ desde $\mathbb{Q}$. Pero por ahora supondremos la existencia de $\mathbb{R}$ y que cumple todos los axiomas que se tratan por ejemplo en un curso de Cálculo Diferencial e Integral I.

Vectores con entradas reales

Un vector con entradas reales lo podemos entender como una lista ordenada de uno o más números (también conocida como tupla) en la que todos sus valores son números reales. Aquí «lista ordenada» lo pensamos no en el sentido de que sus entradas «van creciendo o decreciendo en orden», sino en el sentido «ordenado» como de parejas ordenadas de la segunda unidad de estas notas. Es decir, no nos importan no sólo los números usados, sino también en qué lugar quedaron.

Un ejemplo que seguramente ya has visto en tus clases de geometría analítica son los vectores en el plano o en el espacio. Recordemos que el vector $(5, \pi)$ determina una única posición en el plano, mientras que $\left(8, \sqrt{2}, \tfrac{4}{3}\right)$ determina una única posición en el espacio. Como ambas tuplas están formadas únicamente por números reales, podemos decir que son vectores con entradas reales. A cada uno de los números que aparecen en la lista le llamaremos entrada, y nos podemos referir a la posición de la entrada para decir cuál es su valor; por ejemplo, la primera entrada de $(5, \pi)$ es $5$, mientras que la tercera entrada de $\left(8, \sqrt{2}, \tfrac{4}{3}\right)$ es $\tfrac{4}{3}$.

Como recordarás, decimos que estos vectores se encuentran en $\mathbb{R}^2$ y $\mathbb{R}^3$, respectivamente. Analizando los ejemplos, te darás cuenta de que el número que acompaña a $\mathbb{R}$ se refiere a la cantidad de números reales que están enlistados en cada vector. Entonces, probablemente te preguntarás qué pasa con listas de más números. Aunque quizá sean más difíciles de visualizar (¡aunque no imposibles!), también existen vectores con cuatro, cinco o incluso más entradas. Esto nos lleva a la siguiente definición.

Definición. Para un número entero positivo $n$, un vector con $n$ entradas reales es una lista ordenada de $n$ elementos, el cual escribiremos $(x_1,x_2,\ldots,x_n)$. El conjunto $\mathbb{R}^n$ consiste de todos los vectores con $n$ entradas reales.

Así, podemos ver que tenemos que $(1,-3.5,e,1)$ es un vector en $\mathbb{R}^4$, mientras que $(1,1,2,3,5,7,13)$ es un vector en $\mathbb{R}^7$. En notación de conjuntos, $(1,-3.5,e,1)\in\mathbb{R}^4$ y $(1,1,2,3,5,7,13)\in\mathbb{R}^7$.

Una forma de empezar a ver cómo los vectores se relacionan entre ellos es preguntándonos cuándo estos son iguales. La primera condición que seguramente se nos vendrá a la mente es que los dos vectores deben tener la misma longitud; de este modo, podemos inmediatamente descartar que $(5, \pi)$ y $(8, \sqrt{2}, \tfrac{4}{3})$ sean iguales.

Otra condición que seguramente consideraremos es que todas sus entradas deben ser iguales. Así, podemos también descartar que $(5, \pi)$ y $(4, 8)$ sean iguales. Sin embargo, ¿son $(5,\pi)$ y $(\pi, 5)$ iguales? Como recordarás, los vectores son listas ordenadas, por lo que no sólo es importante que tengan las mismas entradas, sino que también aparezcan en el mismo orden. Así, podemos también descartar que $(5,\pi)$ y $(\pi, 5)$ sean iguales: basta ver con que la primera entrada del $(5,\pi)$ es $5$, mientras que la primera entrada de $(\pi,5)$ es $\pi$, y claramente $5\ne\pi$. Así mismo, $(1,5,8,1,3)$ es distinto de $(1,5,8,1,4)$ pues aunque compartan muchos elementos en varias de sus posiciones, en el primer vector la última entrada es $3$ y el el segundo la última entrada es $4$.

Definición. Diremos que dos vectores $(x_1,\ldots,x_n)$ y $(y_1,\ldots,y_n)$ de $\mathbb{R}^n$ son iguales si para toda $i=1,\ldots,n$ se tiene que $x_i=y_i$

Por otra parte, antes dijimos que los vectores tienen varias formas de ser representados. Como ejemplo de esto, podemos ver que el vector $(1,-3.5,e,1)$ puede ser representado como

\[
\begin{pmatrix}
1 \\
-3.5 \\
e \\
1
\end{pmatrix}
\qquad
\text{y}
\qquad
\begin{pmatrix}
1 & -3.5 & e & 1
\end{pmatrix}.
\]

Al formato de la izquierda se le conoce como vector vertical o vector columna, mientras que al formato de la derecha se le conoce como vector horizontal o vector fila. Dependiendo del contexto, en ocasiones nos encontraremos con estas representaciones en vez de la que mostramos inicialmente, aunque es importante recordar que siguen siendo vectores con entradas reales, pues son listas ordenadas de números reales.

Matrices con entradas reales

Otro objeto matemático en el que también se enlistan varios números reales se conoce como matriz, con la diferencia de que esta lista tiene forma de arreglo rectangular.

Definición. Una matriz con entradas reales es un arreglo rectangular en donde en cada una de sus posiciones se coloca un número real.

Por ejemplo, las siguientes son matrices con entradas reales:

\[
\begin{pmatrix}
0 & 8 & -4.5 \\
2 & 9 & 0 \\
1 & \pi & 5
\end{pmatrix},
\qquad
\begin{pmatrix}
0 & -3 & 9 & 4.25 \\
100 & 0.1 & -2 & \sqrt{2}
\end{pmatrix}.
\]
Como podrás ver, para poder identificar a una entrada de una matriz debemos de hacer referencia a dos propiedades: el número de fila y el número de columna en el que se encuentra. Las filas se cuentan de arriba hacia abajo, y las columnas de izquierda a derecha. Así, vemos que la entrada que se encuentra en la fila 3 y columna 2 de la primera matriz es $\pi$. A cada entrada le asignamos una coordenada $(i,j)$, donde $i$ es el número de fila y $j$ es el número de columna. Así, $\pi$ se encuentra en la posición $(3,2)$ de la primera matriz.

Por convención, cuando mencionamos el tamaño de una matriz, primero se especifica el número de filas y posteriormente el número de columnas. Así, la primera matriz es de tamaño $3\times 3$, mientras que la segunda es de tamaño $2 \times 4$. Ya que elegimos el tamaño de una matriz, podemos considerar a todas las matrices de ese tamaño.

Definición. El conjunto $M_{m,n}(\mathbb{R})$ consiste de todas las matrices de $m$ filas, $n$ columnas y en donde cada entrada es un número real.

En el caso de que la cantidad de filas y de columnas de la matriz sean el mismo, diremos que se trata de una matriz cuadrada. De nuestros ejemplos anteriores, la primera sí es una matriz cuadrada, pero la segunda no. Para simplificar un poco la notación, introducimos lo siguiente.

Definición. El conjunto $M_n(\mathbb{R})$ consiste de todas las matrices de $n$ filas, $n$ columnas y en donde cada entrada es un número real.

Es decir, simplemente $M_n(\mathbb{R})=M_{n,n}(\mathbb{R})$.

Al igual que pasa con los vectores, podemos comparar dos matrices para saber si estas son iguales. Como te podrás imaginar, hay algunas condiciones que dos matrices deben cumplir para ser iguales: en primera, ambas deben de tener el mismo tamaño; es decir, sus números de filas deben de ser iguales y sus números de columnas deben de ser iguales. Por lo tanto, vemos que las matrices mostradas anteriormente son diferentes. Además, sus correspondientes entradas deben de ser iguales. Podemos escribir esto en una definición como sigue.

Definición. Sean $A$ y $B$ matrices en $M_{m,n}(\mathbb{R})$. Diremos que estas matrices son iguales si para cada $i\in \{1,\ldots,m\}$ y cada $j\in \{1,\ldots,n\}$ se cumple que la entrada $(i,j)$ de $A$ es la misma que la entrada $(i,j)$ de $B$.

¿Puedes decir por qué las siguientes matrices son diferentes?
\[
\begin{pmatrix}
1 & 2 & 3 \\
4 & 5 & 6 \\
7 & 8 & 9
\end{pmatrix}
\ne
\begin{pmatrix}
1 & 4 & 7 \\
2 & 5 & 8 \\
3 & 6 & 9
\end{pmatrix}.
\]

Notación y algunos vectores y matrices especiales

En matemáticas, es usual que denotemos los vectores con letras minúsculas (siendo las más comunes la $u$, $v$ y $w$) aunque muchas veces te podrás encontrar con notaciones especiales que los hacen más fáciles de distinguir, por ejemplo, $\overrightarrow{a}$ o $\mathbf{a}$. Nosotros no haremos esta distinción y usaremos simplemente letras minúsculas. Por ejemplo podríamos tomar al vector $u=(1,2,3)$ de $\mathbb{R}^3$.

Por su parte, las matrices las solemos representar con letras mayúsculas (generalmente las primeras del abecedario: $A$, $B$, $C$). Si la entrada que se encuentra en la fila $i$ y colmuna $j$ de la matriz se le denota como con la correspondiente letra minúscula y con subíndices la posición de su entrada: $a_{ij}$. Así, tendríamos que en
\[
A=
\begin{pmatrix}
0 & 8 & -4.5 \\
2 & 9 & 0 \\
1 & \pi & 5
\end{pmatrix}
\]
la entrada $a_{13} = -4.5$ y la entrada $a_{31} = 1$. ¿Cuál es la entrada $a_{23}$?

Además, existen algunos vectores y matrices con entradas reales que nos encontraremos con bastante frecuencia, y por esta razón reciben nombres especiales:

  • El vector en el que todas sus entradas son el número cero se conoce como vector cero o vector nulo. Por ejemplo, el vector nulo en $\mathbb{R}^2$ es $ (0,0)$ mientras que el nulo en $\mathbb{R}^3$ es $(0,0,0)$. Generalmente, denotamos este vector como $0$ (o, en ocasiones, como $\overrightarrow{0}$ o $\mathbf{0}$) .Es importante observar que se usa el mismo símbolo para representar a los vectores nulos con números distintos de entradas (de modo que podremos encontrar que $0=(0,0)$, en el caso de $\mathbb{R}^2$, o que $0=(0,0,0)$, en el caso de $\mathbb{R}^3$). Esto es algo que debemos tener en cuenta, aunque no suele representar mayores complicaciones, pues el contexto nos dirá 1) Si el símbolo $0$ se usa para el real cero o el vector cero y 2) Con cuántas entradas estamos trabajando.
  • La matriz en el que todas sus entradas son cero se conoce como matriz cero o matriz nula. Ejemplos de matrices nulas son
    \[
    \begin{pmatrix}
    0 & 0 & 0 & 0 \\
    0 & 0 & 0 & 0 \\
    0 & 0 & 0 & 0
    \end{pmatrix}
    \qquad
    \text{y}
    \qquad
    \begin{pmatrix}
    0 & 0 \\
    0 & 0
    \end{pmatrix}.
    \]
    Estas matrices se suelen denotar con el símbolo $\mathcal{O}$, aunque en el caso de las matrices sí es común especificar las dimensiones de la matriz, de modo que la primera matriz escrita en este inciso se denota como $\mathcal{O}_{3\times 4}$ mientras que una matriz cuadrada, como la segunda de este inciso, se denota como $\mathcal{O}_2$.
  • El vector en $\mathbb{R}^n$ cuya $i$-ésima entrada es $1$ y el resto de sus entradas es $0$ se conoce como vector canónico, y se denota $\mathrm{e}_i$. Por ejemplo, el vector canónico $\mathrm{e}_3$ en $\mathbb{R}^4$ es $(0,0,1,0)$.
  • Además, al conjunto de todos los posibles vectores canónicos en $\mathbb{R}^n$ se conoce como la base canónica de $\mathbb{R}^n$; así, la base canónica de $\mathbb{R}^4$ es
    \[
    \{(1,0,0,0), \ (0,1,0,0), \ (0,0,1,0), (0,0,0,1)\} = \{\mathrm{e}_1, \mathrm{e}_2, \mathrm{e}_3, \mathrm{e}_4\}.
    \]
  • Llamamos diagonal de una matriz cuadrada a las componentes cuyos número de fila y número de columna coinciden. Además, diremos que una matriz es una matriz diagonal si es una matriz cuadrada en la que todas sus entradas que no están en la diagonal (es decir, que su número de fila es distinto a su número de columna) son cero. Ejemplos de matrices diagonales son
    \[
    \begin{pmatrix}
    5 & 0 & 0 \\
    0 & 8 & 0 \\
    0 & 0 & \pi
    \end{pmatrix}
    \qquad
    \text{y}
    \qquad
    \begin{pmatrix}
    6 & 0 & 0 & 0 \\
    0 & 7 & 0 & 0 \\
    0 & 0 & 0 & 0 \\
    0 & 0 & 0 & 9
    \end{pmatrix}
    \]
    (Observemos que aquellas entradas que se encuentran sobre su diagonal también pueden ser cero, aquí no tenemos ninguna restricción).
  • La matriz diagonal en la que todas sus entradas sobre la diagonal son 1 se conoce como matriz identidad. Ejemplos de matrices identidad son
    \[
    \begin{pmatrix}
    1 & 0 & 0\\
    0 & 1 & 0 \\
    0 & 0 & 1
    \end{pmatrix}
    \qquad
    \text{y} \\
    \qquad
    \begin{pmatrix}
    1
    \end{pmatrix}.
    \]
    A esta matriz la denotamos por $\mathcal{I}$ y especificamos su tamaño como subíndice. Así, las matrices anteriores son ${I}_3$ e $\mathcal{I}_1$.

Más adelante…

En esta entrada vimos las definiciones de vectores y matrices con entradas reales que usaremos para trabajar en este curso. También revisamos cuándo dos vectores (o matrices) son iguales. Además, vimos algunos ejemplos de vectores y matrices que nos encontraremos con bastante frecuencia en las matemáticas.

En las siguientes entradas veremos que también se pueden hacer operaciones entre vectores y matrices, aunque necesitaremos que se cumplan algunas condiciones especiales.

Tarea moral

  1. Basándonos en la definiciones, verifica las siguientes igualdades:
    • El vector $(4-4,1,3)$ es igual al vector $(0,2-1,2+1)$.
    • La matriz $A=\begin{pmatrix} 1 & 2 \\ 2 & 4\end{pmatrix}$ es igual a la matriz $B$ de $2\times 2$ cuyas entradas están dadas por $b_{ij}=i\cdot j$.
  2. Encuentra todos los posibles vectores que hay en $\mathbb{R}^3$ cuyas entradas sean únicamente los números $1$ y $2$. ¿Cuántos deben de ser?
  3. Seguramente algunos los nombres de los vectores y matrices especiales te recuerdan a algún tipo de operación. ¿Qué operaciones crees que podamos hacer con los vectores y/o matrices, y qué comportamiento tendrían aquellos que reciben un nombre especial?
  4. ¿Por qué podemos decir que una matriz nula cuadrada cumple con ser una matriz diagonal?
  5. Escribe todos los elementos de la base canónica de $\mathbb{R}^6$.

Entradas relacionadas

Agradecimientos

Trabajo realizado con el apoyo del Programa UNAM-DGAPA-PAPIME PE109323 «Hacia una modalidad a distancia de la Licenciatura en Matemáticas de la FC-UNAM – Etapa 3»

Nota 26. Propiedades de $\mathbb R^n$

Por Julio César Soria Ramírez

(Trabajo de titulación asesorado por la Dra. Diana Avella Alaminos)

Introducción

En la siguiente nota veremos algunas propiedades del $\mathbb R$-espacio vectorial $\mathbb R^n$. Probaremos la unicidad del neutro aditivo, así como la unicidad de los inversos aditivos, veremos que las propiedades de cancelación de la suma también se cumplen, se demostrará que la multiplicación del neutro aditivo de $\mathbb R$ por cualquier vector de $\mathbb R^n$ nos da el neutro aditivo, y que la multiplicación de cualquier escalar por el neutro aditivo, es el neutro aditivo. Finalizaremos viendo que el inverso aditivo de un vector $v$, que hemos denotado por $\tilde{v}$, es de hecho $(-1)v$.

Proposición 1

En $\mathbb R^n$ el neutro aditivo es único.

Demostración

Supongamos que $\bar{0}$ y $\bar{0}’$ son dos neutros aditivos en $\mathbb R^n$.

Por demostrar que $\bar{0}=\bar{0}’$

Explicación
$\bar{0}=$Consideramos uno de los neutros.
$=\bar{0}+\bar{0}’$Gracias a que $\bar{0}’$ es también un neutro.
$=\bar{0}’$Pues $\bar{0}$ es un neutro.

$\square$

Proposición 2

En $\mathbb R^n$ los inversos aditivos son únicos.

Sea $v\in \mathbb R^n$, supongamos que $\tilde{v}$ y $\hat{v}$, son inversos aditivos de $v$.

Por demostrar que $\tilde{v}=\hat{v}$.

Demostración

Explicación
$\tilde{v}=\tilde{v}+\bar{0}=$Gracias a que $\bar{0}$ es el neutro.
$=\tilde{v}+(v+\hat{v})=$Como $\hat{v}$ es un inverso de $v$
$v+\hat{v}=\bar{0}$.
$=(\tilde{v}+v)+\hat{v}=$Gracias a la asociatividad.
=$\bar{0}+\hat{v}$$\tilde{v}$ también es un inverso de $v$ y entonces
$\tilde{v}+v=\bar{0}$.
$=\hat{v}$Pues $\bar{0}$ es el neutro.

$\square$

Propiedades de cancelación

Sean $u,v,w\in \mathbb R^n.$

i) Si $u+v=w+v$ entonces $u=w.$

ii) Si $v+u=v+w$ entonces $u=w.$

Demostración

Sean $u,v,w\in \mathbb R^n$

Demostración de i)

Supongamos que $u+v=w+v$, si le sumamos el inverso $\tilde{v}$ de ambos lados de la igualdad tenemos que:

$(u+v)+\tilde{v}=(w+v)+\tilde{v}.$

En virtud de la asociatividad tenemos que:

$u+(v+\tilde{v})=w+(v+\tilde{v})$

Y como $\tilde{v}$ es el inverso de $v$ obtenemos

$u+\bar{0}=w+\bar{0}.$

Y así $u=w.$

Demostración de ii)

Observa que es un corolario de la demostración del inciso anterior, gracias a la conmutatividad de la suma.

$\square$

Proposición 3

En $\mathbb R^n$ se cumple que:

1. $0v=\bar{0}\,\,\,\,\forall v\in \mathbb R^n.$

2. $\lambda \bar{0}\,\,\,\,\forall \lambda\in \mathbb R.$

Demostración

Demostración de 1

Explicación
$\bar{0}+0v=0v=$Gracias a que $\bar{0}$ es el neutro en $\mathbb R^n$.
$=(0+0)v$$0=0+0$, gracias a que $0$ es neutro en $\mathbb R.$
$=0v+0v$Gracias a la distributividad en $\mathbb R$.

Obtenemos de las igualdades en la tabla que $\bar{0}+0v=0v+0v$, por la propiedad de la cancelación mostrada anteriormente tenemos que $\bar{0}=0v$.

Demostración de 2

Explicación
$\bar{0}+\lambda\bar{0}=\lambda\bar{0}=$Gracias a que $\bar{0}$ es neutro en $\mathbb R^n$.
$\lambda(\bar{0}+\bar{0})$$\bar{0}=\bar{0}+\bar{0}$, gracias a que $\bar{0}$ es neutro en $\mathbb R^n$.
$\lambda\bar{0}+\lambda\bar{0}$Gracias a la distributividad en $\mathbb R^n$.

Obtenemos de las igualdades en la tabla que $\bar{0}+\lambda\bar{0}=\lambda\bar{0}+\lambda\bar{0}$, por la propiedad de la cancelación mostrada anteriormente tenemos que $\bar{0}=\lambda\bar{0}$.

$\square$

Proposición 4

Para todo $v\in \mathbb R^n,\,\,\,\,(-1)v$ es el inverso aditivo de $v$.

Demostración

Sea $v\in \mathbb R^n$. Veamos que $(-1)v$ es su inverso aditivo.

Explicación
$v+(-1)v=1v+(-1)v=$Pues $v=1v$.
$=(1+(-1))v$Por distributividad.
$=0v$Pues en $\mathbb R$ se tiene que $1+(-1)=0$.
$=\bar{0}$Por la proposición 3.

En virtud de la unicidad de los inversos concluimos que $(-1)v=\tilde{v}$.

$\square$

Notación

Dado $v\in \mathbb R^n$ denotaremos por $-v$ a su inverso aditivo.

Corolario

En $\mathbb R^n$e cumple que:

$(-\lambda) v=-(\lambda v)=\lambda (-v),\,\,\,\,\forall \lambda\in \mathbb R\,\,\,\,\forall v\in \mathbb R^n$.

Explicación
$\lambda (-v)=\lambda((-1)v)$$-v=(-1)v$ por la proposición 4.
$=(\lambda(-1))v$Propiedades del producto escalar en $\mathbb R^n$.
$=(-\lambda)v$Gracias a que en $\mathbb R$ $\lambda(-1)=-\lambda$.
$=((-1)\lambda)v$Gracias a que en $\mathbb R$ $\lambda(-1)=-\lambda$.
$=(-1)(\lambda v)$Propiedades del producto escalar en $\mathbb R^n$.
$=-(\lambda v)$Por la proposición 4.

$\square$

Tarea Moral

Determina si dados $v\in \mathbb R^n$, $\lambda\in \mathbb R$, el hecho de que $\lambda v=\bar{0}$ implica necesariamente que $v=\bar{0}$ o que $\lambda =0$.

Más adelante

En la siguiente nota veremos el importante concepto de subespacio vectorial.

Enlaces relacionados

Página principal del curso.

Enlace a la nota anterior. Nota 25. Espacios vectoriales.

Enlace a la nota siguiente. Nota 27. Subespacios vectoriales.

Investigación de Operaciones: Forma canónica y forma estándar de un problema lineal (9)

Por Aldo Romero

Introducción

En las entradas anteriores hemos dado ejemplos de varios problemas de aplicación que pueden ser planteados mediante un problema de programación lineal. Una vez que llegamos a un modelo, se pueden tener restricciones de los tipos $\leq$, $=$ y $\geq$. Además, puede haber restricciones de signo sobre las variables. Puede que se les pida ser no positivas, no negativas o irrestrictas (no restringidas) en signo. Lo que haremos ahora es ver cómo podemos llegar a un cierto formato (forma estándar o forma canónica).

Forma canónica de un problema lineal

A continuación introducimos el primer formato que nos facilitará el trabajo.

Definición. Se dice que un problema de programación lineal está en forma canónica si cumple simultáneamente las siguientes tres propiedades:

  1. El problema es de maximización.
  2. Las restricciones del problema son todas del tipo $\leq$ (menor o igual).
  3. Las variables de decisión son no negativas.

Así, tenemos entonces que un problema en forma canónica se ve como sigue:

\begin{align*}
Max \quad z &= c_1x_1+\ldots+c_nx_n\\
s.a.&\\
&\left\{\begin{matrix} a_{11}x_1 + a_{12}x_2 + \ldots + a_{1n}x_n \leq b_1\\
a_{21}x_1+a_{22}x_2+\ldots + a_{2n}x_n \leq b_2\\
\vdots \\
a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n\leq b_n. \\
x_1\geq 0, x_2\geq 0, \ldots, x_n\geq 0.\end{matrix}\right.
\end{align*}

En términos matriciales, esto podemos reescribirlo de manera mucho más compacta como sigue:

\begin{align*}
Max \quad z &= c\cdot x\\
s.a.&\\
Ax &\leq b\\
x &\geq 0,\\
\end{align*}

en donde:

  • $c=(c_1,\ldots,c_n)\in \mathbb R^n$ es el vector de costos (vector renglón)
  • $x = (x_1,\ldots,x_n)\in \mathbb R^n$ es el vector de variables de decisión (vector columna),
  • $A=[a_{ij}]$ es la matriz de restricciones, que es una matriz de $m \times n$ y
  • $b=(b_1,\ldots,b_m) \in \mathbb R^m$ es el vector de constantes que acotan las combinaciones lineales de variables.

Todo problema de programación lineal puede ser expresado en forma canónica; es decir, puede definirse un problema en forma canónica equivalente a él. En efecto:

  • Si el problema es de minimización, puede considerarse en vez de $z$ la función $z’ = -z$ y en el problema equivalente se busca maximizar $z’$.
  • Si una restricción es del tipo $\geq$ puede ser mutiplicada por -1 para obtener una del tipo $\leq$.
  • Una ecuación puede ser substituida por una desigualdad del tipo $\leq$ y otra del tipo $\geq$. Luego, la del tipo $\geq$ puede ser substituida por una del tipo $\leq$ como en el punto anterior.
  • Para una variable $x_i\leq 0$ puede definirse $x_i’ = -x_i$, resultando $x_i’ \geq 0$. Claramente hay una biyección entre elegir el valor de $x_i$ y $x_i’$.
  • Para una $x_i$ no restringida pueden ser definidas dos variables no negativas $x_i’$ y $x_i^\ast$ tales que $x_i’-x_i^\ast = x_i$. Para cualquier $x_i$ dado podemos construir dichas variables, y viceversa, para $x_i’$ y $x_i^\ast$ se puede construir $x_i$.

Ejemplo de pasar un problema a forma canónica

Transformaremos el siguiente modelo a su forma canónica
\begin{align*}
Min \quad z &= x_1-3x_2+7x_3\\
&s.a.\\
3x_1+&x_2+3x_3 &\leq 40\\
x_1+&9x_2-7x_3 &\geq 50\\
5x_1+&3x_2 &= 20\\
&5x_2 + 8x_3 &\leq 80\\
x_1, x_2 &\geq 0, \quad x_3 \quad libre.\\
\end{align*}

Primeramente se definen las variables no negativas $x_3’$ y $x_3^{\ast}$, tales que $x’_3-x_3^{\ast} = x_3$, con objeto de satisfacer el punto (3) de la definición. Para satisfacer el punto (1) se considera la función:
\begin{align*}
z’ &= -z \\&= -x_1+3x_2-7x_3\\&=-x_1+3 x_2-7 x’_3+7x_3^{\ast}
\end{align*}

y se busca maximiza ésta (equivalente a minimizar $z$). Finalmente se realizan cambios en las restricciones para satisfacer el punto (2). La primera y cuarta desigualdad cumplen con la definición por lo que no se modifican (más allá de la sustitución de $x_3$ por $x’_3-x_3^{\ast}$); la segunda desigualdad se multiplica por $-1$ para obtener una del tipo $\leq$: $$ x_1 + 9x_2 – 7x_3 \geq 50 \quad \Leftrightarrow \quad -x_1 – 9x_2 + 7x_3 \leq -50.$$

Substituyendo las nuevas variables se obtiene: $$-x_1-9x_2+7x’_3-7x_3^{\ast}\leq -50.$$

Para la tercera desigualdad se tiene lo siguiente:

\begin{align*}
5x_1+3x_2 &= 20\\
&\Leftrightarrow\\
5x_1 + 3x_2 \leq 20 \quad& y \quad 5x_1 + 3x_2 \geq 20\\
&\Leftrightarrow\\
5x_1 + 3x_2 \leq 20 \quad& y \quad -5x_1 – 3x_2 \leq -20.\\
\end{align*}

Finalmente el problema queda expresado en forma canónica como:

\begin{align*}
Max \quad z’ &= -x_1+3x_2-7x’_3+7x_3^{\ast}\\
&s.a.\\
3x_1+&x_2+3x’_3-3x_3^{\ast} &\leq 40\\
-x_1-&9x_2+7x’_3-7x_3^{\ast} &\leq -50\\
5x_1+&3x_2 &\leq 20\\
-5x_1-&3x_2 &\leq -20\\
&5x_2+8x’_3-8x_3^{\ast} &\leq 80\\
x_1, x_2&, x’_3, x_3^{\ast} \geq 0.\\
\end{align*}

Forma estándar de un problema lineal

Definición. Se dice que un problema de programación lineal está en forma estándar si

  1. Todas las restricciones son ecuaciones.
  2. Todas las variables son no negativas.
  3. La función objetivo puede pedirse que se optimice maximizándola, o minimizándola.

De esta manera, un problema en forma estándar se ve como sigue:

\begin{align*}
Max\, (\text{o } Min) \quad z &= c_1x_1+\ldots+c_nx_n\\
s.a.&\\
&\left\{\begin{matrix} a_{11}x_1 + a_{12}x_2 + \ldots + a_{1n}x_n = b_1\\
a_{21}x_1+a_{22}x_2+\ldots + a_{2n}x_n = b_2\\
\vdots \\
a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}x_n= b_n\\
x_1\geq 0, x_2\geq 0, \ldots, x_n\geq 0.
\end{matrix}\right.\\
\end{align*}

En notación matricial, el problema en forma canónica queda expresado de la siguiente manera:

\begin{align*}
Max\, (\text{o } Min) \quad z &= cx\\
&s.a.\\
Ax &= b\\
x &\geq 0\\
\end{align*}

en donde $c, x, A$ y $b \geq 0$ son como se mencionó antes.

Así como cualquier problema de programación lineal puede ser expresado en forma canónica, también cualquier problema de programación lineal puede expresarse en forma estándar. Una restricción del tipo $\leq$ ($\geq$) puede ser transformada en una ecuación sumando (o restando) una variable no negativa que recibe el nombre de variable de holgura.

Ejemplo de pasar un problema a forma estándar

Retomemos el problema ejemplo anterior, antes de expresarlo en forma canónica.

\begin{align*}
Min \quad z &= x_1-3x_2+7x_3\\
&s.a.\\
3x_1+&x_2+3x_3 &\leq 40\\
x_1+&9x_2-7x_3 &\geq 50\\
5x_1+&3x_2 &= 20\\
&5x_2 + 8x_3 &\leq 80\\
x_1, x_2 &\geq 0, \quad x_3 \quad libre.\\
\end{align*}

Vamos a expresarlo ahora en forma estándar. Como lo hicimos anteriormente, hacemos la sustitución $x=x’_3-x_3^\ast$ para que la variable libre se convierta en dos con restricciones de ser no negativas.

Para satisfacer (1) se introducen las variables de holgura, $x_4$, $x_5$ y $x_6$ que pediremos que sean no negativas. A la primera desigualdad le sumamos $x_4$. A la quinta le sumamos $x_6$. Y finalment, a la segunda le restamos $x_5$. Esto transforma las desigualdades en igualdades. De esta manera, el problema queda expresado de la siguiente manera:

\begin{align*}
Min \quad z &= x_1 – 3x_2+7x’_3-7x_3^\ast\\
&s.a.\\
3x_1 + &x_2 + 3x’_3 – 3x_3^\ast + x_4 &= 40\\
x_1 + &9x_2 – 7x’_3 + 7x_3^\ast – x_5 &= 50\\
5x_1 + &3x_2 &= 20\\
&5x_2 + 8x’_3 – 8x_3^\ast + x_6 &= 80\\
x_1,&x_2,x’_3,x_3^\ast,x_4,x_5,x_6 \geq 0.\\
\end{align*}

Más adelante…

Las formas que estudiamos en esta entrada nos ayudarán posteriormente para plantear soluciones para problemas de programación lineal.

Mientras tanto, en la siguiente entrada hablaremos de algunos otros conceptos relativos a la teoría de problemas lineales y posibles propiedades que puede tener una asignación de variables. Diremos qué es una solución básica, una solución factible y un punto extremo para un problema lineal.

Tarea moral

  1. ¿Cuál sería la forma estándar del problema de maximizar $x+y$ sujeto a $x-y\leq 8$ y $y\leq 0$? ¿Y su forma canónica?
  2. Transforma el siguiente problema de programación lineal a su forma canónica y a su forma estándar:
    \begin{align*}
    Max \quad z &= -2x_1 + 3x_2 – 2x_3\\
    &s.a.\\
    4x_1 – &x_2 – 5x_3 &= 10\\
    2x_1 + &3x_2 + 2x_3 &\geq 12\\
    x_1 &\geq 0, \quad x_2, x_3 \quad irrestrictas\\
    \end{align*}
  3. Revisa nuevamente las entradas anteriores y encuentra las formas canónicas y formas estándar de los problemas que hemos planteado hasta ahora.
  4. La forma estándar (o bien la forma canónica) de un programa lineal «es equivalente» al problema original. Justifica esta afirmación formalmente. Es decir, explica por qué una solución $x_1,\ldots,x_n$ que optimiza el problema original está asociada a una solución de su forma estándar (o canónica) y viceversa.
  5. Imagina que tenemos un sistema de ecuaciones de la forma $Ax=B$ con $A$ matriz en $M_{m,n}(\mathbb{R})$ y $b$ vector en $\mathbb{R}^m$. Queremos encontrar de todas las posibles soluciones al sistema aquella que minimiza la suma de las entradas de $x$. Plantea esto como un problema lineal y transfórmalo a su forma canónica y a su forma estándar.

Entradas relacionadas

Cálculo Diferencial e Integral III: Polinomio característico

Por Alejandro Antonio Estrada Franco

Introducción

En la entrada anterior estudiamos las representaciones matriciales de una transformación lineal. Vimos cómo dadas ciertas bases del espacio dominio y codominio, existe un isomorfismo entre matrices y transformaciones lineales. Así mismo, planteamos la pregunta de cómo encontrar bases para que dicha forma matricial sea sencilla. Vimos que unos conceptos cruciales para entender esta pregunta son los de eigenvalor, eigenvector y eigenespacio. Lo que haremos ahora es introducir una nueva herramienta que nos permitirá encontrar los eigenvalores de una transformación: el polinomio característico.

A partir del polinomio característico daremos un método para encontrar también a los eigenvectores y, en algunos casos especiales, encontrar una representación de una transformación lineal como matriz diagonal. Todo lo que hacemos es una versión resumida de lo que se puede encontrar en un curso más completo de álgebra lineal. Dentro del blog, te recomendamos consultar las siguientes entradas:

Polinomio característico

Pensemos en el problema de hallar los eigenvalores de una transformación lineal $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$. Si $\lambda \in \mathbb{R}$ es uno de estos eigenvalores, queremos poder encontrar vectores $\bar{v}\neq \bar{0}$ tales que $T(\bar{v})=\lambda \bar{v}$. Esto sucede si y sólo si $\lambda \bar{v}-T(\bar{v})=\bar{0}$, lo cual sucede si y sólo si $(\lambda \text{Id}-T)(\bar{v})=\bar{0}$, en donde $\text{Id}:\mathbb{R}^n\to \mathbb{R}^n$ es la transformación identidad de $\mathbb{R}^n$ en $\mathbb{R}^n$. Tenemos de esta manera que $\bar{v}$ es un eigenvector si y sólo si $\bar{v}\in \ker(\lambda\text{Id}-T)$.

Si existe $\bar{v}\neq \bar{0}$ tal que $\bar{v}\in \ker(\lambda \text{Id}-T)$; entonces $\ker(\lambda \text{Id}-T)\neq \{ \bar{0}\}$ por lo cual la transformación $\lambda \text{Id}-T$ no es invertible, pues no es inyectiva. Así, en ninguna base $\text{Mat}_\beta(\lambda \text{Id}-T)$ es invertible, y por tanto su determinante es $0$. Estos pasos son reversibles. Concluimos entonces que $\lambda\in \mathbb{R}$ es un eigenvalor de $T$ si y sólo si en alguna base $\beta$ se cumple que $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0.$ Esto motiva la siguiente definición.

Definición. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Llamamos a $\det(\text{Mat}_\beta(\lambda \text{Id} – T))$ al polinomio característico de $T$ en la base $\beta$.

Por la discusión anterior, los escalares que cumplen $\det(\text{Mat}_\beta(\lambda \text{Id} – T))=0$ son los eigenvalores $T$. Para obtener los correspondientes eigenvectores, basta con resolver $\text{Mat}_\beta(T)X=\lambda X$, lo cual es un sistema de ecuaciones en el vector de variables $X$. Las soluciones $X$ nos darán las representaciones matriciales de vectores propios $\bar{v}\in \mathbb{R}^n$ en la base $\beta$.

Por el momento parece ser que tenemos mucha notación, pues debemos considerar la base en la que estamos trabajando. Un poco más adelante veremos que en realidad la base no importa mucho para determinar el polinomio característico. Pero por ahora, veamos un ejemplo concreto de las ideas platicadas hasta ahora.

Ejemplo: Consideremos $T:\mathbb{R}^{3}\rightarrow \mathbb{R}^{3}$ dada por $T(x,y,z)=(2x+z,y+x,-z)$. Calculemos su representación matricial con respecto a la base canónica $\beta$. Para ello, realizamos las siguientes evaluaciones:
\begin{align*}
T(1,0,0)&=(2,1,0)\\
T(0,1,0)&=(0,1,0)\\
T(0,0,1)&=(1,0,-1),
\end{align*}

de donde: $$\text{Mat}_\beta=\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix}.$$

Calculando el polinomio característico obtenemos: \[ det\begin{pmatrix} \lambda-2 & 0 & -1 \\ -1 & \lambda-1 & 0 \\ 0 & 0 & \lambda+1 \end{pmatrix}= (\lambda-2)(\lambda-1)(\lambda+1). \]

Las raíces de $(\lambda-2)(\lambda-1)(\lambda+1)$ son $\lambda_{1}=2$, $\lambda_{2}=1$ y $\lambda_{3}=-1$. Pensemos ahora en quiénes son los eigenvectores asociados a cada eigenvalor. Tomemos como ejemplo el eigenvalor $\lambda=2$. Para que $(x,y,z)$ represente a un eigenvector en la base canónica, debe pasar que:

\[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = 2\begin{pmatrix} x \\ y \\ z \end{pmatrix},\]

lo cual sucede si y sólo si:

\[\begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} – 2\begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\left[ \begin{pmatrix} 2 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 0 & -1 \end{pmatrix} – 2\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\right] \begin{pmatrix} x \\ y \\ z \end{pmatrix}= \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix};\]

\[\begin{pmatrix} 0 & 0 & 1 \\ 1 & -1& 0 \\ 0 & 0 & -3 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

De aquí, podemos llegar a la siguiente forma escalonada reducida del sistema de ecuaciones:

\[\begin{pmatrix} 1 & -1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}.\]

En esta forma es sencillo leer las soluciones. Tenemos que $z$ es variable pivote con $z=0$, que $y$ es variable libre, y que $x$ es variable pivote dada por $x=y$. Concluimos entonces que todos los posibles eigenvectores para el eigenvalor $2$ son de la forma $(y,y,0)$, es decir $E_2=\{(y,y,0): y \in \mathbb{R}\}$.

Queda como tarea moral que encuentres los eigenvectores correspondientes a los eigenvalores $1$ y $-1$.

$\triangle$

Matrices similares

En la sección anterior definimos el polinomio de una transformación lineal en términos de la base que elegimos para representarla. En realidad, la base elegida no es muy importante. Demostraremos un poco más abajo que dos representaciones matriciales cualesquiera de una misma transformación lineal tienen el mismo polinomio característico. Para ello, comencemos con la siguiente discusión.

Sea $T:\mathbb{R}^n\rightarrow \mathbb{R}^n$ una transformación lineal y sean $\beta_1=\{ \bar{e}_{1}, \dots , \bar{e}_{n}\}$, $\beta_2=\{ \bar{u}_{1}, \dots , \bar{u}_{n}\}$ dos bases (ordenadas) de $\mathbb{R}^n$. Supongamos que:

\begin{align*}
A&=\text{Mat}_{\beta_1}(T)=[a_{ij}]\\
B&=\text{Mat}_{\beta_2}(T)=[b_{ij}].
\end{align*}

Por cómo se construyen las matrices $A$ y $B$, tenemos que:

\begin{align*}
T(\bar{e}_j)&=\sum_{i=1}^n a_{ij} \bar{e}_i\quad\text{para $j=1,\ldots,n$}\\
T(\bar{u}_k)&=\sum_{j=1}^n b_{jk} \bar{u}_j\quad\text{para $k=1,\ldots,n$}.
\end{align*}

Como $\beta_{1}$ es base, podemos poner a cada un de los $\bar{u}_k$ de $\beta_{2}$ en términos de la base $\beta_{1}$ mediante combinaciones lineales, digamos:

\begin{equation}
\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}
\label{eq:valor-u}
\end{equation}

en donde los $c_{jk}$ son escalares para $j=1,\ldots, n$ y $k=1,\ldots,n$. La matriz $C$ de $n\times n$, con entradas $c_{jk}$ representa a una transformación lineal invertible, ya que es una transformación que lleva uno a uno los vectores de una base a otra. Afirmamos que $CB=AC$. Para ello, tomaremos una $k$ en $[n]$ y expresaremos $T(\bar{u}_k)$ de dos formas distintas.

Por un lado, usando \eqref{eq:valor-u} y por como es cada $T(\bar{e}_k)$ en la base $\beta_{1}$ tenemos que:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^n c_{jk} T(\bar{e}_j)\\
&=\sum_{j=1}^n c_{jk} \sum_{i=1}^n a_{ij} \bar{e}_i\\
&=\sum_{j=1}^n \sum_{i=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (c_{jk} a_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n a_{ij} c_{jk}\right) \bar{e}_i.
\end{align*}

Por otro lado, usando $\eqref{eq:valor-u}$ y por como es cada $T(\bar{u}_k)$ en la base $\beta_{2}$:

\begin{align*}
T(\bar{u}_k)&=\sum_{j=1}^nb_{jk} \bar{u}_j\\
&=\sum_{j=1}^n b_{jk} \sum_{i=1}^{n}c_{ji}\bar{e}_{j} \\
&=\sum_{j=1}^n \sum_{i=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \sum_{j=1}^n (b_{jk} c_{ij} \bar{e}_i)\\
&=\sum_{i=1}^n \left(\sum_{j=1}^n c_{ij} b_{jk} \right) \bar{e}_i.
\end{align*}

Comparemos ambas expresiones para $T(\bar{u}_k)$. La primera es una combinación lineal de los $\bar{e}_i$ y la segunda también. Como $T(\bar{u}_k)$ tiene una única expresión como combinación lineal de los $\bar{e}_i$, entonces los coeficientes de la combinación lineal deben coincidir. Concluimos que para cada $i$ se cumple:

$$\sum_{j=1}^n a_{ij} c_{jk}=\sum_{j=1}^n c_{ij} b_{jk}.$$

Pero esto precisamente nos dice que la entrada $(i,k)$ de la matriz $AC$ es igual a la entrada $(i,k)$ de la matriz $CB$. Con esto concluimos que $AC=CB$, como queríamos.

En resumen, obtuvimos que para dos matrices $A$ y $B$ que representan a la misma transformación lineal, existe una matriz invertible $C$ tal que: $B=C^{-1}AC$. Además $C$ es la matriz con entradas dadas por \eqref{eq:valor-u}.

Introduciremos una definición que nos permitirá condensar en un enunciado corto el resultado que hemos obtenido.

Definición. Dos matrices $A$ y $B$ se llamarán similares (o semejantes), cuando existe otra matriz $C$ invertible tal que $B=C^{-1}AC$.

Sintetizamos nuestro resultado de la siguiente manera.

Proposición. Si dos matrices representan a la misma transformación lineal, entonces estas matrices son similares.

El recíproco de la proposición también se cumple, tal y como lo afirma el siguiente resultado.

Proposición. Sean $A$ y $B$ matrices similares. Entonces $A$ y $B$ representan a una misma transformación lineal $T$, quizás bajo distintas bases.

Demostración: Supongamos que las matrices $A$ y $B$ son similares con $B=C^{-1}AC$, donde las matrices $A$, $B$, $C$ están dadas por entradas $A=[a_{ij}]$ $B=[b_{ij}]$, $C=[c_{jk}]$. Tomemos una base ordenada $\beta=\{\bar{e}_{1}, \dots ,\bar{e}_{n}\}$ de $\mathbb{R}^n$. Consideremos la transformación lineal $T\in \mathcal{L}(\mathbb{R}^n,\mathbb{R}^n)$ dada por $$T(\bar{e}_j)=\sum_{i=1}^n a_{ij} \bar{e}_i.$$

De esta manera $T$ tiene forma matricial $A$ en la base $\beta$.

Construyamos ahora una nueva base ordenada de $\mathbb{R}^n$ dada por vectores $\bar{u}_k$ para $k=1,\ldots,n$ construidos como sigue:

$$\bar{u}_{k}=\sum_{j=1}^{n}c_{jk}\bar{e}_{j}.$$

Como $C$ es invertible, en efecto tenemos que $\beta’:=\{\bar{u}_1,\ldots,\bar{u}_n\}$ también es base de $\mathbb{R}^n$. Además, de acuerdo con las cuentas que hicimos anteriormente, tenemos que precisamente la forma matricial de $T$ en la base $\beta’$ será $B$.

Así, hemos exhibido una transformación $T$ que en una base tiene representación $A$ y en otra tiene representación $B$.

$\square$

Juntando ambos resultados en uno solo, llegamos a lo siguiente.

Teorema. Dos matrices $A$ y $B$ en $M_n(\mathbb{R})$ son similares si y sólo si representan a una misma transformación lineal $T:\mathbb{R}^n\to \mathbb{R}^n$, quizás bajo distintas bases.

El polinomio característico no depende de la base

Si dos matrices son similares, entonces comparten varias propiedades relevantes para el álgebra lineal. Veamos un ejemplo de esto.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal en un espacio sobre $\mathbb{R}$ de dimensión finita. Sean $\beta$ y $\beta’$ bases de $\mathbb{R}^n$. Entonces se obtiene lo mismo calculando el polinomio característico de $T$ en la base $\beta$, que en la base $\beta’$.

Demostración. Tomemos $A=\text{Mat}_{\beta}(T)$ y $B=\text{Mat}_{\beta’}(T)$. Como $A$ y $B$ representan a la misma transformación lineal $T$, entonces son similares y por lo tanto existe $C$ invertible con $B=C^{-1}AC$.

Para encontrar el polinomio característico de $T$ en la base $\beta$, necesitamos $\Mat_{\beta}(\lambda\text{Id}-T)$, que justo es $\lambda I -A$. Así mismo, en la base $\beta’$ tenemos $\lambda I – B$. Debemos mostrar que el determinante de estas dos matrices es el mismo. Para ello, procedemos como sigue:

\begin{align*}
\det(\lambda I -B) &= \det (\lambda C^{-1}C – C^{-1} A C)\\
&=\det(C^{-1}(\lambda I – A) C)\\
&=\det(C^{-1})\det(\lambda I – A) \det(C)\\
&=\det(C^{-1})\det(C)\det(\lambda I-A)\\
&=\det(I)\det(\lambda I-A)\\
&=\det(\lambda I-A).
\end{align*}

Aquí estamos usando que el determinante es multiplicativo. Cuando reordenamos expresiones con $\det$, lo hicimos pues los determinantes son reales, cuyo producto es conmutativo.

$\square$

Este teorema nos permite hablar del polinomio característico de una transformación lineal.

Concluimos esta entrada con un resultado que relaciona al polinomio característico de una transformación lineal, con la posibilidad de que exista una base cuya representación matricial sea diagonal.

Teorema. Sea $T:\mathbb{R}^n\to \mathbb{R}^n$ una transformación lineal. Supongamos que el polinomio característico de $T$ tiene raíces distintas $\lambda_{1}, \dots ,\lambda_{n}$. Entonces se cumple lo siguiente:

  1. Si tomamos un eigenvector $\bar{u}_i$ para cada eigenvalor $\lambda_i$, entonces $\bar{u}_{1},\dots ,\bar{u}_{n}$ forman una base $\beta$ para $\mathbb{R}^n$.
  2. Con dicha base $\beta$, se cumple que $\text{Mat}_\beta(T)$ es una matriz diagonal con entradas $\lambda_{1},\dots ,\lambda_{n}$ en su diagonal.
  3. Si $\beta’$ es otra base de $\mathbb{R}^n$ y $A=\text{Mat}_{\beta’}(T)$, entonces $\text{Mat}_\beta(T) = C^{-1}AC$ para una matriz invertible $C$ con entradas dadas por \eqref{eq:valor-u}.

La demostración de este resultado queda como tarea moral.

Más adelante…

En la entrada planteamos entonces un método para encontrar los eigenvectores de una transformación $T$: 1) la transformamos en una matriz $A$, 2) encontramos el polinomio característico mediante $\det(\lambda I – A)$, 3) encontramos las raíces de este polinomio, 4) cada raíz es un eigenvalor y las soluciones al sistema lineal de ecuaciones $(\lambda I – A) X=0$ dan los vectores coordenada de los eigenvectores.

Como platicamos en la entrada, una condición suficiente para que una transformación de $\mathbb{R}^n$ a sí mismo sea diagonalizable es que tenga $n$ eigenvalores distintos. Otro resultado muy bonito de álgebra lineal es que si la transformación tiene alguna forma matricial simétrica, entonces también es diagonalizable. A esto se le conoce como el teorema espectral para matrices simétricas reales. En otros cursos de álgebra lineal se estudia la diagonalizabilidad con mucho detalle. Aquí en el blog puedes consultar el curso de Álgebra Lineal II.

Otra herramienta de álgebra lineal que usaremos en el estudio de la diferenciabilidad y continuidad de las funciones de $\mathbb{R}^{n}$ a $\mathbb{R}^{m}$ son las formas bilineales y las formas cuadráticas. En la siguiente entrada comenzaremos con estos temas.

Tarea moral

  1. Encuentra los eigenvectores faltantes del ejemplo de la sección de polinomio característico.
  2. Considera la transformación lineal $T(x,y,z)=(2x+z,y+x,-z)$ de $\mathbb{R}^3$ en $\mathbb{R}^3$. Nota que es la misma que la del ejemplo de la entrada. Encuentra su representación matricial con respecto a la base $\{(1,1,1),(1,2,3),(0,1,1)\}$ de $\mathbb{R}^3$. Verifica explícitamente que, en efecto, al calcular el polinomio característico con esta base se obtiene lo mismo que con la dada en el ejemplo.
  3. Demuestra que si $A$ y $B$ son dos representaciones matriciales de una misma transformación lineal $T$, entonces $\det(A)=\det(B)$.
  4. Sea $T:\mathbb{R}^{3}\to \mathbb{R}^{3}$ dada por $T(x,y,z)=(x+y+z,x,y)$. Encuentra los eigenvalores correspondientes a la transformación, y responde si es posible representarla con una matriz diagonal. En caso de que sí, encuentra explícitamente la base $\beta$ en la cual $\text{Mat}_{\beta}(T)$ es diagonal.
  5. Demuestra el último teorema de la entrada. Necesitarás usar resultados de la entrada anterior.

Entradas relacionadas