dm mpath selector: more evenly distribute ties
authorKhazhismel Kumykov <khazhy@google.com>
Fri, 19 Jan 2018 23:07:37 +0000 (15:07 -0800)
committerMike Snitzer <snitzer@redhat.com>
Mon, 29 Jan 2018 18:44:58 +0000 (13:44 -0500)
Move the last used path to the end of the list (least preferred) so that
ties are more evenly distributed.

For example, in case with three paths with one that is slower than
others, the remaining two would be unevenly used if they tie. This is
due to the rotation not being a truely fair distribution.

Illustrated: paths a, b, c, 'c' has 1 outstanding IO, a and b are 'tied'
Three possible rotations:
(a, b, c) -> best path 'a'
(b, c, a) -> best path 'b'
(c, a, b) -> best path 'a'
(a, b, c) -> best path 'a'
(b, c, a) -> best path 'b'
(c, a, b) -> best path 'a'
...

So 'a' is used 2x more than 'b', although they should be used evenly.

With this change, the most recently used path is always the least
preferred, removing this bias resulting in even distribution.
(a, b, c) -> best path 'a'
(b, c, a) -> best path 'b'
(c, a, b) -> best path 'a'
(c, b, a) -> best path 'b'
...

Signed-off-by: Khazhismel Kumykov <khazhy@google.com>
Reviewed-by: Martin Wilck <mwilck@suse.com>
Signed-off-by: Mike Snitzer <snitzer@redhat.com>
drivers/md/dm-queue-length.c
drivers/md/dm-service-time.c

index 23f1786417946e9ee8375a051544e1024db1f7d1..969c4f1a3633636c1f5f49ad93057a2bf59a19d0 100644 (file)
@@ -195,9 +195,6 @@ static struct dm_path *ql_select_path(struct path_selector *ps, size_t nr_bytes)
        if (list_empty(&s->valid_paths))
                goto out;
 
-       /* Change preferred (first in list) path to evenly balance. */
-       list_move_tail(s->valid_paths.next, &s->valid_paths);
-
        list_for_each_entry(pi, &s->valid_paths, list) {
                if (!best ||
                    (atomic_read(&pi->qlen) < atomic_read(&best->qlen)))
@@ -210,6 +207,9 @@ static struct dm_path *ql_select_path(struct path_selector *ps, size_t nr_bytes)
        if (!best)
                goto out;
 
+       /* Move most recently used to least preferred to evenly balance. */
+       list_move_tail(&best->list, &s->valid_paths);
+
        ret = best->path;
 out:
        spin_unlock_irqrestore(&s->lock, flags);
index 7b8642045c557b21ac5f4dab4411ef5993bc1687..f006a9005593baf301ea9bbf2e1dbeae062aecce 100644 (file)
@@ -282,9 +282,6 @@ static struct dm_path *st_select_path(struct path_selector *ps, size_t nr_bytes)
        if (list_empty(&s->valid_paths))
                goto out;
 
-       /* Change preferred (first in list) path to evenly balance. */
-       list_move_tail(s->valid_paths.next, &s->valid_paths);
-
        list_for_each_entry(pi, &s->valid_paths, list)
                if (!best || (st_compare_load(pi, best, nr_bytes) < 0))
                        best = pi;
@@ -292,6 +289,9 @@ static struct dm_path *st_select_path(struct path_selector *ps, size_t nr_bytes)
        if (!best)
                goto out;
 
+       /* Move most recently used to least preferred to evenly balance. */
+       list_move_tail(&best->list, &s->valid_paths);
+
        ret = best->path;
 out:
        spin_unlock_irqrestore(&s->lock, flags);