blk-mq: add mq_ops->commit_rqs()
authorJens Axboe <axboe@kernel.dk>
Wed, 28 Nov 2018 00:02:25 +0000 (17:02 -0700)
committerJens Axboe <axboe@kernel.dk>
Thu, 29 Nov 2018 17:11:56 +0000 (10:11 -0700)
blk-mq passes information to the hardware about any given request being
the last that we will issue in this sequence. The point is that hardware
can defer costly doorbell type writes to the last request. But if we run
into errors issuing a sequence of requests, we may never send the request
with bd->last == true set. For that case, we need a hook that tells the
hardware that nothing else is coming right now.

For failures returned by the drivers ->queue_rq() hook, the driver is
responsible for flushing pending requests, if it uses bd->last to
optimize that part. This works like before, no changes there.

Reviewed-by: Omar Sandoval <osandov@fb.com>
Reviewed-by: Ming Lei <ming.lei@redhat.com>
Reviewed-by: Christoph Hellwig <hch@lst.de>
Signed-off-by: Jens Axboe <axboe@kernel.dk>
block/blk-mq.c
include/linux/blk-mq.h

index 2a1a653a805433ea5c60c428d8ec2777216c44a9..d8534107bb6fd80453011cc8e033f21a925c36b5 100644 (file)
@@ -1259,6 +1259,14 @@ bool blk_mq_dispatch_rq_list(struct request_queue *q, struct list_head *list,
        if (!list_empty(list)) {
                bool needs_restart;
 
+               /*
+                * If we didn't flush the entire list, we could have told
+                * the driver there was more coming, but that turned out to
+                * be a lie.
+                */
+               if (q->mq_ops->commit_rqs)
+                       q->mq_ops->commit_rqs(hctx);
+
                spin_lock(&hctx->lock);
                list_splice_init(list, &hctx->dispatch);
                spin_unlock(&hctx->lock);
@@ -1865,6 +1873,14 @@ void blk_mq_try_issue_list_directly(struct blk_mq_hw_ctx *hctx,
                        blk_mq_end_request(rq, ret);
                }
        }
+
+       /*
+        * If we didn't flush the entire list, we could have told
+        * the driver there was more coming, but that turned out to
+        * be a lie.
+        */
+       if (!list_empty(list) && hctx->queue->mq_ops->commit_rqs)
+               hctx->queue->mq_ops->commit_rqs(hctx);
 }
 
 static void blk_add_rq_to_plug(struct blk_plug *plug, struct request *rq)
index b8de11e0603bc03f6a92a90a9cea5f609bea4787..467f1dd21ccf681e09dce5e862633164dd8c3298 100644 (file)
@@ -117,6 +117,7 @@ struct blk_mq_queue_data {
 
 typedef blk_status_t (queue_rq_fn)(struct blk_mq_hw_ctx *,
                const struct blk_mq_queue_data *);
+typedef void (commit_rqs_fn)(struct blk_mq_hw_ctx *);
 /* takes rq->cmd_flags as input, returns a hardware type index */
 typedef int (rq_flags_to_type_fn)(struct request_queue *, unsigned int);
 typedef bool (get_budget_fn)(struct blk_mq_hw_ctx *);
@@ -144,6 +145,15 @@ struct blk_mq_ops {
         */
        queue_rq_fn             *queue_rq;
 
+       /*
+        * If a driver uses bd->last to judge when to submit requests to
+        * hardware, it must define this function. In case of errors that
+        * make us stop issuing further requests, this hook serves the
+        * purpose of kicking the hardware (which the last request otherwise
+        * would have done).
+        */
+       commit_rqs_fn           *commit_rqs;
+
        /*
         * Return a queue map type for the given request/bio flags
         */