blk-mq-sched: allow setting of default IO scheduler blk-mq-sched.5
authorJens Axboe <axboe@fb.com>
Mon, 9 Jan 2017 20:02:19 +0000 (13:02 -0700)
committerJens Axboe <axboe@fb.com>
Tue, 10 Jan 2017 21:28:05 +0000 (14:28 -0700)
Add Kconfig entries to manage what devices get assigned an MQ
scheduler, and add a blk-mq flag for drivers to opt out of scheduling.
The latter is useful for admin type queues that still allocate a blk-mq
queue and tag set, but aren't use for normal IO.

Signed-off-by: Jens Axboe <axboe@fb.com>
block/Kconfig.iosched
block/blk-mq-sched.c
block/blk-mq-sched.h
block/blk-mq.c
block/elevator.c
drivers/nvme/host/pci.c
include/linux/blk-mq.h

index 490ef2850faee1f6682e112a7876c35340794502..96216cf185604cfb7f2e94b2d4525c89415532a5 100644 (file)
@@ -32,12 +32,6 @@ config IOSCHED_CFQ
 
          This is the default I/O scheduler.
 
-config MQ_IOSCHED_DEADLINE
-       tristate "MQ deadline I/O scheduler"
-       default y
-       ---help---
-         MQ version of the deadline IO scheduler.
-
 config CFQ_GROUP_IOSCHED
        bool "CFQ Group Scheduling support"
        depends on IOSCHED_CFQ && BLK_CGROUP
@@ -69,6 +63,43 @@ config DEFAULT_IOSCHED
        default "cfq" if DEFAULT_CFQ
        default "noop" if DEFAULT_NOOP
 
+config MQ_IOSCHED_DEADLINE
+       tristate "MQ deadline I/O scheduler"
+       default y
+       ---help---
+         MQ version of the deadline IO scheduler.
+
+config MQ_IOSCHED_NONE
+       bool
+       default y
+
+choice
+       prompt "Default MQ I/O scheduler"
+       default MQ_IOSCHED_NONE
+       help
+         Select the I/O scheduler which will be used by default for all
+         blk-mq managed block devices.
+
+       config DEFAULT_MQ_DEADLINE
+               bool "MQ Deadline" if MQ_IOSCHED_DEADLINE=y
+
+       config DEFAULT_MQ_NONE
+               bool "None"
+
+endchoice
+
+config DEFAULT_MQ_IOSCHED
+       string
+       default "mq-deadline" if DEFAULT_MQ_DEADLINE
+       default "none" if DEFAULT_MQ_NONE
+
+config MQ_IOSCHED_ONLY_SQ
+       bool "Enable blk-mq IO scheduler only for single queue devices"
+       default y
+       help
+         Say Y here, if you only want to enable IO scheduling on block
+         devices that have a single queue registered.
+
 endmenu
 
 endif
index 839a613370f96b450089eeac6b48f3cfc7f4ce62..234f45b812cebed99b7134819d06f405e2d7cd6d 100644 (file)
@@ -246,3 +246,22 @@ void blk_mq_sched_request_inserted(struct request *rq)
        trace_block_rq_insert(rq->q, rq);
 }
 EXPORT_SYMBOL_GPL(blk_mq_sched_request_inserted);
+
+int blk_mq_sched_init(struct request_queue *q)
+{
+       int ret;
+
+#if defined(CONFIG_DEFAULT_MQ_NONE)
+       return 0;
+#endif
+#if defined(CONFIG_MQ_IOSCHED_ONLY_SQ)
+       if (q->nr_hw_queues > 1)
+               return 0;
+#endif
+
+       mutex_lock(&q->sysfs_lock);
+       ret = elevator_init(q, NULL);
+       mutex_unlock(&q->sysfs_lock);
+
+       return ret;
+}
index 72c607b898d7531f665562ed57dbc60820178ed8..dd5c85b18400e5980c4f61146269863e2a28810e 100644 (file)
@@ -21,6 +21,8 @@ bool blk_mq_sched_try_insert_merge(struct request_queue *q, struct request *rq);
 
 void blk_mq_sched_dispatch_requests(struct blk_mq_hw_ctx *hctx);
 
+int blk_mq_sched_init(struct request_queue *q);
+
 static inline bool
 blk_mq_sched_bio_merge(struct request_queue *q, struct bio *bio)
 {
index cd91c193fe99e0b99064656744d39c19e34a5a25..0d623c3ccdbeaba43879b76794f37b8a9d24371a 100644 (file)
@@ -2228,6 +2228,14 @@ struct request_queue *blk_mq_init_allocated_queue(struct blk_mq_tag_set *set,
        mutex_unlock(&all_q_mutex);
        put_online_cpus();
 
+       if (!(set->flags & BLK_MQ_F_NO_SCHED)) {
+               int ret;
+
+               ret = blk_mq_sched_init(q);
+               if (ret)
+                       return ERR_PTR(ret);
+       }
+
        return q;
 
 err_hctxs:
index e5b76f15528a91e744e1dde42f215765198a4f5b..f4309db61e3121a17b1e02d9ac8ba94084b017b6 100644 (file)
@@ -219,7 +219,10 @@ int elevator_init(struct request_queue *q, char *name)
        }
 
        if (!e) {
-               e = elevator_get(CONFIG_DEFAULT_IOSCHED, false);
+               if (q->mq_ops)
+                       e = elevator_get(CONFIG_DEFAULT_MQ_IOSCHED, false);
+               else
+                       e = elevator_get(CONFIG_DEFAULT_IOSCHED, false);
                if (!e) {
                        printk(KERN_ERR
                                "Default I/O scheduler not found. " \
index 2fd7dc2e8fc4b742f505b7c54961f1be4dc927de..f2b252ff6855bdf351497aebe9e2623751161d87 100644 (file)
@@ -1188,6 +1188,7 @@ static int nvme_alloc_admin_tags(struct nvme_dev *dev)
                dev->admin_tagset.timeout = ADMIN_TIMEOUT;
                dev->admin_tagset.numa_node = dev_to_node(dev->dev);
                dev->admin_tagset.cmd_size = nvme_cmd_size(dev);
+               dev->admin_tagset.flags = BLK_MQ_F_NO_SCHED;
                dev->admin_tagset.driver_data = dev;
 
                if (blk_mq_alloc_tag_set(&dev->admin_tagset))
index 5383ee3a3c5b04d067a36fe3b228897af7f09499..377594bcda8dd68cf6114c76ad78b14a63b7c5b7 100644 (file)
@@ -154,6 +154,7 @@ enum {
        BLK_MQ_F_SG_MERGE       = 1 << 2,
        BLK_MQ_F_DEFER_ISSUE    = 1 << 4,
        BLK_MQ_F_BLOCKING       = 1 << 5,
+       BLK_MQ_F_NO_SCHED       = 1 << 6,
        BLK_MQ_F_ALLOC_POLICY_START_BIT = 8,
        BLK_MQ_F_ALLOC_POLICY_BITS = 1,