aio: add support for submission/completion rings aio-poll-ring
authorJens Axboe <axboe@kernel.dk>
Tue, 4 Dec 2018 17:08:44 +0000 (10:08 -0700)
committerJens Axboe <axboe@kernel.dk>
Tue, 4 Dec 2018 17:13:43 +0000 (10:13 -0700)
Experimental support for submitting and completing IO through rings
shared between the application and kernel.

The submission rings are struct iocb, like we would submit through
io_submit(), and the completion rings are struct io_event, like we
would pass in (and copy back) from io_getevents().

A new system call is added for this, io_ring_enter(). This system
call submits IO that is queued in the SQ ring, and/or completes IO
and stores the results in the CQ ring.

This could be augmented with a kernel thread that does the submission
and polling, then the application would never have to enter the
kernel to do IO.

Sample application: http://brick.kernel.dk/snaps/aio-ring.c

Note that we need to (in terms of cleanup/rebase)

1) Bring in the mapped_range support sooner
2) Fold the system call changes (both of them)

Signed-off-by: Jens Axboe <axboe@kernel.dk>
arch/x86/entry/syscalls/syscall_64.tbl
fs/aio.c
include/linux/syscalls.h
include/uapi/linux/aio_abi.h

index 67c357225fb0c1fd7adcba540eace7066793ec1e..55a26700a63743cbbf8b25095b866eb82ee5ae26 100644 (file)
 333    common  io_pgetevents           __x64_sys_io_pgetevents
 334    common  rseq                    __x64_sys_rseq
 335    common  io_setup2               __x64_sys_io_setup2
+336    common  io_ring_enter           __x64_sys_io_ring_enter
 
 #
 # x32-specific system call numbers start at 512 to avoid cache impact
index e99e585a3bbd899d432eff8af6d4e6964d48b69d..54617e3d26a41288e953eba810736f588ac600b7 100644 (file)
--- a/fs/aio.c
+++ b/fs/aio.c
@@ -93,6 +93,11 @@ struct ctx_rq_wait {
        atomic_t count;
 };
 
+struct aio_mapped_range {
+       struct page **pages;
+       long nr_pages;
+};
+
 struct aio_mapped_ubuf {
        struct bio_vec *bvec;
        unsigned int nr_bvecs;
@@ -133,8 +138,11 @@ struct kioctx {
        struct page             **ring_pages;
        long                    nr_pages;
 
-       struct page             **iocb_pages;
-       long                    iocb_nr_pages;
+       struct aio_mapped_range iocb_range;
+
+       /* if used, completion and submission rings */
+       struct aio_mapped_range sq_ring;
+       struct aio_mapped_range cq_ring;
 
        struct aio_mapped_ubuf  *user_bufs;
 
@@ -293,6 +301,8 @@ static const struct address_space_operations aio_ctx_aops;
 
 static const unsigned int iocb_page_shift =
                                ilog2(PAGE_SIZE / sizeof(struct iocb));
+static const unsigned int event_page_shift =
+                               ilog2(PAGE_SIZE / sizeof(struct io_event));
 
 /*
  * We rely on block level unplugs to flush pending requests, if we schedule
@@ -303,7 +313,8 @@ static const bool aio_use_state_req_list = true;
 static const bool aio_use_state_req_list = false;
 #endif
 
-static void aio_useriocb_free(struct kioctx *);
+static void aio_useriocb_unmap(struct kioctx *);
+static void aio_scqring_unmap(struct kioctx *);
 static void aio_iocb_buffer_unmap(struct kioctx *);
 static void aio_iopoll_reap_events(struct kioctx *);
 
@@ -668,7 +679,8 @@ static void free_ioctx(struct work_struct *work)
        pr_debug("freeing %p\n", ctx);
 
        aio_iocb_buffer_unmap(ctx);
-       aio_useriocb_free(ctx);
+       aio_useriocb_unmap(ctx);
+       aio_scqring_unmap(ctx);
        aio_free_ring(ctx);
        free_percpu(ctx->cpu);
        percpu_ref_exit(&ctx->reqs);
@@ -1214,6 +1226,47 @@ static void aio_fill_event(struct io_event *ev, struct aio_kiocb *iocb,
        ev->res2 = res2;
 }
 
+static struct io_event *__aio_get_cqring_ev(struct aio_io_event_ring *ring,
+                                           struct aio_mapped_range *range,
+                                           unsigned *next_tail)
+{
+       struct io_event *ev;
+       unsigned tail;
+
+       smp_rmb();
+       tail = READ_ONCE(ring->tail);
+       *next_tail = tail + 1;
+       if (*next_tail == ring->nr_events)
+               *next_tail = 0;
+       if (*next_tail == READ_ONCE(ring->head))
+               return NULL;
+
+       /* io_event array starts offset one into the mapped range */
+       tail++;
+       ev = page_address(range->pages[tail >> event_page_shift]);
+       tail &= ((1 << event_page_shift) - 1);
+       return ev + tail;
+}
+
+static void aio_commit_cqring(struct kioctx *ctx, unsigned next_tail)
+{
+       struct aio_io_event_ring *ring;
+
+       ring = page_address(ctx->cq_ring.pages[0]);
+       if (next_tail != ring->tail) {
+               ring->tail = next_tail;
+               smp_wmb();
+       }
+}
+
+static struct io_event *aio_peek_cqring(struct kioctx *ctx, unsigned *ntail)
+{
+       struct aio_io_event_ring *ring;
+
+       ring = page_address(ctx->cq_ring.pages[0]);
+       return __aio_get_cqring_ev(ring, &ctx->cq_ring, ntail);
+}
+
 static void aio_ring_complete(struct kioctx *ctx, struct aio_kiocb *iocb,
                              long res, long res2)
 {
@@ -1275,7 +1328,17 @@ static void aio_complete(struct aio_kiocb *iocb, long res, long res2)
 {
        struct kioctx *ctx = iocb->ki_ctx;
 
-       aio_ring_complete(ctx, iocb, res, res2);
+       if (ctx->flags & IOCTX_FLAG_SCQRING) {
+               struct io_event *ev;
+               unsigned int tail;
+
+               /* Can't fail, we have a ring reservation */
+               ev = aio_peek_cqring(ctx, &tail);
+               aio_fill_event(ev, iocb, res, res2);
+               aio_commit_cqring(ctx, tail);
+       } else {
+               aio_ring_complete(ctx, iocb, res, res2);
+       }
 
        /*
         * Check if the user asked us to deliver the result through an
@@ -1417,6 +1480,9 @@ static long aio_iopoll_reap(struct kioctx *ctx, struct io_event __user *evs,
                return 0;
 
        list_for_each_entry_safe(iocb, n, &ctx->poll_completing, ki_list) {
+               struct io_event *ev = NULL;
+               unsigned int next_tail;
+
                if (*nr_events == max)
                        break;
                if (!test_bit(IOCB_POLL_COMPLETED, &iocb->ki_flags))
@@ -1424,6 +1490,14 @@ static long aio_iopoll_reap(struct kioctx *ctx, struct io_event __user *evs,
                if (to_free == AIO_IOPOLL_BATCH)
                        iocb_put_many(ctx, iocbs, &to_free);
 
+               /* Will only happen if the application over-commits */
+               ret = -EAGAIN;
+               if (ctx->flags & IOCTX_FLAG_SCQRING) {
+                       ev = aio_peek_cqring(ctx, &next_tail);
+                       if (!ev)
+                               break;
+               }
+
                list_del(&iocb->ki_list);
                iocbs[to_free++] = iocb;
 
@@ -1442,8 +1516,11 @@ static long aio_iopoll_reap(struct kioctx *ctx, struct io_event __user *evs,
                        file_count = 1;
                }
 
-               if (evs && copy_to_user(evs + *nr_events, &iocb->ki_ev,
-                   sizeof(iocb->ki_ev))) {
+               if (ev) {
+                       memcpy(ev, &iocb->ki_ev, sizeof(*ev));
+                       aio_commit_cqring(ctx, next_tail);
+               } else if (evs && copy_to_user(evs + *nr_events, &iocb->ki_ev,
+                               sizeof(iocb->ki_ev))) {
                        ret = -EFAULT;
                        break;
                }
@@ -1621,15 +1698,42 @@ static long read_events(struct kioctx *ctx, long min_nr, long nr,
        return ret;
 }
 
-static struct iocb *aio_iocb_from_index(struct kioctx *ctx, int index)
+static struct iocb *__aio_sqring_from_index(struct aio_iocb_ring *ring,
+                                           struct aio_mapped_range *range,
+                                           int index)
 {
        struct iocb *iocb;
 
-       iocb = page_address(ctx->iocb_pages[index >> iocb_page_shift]);
+       /* iocb array starts offset one into the mapped range */
+       index++;
+       iocb = page_address(range->pages[index >> iocb_page_shift]);
        index &= ((1 << iocb_page_shift) - 1);
        return iocb + index;
 }
 
+static struct iocb *aio_sqring_from_index(struct kioctx *ctx, int index)
+{
+       struct aio_iocb_ring *ring;
+
+       ring = page_address(ctx->sq_ring.pages[0]);
+       return __aio_sqring_from_index(ring, &ctx->sq_ring, index);
+}
+
+static struct iocb *aio_iocb_from_index(struct kioctx *ctx, int index)
+{
+       struct iocb *iocb;
+
+       if (ctx->flags & IOCTX_FLAG_SCQRING) {
+               iocb = aio_sqring_from_index(ctx, index);
+       } else {
+               iocb = page_address(ctx->iocb_range.pages[index >> iocb_page_shift]);
+               index &= ((1 << iocb_page_shift) - 1);
+               iocb += index;
+       }
+
+       return iocb;
+}
+
 static void aio_iocb_buffer_unmap(struct kioctx *ctx)
 {
        int i, j;
@@ -1746,58 +1850,107 @@ err:
        return ret;
 }
 
-static void aio_useriocb_free(struct kioctx *ctx)
+static void aio_unmap_range(struct aio_mapped_range *range)
 {
        int i;
 
-       if (!ctx->iocb_nr_pages)
+       if (!range->nr_pages)
                return;
 
-       for (i = 0; i < ctx->iocb_nr_pages; i++)
-               put_page(ctx->iocb_pages[i]);
+       for (i = 0; i < range->nr_pages; i++)
+               put_page(range->pages[i]);
 
-       kfree(ctx->iocb_pages);
-       ctx->iocb_pages = NULL;
-       ctx->iocb_nr_pages = 0;
+       kfree(range->pages);
+       range->pages = NULL;
+       range->nr_pages = 0;
 }
 
-static int aio_useriocb_map(struct kioctx *ctx, struct iocb __user *iocbs)
+static int aio_map_range(struct aio_mapped_range *range, void __user *uaddr,
+                        size_t size, int gup_flags)
 {
        int nr_pages, ret;
 
-       if ((unsigned long) iocbs & ~PAGE_MASK)
+       if ((unsigned long) uaddr & ~PAGE_MASK)
                return -EINVAL;
 
-       nr_pages = sizeof(struct iocb) * ctx->max_reqs;
-       nr_pages = (nr_pages + PAGE_SIZE - 1) >> PAGE_SHIFT;
+       nr_pages = (size + PAGE_SIZE - 1) >> PAGE_SHIFT;
 
-       ctx->iocb_pages = kzalloc(nr_pages * sizeof(struct page *), GFP_KERNEL);
-       if (!ctx->iocb_pages)
+       range->pages = kzalloc(nr_pages * sizeof(struct page *), GFP_KERNEL);
+       if (!range->pages)
                return -ENOMEM;
 
        down_write(&current->mm->mmap_sem);
-       ret = get_user_pages((unsigned long) iocbs, nr_pages, 0,
-                               ctx->iocb_pages, NULL);
+       ret = get_user_pages((unsigned long) uaddr, nr_pages, gup_flags,
+                               range->pages, NULL);
        up_write(&current->mm->mmap_sem);
 
        if (ret < nr_pages) {
-               kfree(ctx->iocb_pages);
+               kfree(range->pages);
                return -ENOMEM;
        }
 
-       ctx->iocb_nr_pages = nr_pages;
+       range->nr_pages = nr_pages;
+       return 0;
+}
+
+static void aio_useriocb_unmap(struct kioctx *ctx)
+{
+       aio_unmap_range(&ctx->iocb_range);
+}
+
+static int aio_useriocb_map(struct kioctx *ctx, struct iocb __user *iocbs)
+{
+       size_t size = sizeof(struct iocb) * ctx->max_reqs;
+
+       return aio_map_range(&ctx->iocb_range, iocbs, size, 0);
+}
+
+static void aio_scqring_unmap(struct kioctx *ctx)
+{
+       aio_unmap_range(&ctx->sq_ring);
+       aio_unmap_range(&ctx->cq_ring);
+}
+
+static int aio_scqring_map(struct kioctx *ctx,
+                          struct aio_iocb_ring __user *sq_ring,
+                          struct aio_io_event_ring __user *cq_ring)
+{
+       struct aio_iocb_ring *ksq_ring;
+       struct aio_io_event_ring *kcq_ring;
+       size_t size;
+       int ret;
+
+       size = (1 + ctx->max_reqs) * sizeof(struct iocb);
+       ret = aio_map_range(&ctx->sq_ring, sq_ring, size, 0);
+       if (ret)
+               return ret;
+
+       size = (1 + ctx->max_reqs) * sizeof(struct io_event);
+       ret = aio_map_range(&ctx->cq_ring, cq_ring, size, FOLL_WRITE);
+       if (ret) {
+               aio_unmap_range(&ctx->sq_ring);
+               return ret;
+       }
+
+       ksq_ring = page_address(ctx->sq_ring.pages[0]);
+       ksq_ring->nr_events = ctx->max_reqs;
+       kcq_ring = page_address(ctx->cq_ring.pages[0]);
+       kcq_ring->nr_events = ctx->max_reqs;
        return 0;
 }
 
-SYSCALL_DEFINE4(io_setup2, u32, nr_events, u32, flags, struct iocb __user *,
-               iocbs, aio_context_t __user *, ctxp)
+SYSCALL_DEFINE6(io_setup2, u32, nr_events, u32, flags,
+               struct iocb __user *, iocbs,
+               struct aio_iocb_ring __user *, sq_ring,
+               struct aio_io_event_ring __user *, cq_ring,
+               aio_context_t __user *, ctxp)
 {
        struct kioctx *ioctx;
        unsigned long ctx;
        long ret;
 
        if (flags & ~(IOCTX_FLAG_USERIOCB | IOCTX_FLAG_IOPOLL |
-                     IOCTX_FLAG_FIXEDBUFS))
+                     IOCTX_FLAG_FIXEDBUFS | IOCTX_FLAG_SCQRING))
                return -EINVAL;
 
        ret = get_user(ctx, ctxp);
@@ -1810,18 +1963,26 @@ SYSCALL_DEFINE4(io_setup2, u32, nr_events, u32, flags, struct iocb __user *,
                goto out;
 
        if (flags & IOCTX_FLAG_USERIOCB) {
+               ret = -EINVAL;
+               if (flags & IOCTX_FLAG_SCQRING)
+                       goto err;
+
                ret = aio_useriocb_map(ioctx, iocbs);
                if (ret)
                        goto err;
-               if (flags & IOCTX_FLAG_FIXEDBUFS) {
-                       ret = aio_iocb_buffer_map(ioctx);
-                       if (ret)
-                               goto err;
-               }
-       } else if (flags & IOCTX_FLAG_FIXEDBUFS) {
-               /* can only support fixed bufs with user mapped iocbs */
+       }
+       if (flags & IOCTX_FLAG_SCQRING) {
+               ret = aio_scqring_map(ioctx, sq_ring, cq_ring);
+               if (ret)
+                       goto err;
+       }
+       if (flags & IOCTX_FLAG_FIXEDBUFS) {
                ret = -EINVAL;
-               goto err;
+               if (!(flags & (IOCTX_FLAG_USERIOCB | IOCTX_FLAG_SCQRING)))
+                       goto err;
+               ret = aio_iocb_buffer_map(ioctx);
+               if (ret)
+                       goto err;
        }
 
        ret = put_user(ioctx->user_id, ctxp);
@@ -2687,6 +2848,128 @@ static void aio_submit_state_start(struct aio_submit_state *state,
 #endif
 }
 
+static struct iocb *__aio_get_sqring(struct aio_iocb_ring *ring,
+                                    struct aio_mapped_range *range,
+                                    unsigned *next_head)
+{
+       unsigned head;
+
+       smp_rmb();
+       head = READ_ONCE(ring->head);
+       if (head == READ_ONCE(ring->tail))
+               return NULL;
+
+       *next_head = head + 1;
+       if (*next_head == ring->nr_events)
+               *next_head = 0;
+
+       return __aio_sqring_from_index(ring, range, head);
+}
+
+static void aio_commit_sqring(struct kioctx *ctx, unsigned next_head)
+{
+       struct aio_iocb_ring *ring;
+
+       ring = page_address(ctx->sq_ring.pages[0]);
+       if (ring->head != next_head) {
+               ring->head = next_head;
+               smp_wmb();
+       }
+}
+
+static const struct iocb *aio_peek_sqring(struct kioctx *ctx, unsigned *nhead)
+{
+       struct aio_iocb_ring *ring;
+
+       ring = page_address(ctx->sq_ring.pages[0]);
+       return __aio_get_sqring(ring, &ctx->sq_ring, nhead);
+}
+
+static int aio_ring_submit(struct kioctx *ctx, unsigned int to_submit)
+{
+       struct aio_submit_state state, *statep = NULL;
+       int i, ret = 0, submit = 0;
+
+       if (to_submit > AIO_PLUG_THRESHOLD) {
+               aio_submit_state_start(&state, ctx, to_submit);
+               statep = &state;
+       }
+
+       for (i = 0; i < to_submit; i++) {
+               const struct iocb *iocb;
+               unsigned int next_head;
+
+               iocb = aio_peek_sqring(ctx, &next_head);
+               if (!iocb)
+                       break;
+
+               ret = __io_submit_one(ctx, iocb, NULL, NULL, false, true);
+               if (ret)
+                       break;
+
+               submit++;
+               aio_commit_sqring(ctx, next_head);
+       }
+
+       if (statep)
+               aio_submit_state_end(statep);
+
+       return submit ? submit : ret;
+}
+
+static int __io_ring_enter(struct kioctx *ctx, unsigned int to_submit,
+                          unsigned int min_complete, unsigned int flags)
+{
+       int ret = 0;
+
+       if (flags & IORING_FLAG_SUBMIT) {
+               ret = aio_ring_submit(ctx, to_submit);
+               if (ret < 0)
+                       return ret;
+       }
+       if (flags & IORING_FLAG_GETEVENTS) {
+               unsigned int nr_events = 0;
+               int get_ret;
+
+               get_ret = __aio_iopoll_check(ctx, NULL, &nr_events,
+                                               min_complete, -1U);
+               if (get_ret < 0 && !ret)
+                       ret = get_ret;
+       }
+
+       return ret;
+}
+
+SYSCALL_DEFINE4(io_ring_enter, aio_context_t, ctx_id, u32, to_submit,
+               u32, min_complete, u32, flags)
+{
+       struct kioctx *ctx;
+       long ret;
+
+       BUILD_BUG_ON(sizeof(struct aio_iocb_ring) != sizeof(struct iocb));
+       BUILD_BUG_ON(sizeof(struct aio_io_event_ring) !=
+                       sizeof(struct io_event));
+
+       ctx = lookup_ioctx(ctx_id);
+       if (!ctx) {
+               pr_debug("EINVAL: invalid context id\n");
+               return -EINVAL;
+       }
+
+       ret = -EBUSY;
+       if (!mutex_trylock(&ctx->getevents_lock))
+               goto err;
+
+       ret = -EINVAL;
+       if (ctx->flags & IOCTX_FLAG_SCQRING)
+               ret = __io_ring_enter(ctx, to_submit, min_complete, flags);
+
+       mutex_unlock(&ctx->getevents_lock);
+err:
+       percpu_ref_put(&ctx->users);
+       return ret;
+}
+
 /* sys_io_submit:
  *     Queue the nr iocbs pointed to by iocbpp for processing.  Returns
  *     the number of iocbs queued.  May return -EINVAL if the aio_context
@@ -2716,6 +2999,10 @@ SYSCALL_DEFINE3(io_submit, aio_context_t, ctx_id, long, nr,
                return -EINVAL;
        }
 
+       /* SCQRING must use io_ring_enter() */
+       if (ctx->flags & IOCTX_FLAG_SCQRING)
+               return -EINVAL;
+
        if (nr > ctx->nr_events)
                nr = ctx->nr_events;
 
@@ -2867,7 +3154,10 @@ static long do_io_getevents(aio_context_t ctx_id,
        long ret = -EINVAL;
 
        if (likely(ioctx)) {
-               if (likely(min_nr <= nr && min_nr >= 0)) {
+               /* SCQRING must use io_ring_enter() */
+               if (ioctx->flags & IOCTX_FLAG_SCQRING)
+                       ret = -EINVAL;
+               else if (min_nr <= nr && min_nr >= 0) {
                        if (ioctx->flags & IOCTX_FLAG_IOPOLL)
                                ret = aio_iopoll_check(ioctx, min_nr, nr, events);
                        else
index b661e78717e66299729d0e7ab5bab6cfce9601c4..576725d00020ecaacb26ac0fcd9bdc6497cbe51c 100644 (file)
@@ -288,7 +288,10 @@ static inline void addr_limit_user_check(void)
 #ifndef CONFIG_ARCH_HAS_SYSCALL_WRAPPER
 asmlinkage long sys_io_setup(unsigned nr_reqs, aio_context_t __user *ctx);
 asmlinkage long sys_io_setup2(unsigned, unsigned, struct iocb __user *,
+                               struct aio_iocb_ring __user *,
+                               struct aio_io_event_ring __user *,
                                aio_context_t __user *);
+asmlinkage long sys_io_ring_enter(aio_context_t, unsigned, unsigned, unsigned);
 asmlinkage long sys_io_destroy(aio_context_t ctx);
 asmlinkage long sys_io_submit(aio_context_t, long,
                        struct iocb __user * __user *);
index 05d72cf86bd331e880af6d4e512de5796ca4cd79..9fb7d0ec868f569a70957ba84e6b28f43e7226f9 100644 (file)
@@ -111,6 +111,32 @@ struct iocb {
 #define IOCTX_FLAG_USERIOCB    (1 << 0)        /* iocbs are user mapped */
 #define IOCTX_FLAG_IOPOLL      (1 << 1)        /* io_context is polled */
 #define IOCTX_FLAG_FIXEDBUFS   (1 << 2)        /* IO buffers are fixed */
+#define IOCTX_FLAG_SCQRING     (1 << 3)        /* Use SQ/CQ rings */
+
+struct aio_iocb_ring {
+       union {
+               struct {
+                       u32 head, tail;
+                       u32 nr_events;
+               };
+               struct iocb pad_iocb;
+       };
+       struct iocb iocbs[0];
+};
+
+struct aio_io_event_ring {
+       union {
+               struct {
+                       u32 head, tail;
+                       u32 nr_events;
+               };
+               struct io_event pad_event;
+       };
+       struct io_event events[0];
+};
+
+#define IORING_FLAG_SUBMIT     (1 << 0)
+#define IORING_FLAG_GETEVENTS  (1 << 1)
 
 #undef IFBIG
 #undef IFLITTLE