io_uring: move defer tw task checks
authorPavel Begunkov <asml.silence@gmail.com>
Thu, 5 Jan 2023 11:22:23 +0000 (11:22 +0000)
committerJens Axboe <axboe@kernel.dk>
Sun, 29 Jan 2023 22:17:39 +0000 (15:17 -0700)
Most places that want to run local tw explicitly and in advance check if
they are allowed to do so. Don't rely on a similar check in
__io_run_local_work(), leave it as a just-in-case warning and make sure
callers checks capabilities themselves.

Signed-off-by: Pavel Begunkov <asml.silence@gmail.com>
Link: https://lore.kernel.org/r/990fe0e8e70fd4d57e43625e5ce8fba584821d1a.1672916894.git.asml.silence@gmail.com
Signed-off-by: Jens Axboe <axboe@kernel.dk>
io_uring/io_uring.c
io_uring/io_uring.h

index 5326e2d94055e7c3b2169fbd1055b3f0161e3702..97b749203ba8ae8219551fad98e18bc3baf14c77 100644 (file)
@@ -1301,14 +1301,13 @@ int __io_run_local_work(struct io_ring_ctx *ctx, bool *locked)
        struct llist_node *node;
        struct llist_node fake;
        struct llist_node *current_final = NULL;
-       int ret;
+       int ret = 0;
        unsigned int loops = 1;
 
-       if (unlikely(ctx->submitter_task != current))
+       if (WARN_ON_ONCE(ctx->submitter_task != current))
                return -EEXIST;
 
        node = io_llist_xchg(&ctx->work_llist, &fake);
-       ret = 0;
 again:
        while (node != current_final) {
                struct llist_node *next = node->next;
@@ -2514,11 +2513,8 @@ static int io_cqring_wait(struct io_ring_ctx *ctx, int min_events,
 
        if (!io_allowed_run_tw(ctx))
                return -EEXIST;
-       if (!llist_empty(&ctx->work_llist)) {
-               ret = io_run_local_work(ctx);
-               if (ret < 0)
-                       return ret;
-       }
+       if (!llist_empty(&ctx->work_llist))
+               io_run_local_work(ctx);
        io_run_task_work();
        io_cqring_overflow_flush(ctx);
        /* if user messes with these they will just get an early return */
@@ -3055,7 +3051,8 @@ static __cold bool io_uring_try_cancel_requests(struct io_ring_ctx *ctx,
                }
        }
 
-       if (ctx->flags & IORING_SETUP_DEFER_TASKRUN)
+       if ((ctx->flags & IORING_SETUP_DEFER_TASKRUN) &&
+           io_allowed_defer_tw_run(ctx))
                ret |= io_run_local_work(ctx) > 0;
        ret |= io_cancel_defer_files(ctx, task, cancel_all);
        mutex_lock(&ctx->uring_lock);
index 9d36271eb6d3939f9c8f868184551ebedbb49772..011932935c362da5b700f35a761249042d272280 100644 (file)
@@ -367,6 +367,11 @@ static inline struct io_kiocb *io_alloc_req(struct io_ring_ctx *ctx)
        return container_of(node, struct io_kiocb, comp_list);
 }
 
+static inline bool io_allowed_defer_tw_run(struct io_ring_ctx *ctx)
+{
+       return likely(ctx->submitter_task == current);
+}
+
 static inline bool io_allowed_run_tw(struct io_ring_ctx *ctx)
 {
        return likely(!(ctx->flags & IORING_SETUP_DEFER_TASKRUN) ||