io_uring/sqpoll: use the correct check for pending task_work
authorJens Axboe <axboe@kernel.dk>
Wed, 14 Feb 2024 20:57:20 +0000 (13:57 -0700)
committerJens Axboe <axboe@kernel.dk>
Wed, 14 Feb 2024 20:57:20 +0000 (13:57 -0700)
A previous commit moved to using just the private task_work list for
SQPOLL, but it neglected to update the check for whether we have
pending task_work. Normally this is fine as we'll attempt to run it
unconditionally, but if we race with going to sleep AND task_work
being added, then we certainly need the right check here.

Fixes: af5d68f8892f ("io_uring/sqpoll: manage task_work privately")
Signed-off-by: Jens Axboe <axboe@kernel.dk>
io_uring/sqpoll.c

index f3979cacda13b33ead306946a28271c91b42456b..82672eaaee8111be096259234d4baf71b5a3c4e4 100644 (file)
@@ -246,6 +246,13 @@ static unsigned int io_sq_tw(struct llist_node **retry_list, int max_entries)
        return count;
 }
 
+static bool io_sq_tw_pending(struct llist_node *retry_list)
+{
+       struct io_uring_task *tctx = current->io_uring;
+
+       return retry_list || !llist_empty(&tctx->task_list);
+}
+
 static int io_sq_thread(void *data)
 {
        struct llist_node *retry_list = NULL;
@@ -301,7 +308,7 @@ static int io_sq_thread(void *data)
                }
 
                prepare_to_wait(&sqd->wait, &wait, TASK_INTERRUPTIBLE);
-               if (!io_sqd_events_pending(sqd) && !task_work_pending(current)) {
+               if (!io_sqd_events_pending(sqd) && !io_sq_tw_pending(retry_list)) {
                        bool needs_sched = true;
 
                        list_for_each_entry(ctx, &sqd->ctx_list, sqd_list) {