One step closer to group reporting
[fio.git] / engines / syslet-rw.c
index 32697a88c25b64a281a794b77b1674d54ac20410..8ab217f40b407e0c628016d8794bd90ed5f1e6aa 100644 (file)
@@ -17,30 +17,33 @@ struct syslet_data {
        struct io_u **events;
        unsigned int nr_events;
        
+       struct async_head_user ahu;
        struct syslet_uatom **ring;
-       unsigned int ring_index;
+
+       struct syslet_uatom *head, *tail;
 };
 
-/*
- * Inspect the ring to see if we have completed events
- */
-static void fio_syslet_complete(struct thread_data *td)
+static void fio_syslet_complete_atom(struct thread_data *td,
+                                    struct syslet_uatom *atom)
 {
        struct syslet_data *sd = td->io_ops->data;
+       struct syslet_uatom *last;
+       struct io_u *io_u;
 
+       /*
+        * complete from the beginning of the sequence up to (and
+        * including) this atom
+        */
+       last = atom;
+       io_u = atom->private;
+       atom = io_u->req.head;
+
+       /*
+        * now complete in right order
+        */
        do {
-               struct syslet_uatom *atom;
-               struct io_u *io_u;
                long ret;
 
-               atom = sd->ring[sd->ring_index];
-               if (!atom)
-                       break;
-
-               sd->ring[sd->ring_index] = NULL;
-               if (++sd->ring_index == td->iodepth)
-                       sd->ring_index = 0;
-
                io_u = atom->private;
                ret = *atom->ret_ptr;
                if (ret > 0)
@@ -48,7 +51,37 @@ static void fio_syslet_complete(struct thread_data *td)
                else if (ret < 0)
                        io_u->error = ret;
 
+               assert(sd->nr_events < td->iodepth);
                sd->events[sd->nr_events++] = io_u;
+
+               if (atom == last)
+                       break;
+
+               atom = atom->next;
+       } while (1);
+
+       assert(!last->next);
+}
+
+/*
+ * Inspect the ring to see if we have completed events
+ */
+static void fio_syslet_complete(struct thread_data *td)
+{
+       struct syslet_data *sd = td->io_ops->data;
+
+       do {
+               struct syslet_uatom *atom;
+
+               atom = sd->ring[sd->ahu.user_ring_idx];
+               if (!atom)
+                       break;
+
+               sd->ring[sd->ahu.user_ring_idx] = NULL;
+               if (++sd->ahu.user_ring_idx == td->iodepth)
+                       sd->ahu.user_ring_idx = 0;
+
+               fio_syslet_complete_atom(td, atom);
        } while (1);
 }
 
@@ -57,7 +90,6 @@ static int fio_syslet_getevents(struct thread_data *td, int min,
                                struct timespec fio_unused *t)
 {
        struct syslet_data *sd = td->io_ops->data;
-       int get_events;
        long ret;
 
        do {
@@ -72,10 +104,9 @@ static int fio_syslet_getevents(struct thread_data *td, int min,
                /*
                 * OK, we need to wait for some events...
                 */
-               get_events = min - sd->nr_events;
-               ret = async_wait(get_events);
+               ret = async_wait(1, sd->ahu.user_ring_idx, &sd->ahu);
                if (ret < 0)
-                       return errno;
+                       return -errno;
        } while (1);
 
        ret = sd->nr_events;
@@ -112,7 +143,7 @@ static void init_atom(struct syslet_uatom *atom, int nr, void *arg0,
 static void fio_syslet_prep_sync(struct io_u *io_u, struct fio_file *f)
 {
        init_atom(&io_u->req.atom, __NR_fsync, &f->fd, NULL, NULL, NULL,
-                 &io_u->req.ret, SYSLET_STOP_ON_NEGATIVE, io_u);
+                 &io_u->req.ret, 0, io_u);
 }
 
 static void fio_syslet_prep_rw(struct io_u *io_u, struct fio_file *f)
@@ -128,8 +159,7 @@ static void fio_syslet_prep_rw(struct io_u *io_u, struct fio_file *f)
                nr = __NR_pwrite64;
 
        init_atom(&io_u->req.atom, nr, &f->fd, &io_u->xfer_buf,
-                 &io_u->xfer_buflen, &io_u->offset, &io_u->req.ret,
-                 SYSLET_STOP_ON_NEGATIVE, io_u);
+                 &io_u->xfer_buflen, &io_u->offset, &io_u->req.ret, 0, io_u);
 }
 
 static int fio_syslet_prep(struct thread_data fio_unused *td, struct io_u *io_u)
@@ -144,71 +174,102 @@ static int fio_syslet_prep(struct thread_data fio_unused *td, struct io_u *io_u)
        return 0;
 }
 
-static int fio_syslet_queue(struct thread_data *td, struct io_u *io_u)
+static void cachemiss_thread_start(void)
+{
+       while (1)
+               async_thread(NULL, NULL);
+}
+
+#define THREAD_STACK_SIZE (16384)
+
+static unsigned long thread_stack_alloc()
+{
+       return (unsigned long) malloc(THREAD_STACK_SIZE) + THREAD_STACK_SIZE;
+}
+
+static void fio_syslet_queued(struct thread_data *td, struct syslet_data *sd)
+{
+       struct syslet_uatom *atom;
+       struct timeval now;
+
+       fio_gettime(&now, NULL);
+
+       atom = sd->head;
+       while (atom) {
+               struct io_u *io_u = atom->private;
+
+               memcpy(&io_u->issue_time, &now, sizeof(now));
+               io_u_queued(td, io_u);
+               atom = atom->next;
+       }
+}
+
+static int fio_syslet_commit(struct thread_data *td)
 {
        struct syslet_data *sd = td->io_ops->data;
        struct syslet_uatom *done;
-       long ret;
 
-       done = async_exec(&io_u->req.atom);
-       if (!done)
+       if (!sd->head)
                return 0;
 
+       assert(!sd->tail->next);
+
+       if (!sd->ahu.new_thread_stack)
+               sd->ahu.new_thread_stack = thread_stack_alloc();
+
+       fio_syslet_queued(td, sd);
+
        /*
-        * completed sync
+        * On sync completion, the atom is returned. So on NULL return
+        * it's queued asynchronously.
         */
-       ret = io_u->req.ret;
-       if (ret != (long) io_u->xfer_buflen) {
-               if (ret > 0) {
-                       io_u->resid = io_u->xfer_buflen - ret;
-                       io_u->error = 0;
-                       return ret;
-               } else
-                       io_u->error = errno;
-       }
+       done = async_exec(sd->head, &sd->ahu);
 
-       if (!io_u->error)
-               sd->events[sd->nr_events++] = io_u;
-       else
-               td_verror(td, io_u->error);
+       sd->head = sd->tail = NULL;
+
+       if (done)
+               fio_syslet_complete_atom(td, done);
 
-       return io_u->error;
+       return 0;
+}
+
+static int fio_syslet_queue(struct thread_data *td, struct io_u *io_u)
+{
+       struct syslet_data *sd = td->io_ops->data;
+
+       if (sd->tail) {
+               sd->tail->next = &io_u->req.atom;
+               sd->tail = &io_u->req.atom;
+       } else
+               sd->head = sd->tail = &io_u->req.atom;
+
+       io_u->req.head = sd->head;
+       return FIO_Q_QUEUED;
 }
 
 static int async_head_init(struct syslet_data *sd, unsigned int depth)
 {
-       struct async_head_user ahu;
        unsigned long ring_size;
 
+       memset(&sd->ahu, 0, sizeof(struct async_head_user));
+
        ring_size = sizeof(struct syslet_uatom *) * depth;
        sd->ring = malloc(ring_size);
        memset(sd->ring, 0, ring_size);
 
-       memset(&ahu, 0, sizeof(ahu));
-       ahu.completion_ring = sd->ring;
-       ahu.ring_size_bytes = ring_size;
-       ahu.max_nr_threads = -1;
-
-       if (async_register(&ahu, sizeof(ahu)) < 0) {
-               perror("async_register");
-               fprintf(stderr, "fio: syslet likely not supported\n");
-               free(sd->ring);
-               return 1;
-       }
+       sd->ahu.user_ring_idx = 0;
+       sd->ahu.completion_ring = sd->ring;
+       sd->ahu.ring_size_bytes = ring_size;
+       sd->ahu.head_stack = thread_stack_alloc();
+       sd->ahu.head_eip = (unsigned long) cachemiss_thread_start;
+       sd->ahu.new_thread_eip = (unsigned long) cachemiss_thread_start;
 
        return 0;
 }
 
-static void async_head_exit(struct syslet_data *sd, unsigned int depth)
+static void async_head_exit(struct syslet_data *sd)
 {
-       struct async_head_user ahu;
-
-       memset(&ahu, 0, sizeof(ahu));
-       ahu.completion_ring = sd->ring;
-       ahu.ring_size_bytes = sizeof(struct syslet_uatom *) * depth;
-
-       if (async_unregister(&ahu, sizeof(ahu)) < 0)
-               perror("async_register");
+       free(sd->ring);
 }
 
 static void fio_syslet_cleanup(struct thread_data *td)
@@ -216,7 +277,7 @@ static void fio_syslet_cleanup(struct thread_data *td)
        struct syslet_data *sd = td->io_ops->data;
 
        if (sd) {
-               async_head_exit(sd, td->iodepth);
+               async_head_exit(sd);
                free(sd->events);
                free(sd);
                td->io_ops->data = NULL;
@@ -252,6 +313,7 @@ static struct ioengine_ops ioengine = {
        .init           = fio_syslet_init,
        .prep           = fio_syslet_prep,
        .queue          = fio_syslet_queue,
+       .commit         = fio_syslet_commit,
        .getevents      = fio_syslet_getevents,
        .event          = fio_syslet_event,
        .cleanup        = fio_syslet_cleanup,