Add support for queuing > 1 command at the time
[fio.git] / io_u.c
diff --git a/io_u.c b/io_u.c
index ebcc8bb283eb6a65e93db799cfe9e2f83993f85e..781599f48724c14530e81a0e6020c100fffd1a31 100644 (file)
--- a/io_u.c
+++ b/io_u.c
@@ -7,6 +7,15 @@
 #include "fio.h"
 #include "os.h"
 
+struct io_completion_data {
+       int nr;                         /* input */
+       endio_handler *handler;         /* input */
+
+       int error;                      /* output */
+       unsigned long bytes_done[2];    /* output */
+       struct timeval time;            /* output */
+};
+
 /*
  * The ->file_map[] contains a map of blocks we have or have not done io
  * to yet. Used to make sure we cover the entire range in a fair fashion.
@@ -190,6 +199,16 @@ void put_io_u(struct thread_data *td, struct io_u *io_u)
        td->cur_depth--;
 }
 
+void requeue_io_u(struct thread_data *td, struct io_u **io_u)
+{
+       struct io_u *__io_u = *io_u;
+
+       list_del(&__io_u->list);
+       list_add_tail(&__io_u->list, &td->io_u_requeues);
+       td->cur_depth--;
+       *io_u = NULL;
+}
+
 static int fill_io_u(struct thread_data *td, struct fio_file *f,
                     struct io_u *io_u)
 {
@@ -202,8 +221,8 @@ static int fill_io_u(struct thread_data *td, struct fio_file *f,
        /*
         * see if it's time to sync
         */
-       if (td->fsync_blocks && !(td->io_blocks[DDIR_WRITE] % td->fsync_blocks)
-           && should_fsync(td)) {
+       if (td->fsync_blocks && !(td->io_issues[DDIR_WRITE] % td->fsync_blocks)
+           && td->io_issues[DDIR_WRITE] && should_fsync(td)) {
                io_u->ddir = DDIR_SYNC;
                io_u->file = f;
                return 0;
@@ -301,12 +320,18 @@ struct io_u *__get_io_u(struct thread_data *td)
 {
        struct io_u *io_u = NULL;
 
-       if (!queue_full(td)) {
+       if (!list_empty(&td->io_u_requeues))
+               io_u = list_entry(td->io_u_requeues.next, struct io_u, list);
+       else if (!queue_full(td)) {
                io_u = list_entry(td->io_u_freelist.next, struct io_u, list);
 
                io_u->buflen = 0;
-               io_u->error = 0;
                io_u->resid = 0;
+               io_u->file = NULL;
+       }
+
+       if (io_u) {
+               io_u->error = 0;
                list_del(&io_u->list);
                list_add(&io_u->list, &td->io_u_busylist);
                td->cur_depth++;
@@ -328,6 +353,12 @@ struct io_u *get_io_u(struct thread_data *td, struct fio_file *f)
        if (!io_u)
                return NULL;
 
+       /*
+        * from a requeue, io_u already setup
+        */
+       if (io_u->file)
+               return io_u;
+
        if (td->zone_bytes >= td->zone_size) {
                td->zone_bytes = 0;
                f->last_pos += td->zone_skip;
@@ -374,8 +405,8 @@ struct io_u *get_io_u(struct thread_data *td, struct fio_file *f)
        return io_u;
 }
 
-void io_completed(struct thread_data *td, struct io_u *io_u,
-                 struct io_completion_data *icd)
+static void io_completed(struct thread_data *td, struct io_u *io_u,
+                        struct io_completion_data *icd)
 {
        unsigned long msec;
 
@@ -418,7 +449,8 @@ void io_completed(struct thread_data *td, struct io_u *io_u,
                icd->error = io_u->error;
 }
 
-void init_icd(struct io_completion_data *icd, icd_handler *handler, int nr)
+static void init_icd(struct io_completion_data *icd, endio_handler *handler,
+                    int nr)
 {
        fio_gettime(&icd->time, NULL);
 
@@ -429,7 +461,8 @@ void init_icd(struct io_completion_data *icd, icd_handler *handler, int nr)
        icd->bytes_done[0] = icd->bytes_done[1] = 0;
 }
 
-void ios_completed(struct thread_data *td, struct io_completion_data *icd)
+static void ios_completed(struct thread_data *td,
+                         struct io_completion_data *icd)
 {
        struct io_u *io_u;
        int i;
@@ -441,3 +474,51 @@ void ios_completed(struct thread_data *td, struct io_completion_data *icd)
                put_io_u(td, io_u);
        }
 }
+
+long io_u_sync_complete(struct thread_data *td, struct io_u *io_u,
+                       endio_handler *handler)
+{
+       struct io_completion_data icd;
+
+       init_icd(&icd, handler, 1);
+       io_completed(td, io_u, &icd);
+       put_io_u(td, io_u);
+
+       if (!icd.error)
+               return icd.bytes_done[0] + icd.bytes_done[1];
+
+       return -1;
+}
+
+long io_u_queued_complete(struct thread_data *td, int min_events,
+                         endio_handler *handler)
+
+{
+       struct timespec ts = { .tv_sec = 0, .tv_nsec = 0, };
+       struct timespec *tsp = NULL;
+       struct io_completion_data icd;
+       int ret;
+
+       if (min_events > 0) {
+               tsp = &ts;
+               ret = td_io_commit(td);
+               if (ret < 0) {
+                       td_verror(td, -ret);
+                       return ret;
+               }
+       }
+
+       ret = td_io_getevents(td, min_events, td->cur_depth, tsp);
+       if (ret < 0) {
+               td_verror(td, -ret);
+               return ret;
+       } else if (!ret)
+               return ret;
+
+       init_icd(&icd, handler, ret);
+       ios_completed(td, &icd);
+       if (!icd.error)
+               return icd.bytes_done[0] + icd.bytes_done[1];
+
+       return -1;
+}