Move the iodepth_batch into td_io_queue() instead
[fio.git] / ioengines.c
index ab5b2245131fb1abb5d2e6b51a94227522e78991..14b15ccd7468e6646a03b962095a97fb55cff74a 100644 (file)
@@ -14,6 +14,7 @@
 #include <unistd.h>
 #include <string.h>
 #include <dlfcn.h>
+#include <assert.h>
 
 #include "fio.h"
 #include "os.h"
@@ -101,7 +102,7 @@ static struct ioengine_ops *dlopen_ioengine(struct thread_data *td,
        dlerror();
        dlhandle = dlopen(engine_lib, RTLD_LAZY);
        if (!dlhandle) {
-               td_vmsg(td, -1, dlerror());
+               td_vmsg(td, -1, dlerror(), "dlopen");
                return NULL;
        }
 
@@ -111,7 +112,7 @@ static struct ioengine_ops *dlopen_ioengine(struct thread_data *td,
         */
        ops = dlsym(dlhandle, "ioengine");
        if (!ops) {
-               td_vmsg(td, -1, dlerror());
+               td_vmsg(td, -1, dlerror(), "dlsym");
                dlclose(dlhandle);
                return NULL;
        }
@@ -163,7 +164,10 @@ void close_ioengine(struct thread_data *td)
        if (td->io_ops->dlhandle)
                dlclose(td->io_ops->dlhandle);
 
+#if 0
+       /* we can't do this for threads, so just leak it, it's exiting */
        free(td->io_ops);
+#endif
        td->io_ops = NULL;
 }
 
@@ -178,6 +182,12 @@ int td_io_prep(struct thread_data *td, struct io_u *io_u)
 int td_io_getevents(struct thread_data *td, int min, int max,
                    struct timespec *t)
 {
+       if (min > 0 && td->io_ops->commit) {
+               int r = td->io_ops->commit(td);
+
+               if (r < 0)
+                       return r;
+       }
        if (td->io_ops->getevents)
                return td->io_ops->getevents(td, min, max, t);
 
@@ -188,17 +198,46 @@ int td_io_queue(struct thread_data *td, struct io_u *io_u)
 {
        int ret;
 
-       if (td->io_ops->flags & FIO_SYNCIO)
+       assert((io_u->flags & IO_U_F_FLIGHT) == 0);
+       io_u->flags |= IO_U_F_FLIGHT;
+
+       if (td->io_ops->flags & FIO_SYNCIO) {
                fio_gettime(&io_u->issue_time, NULL);
 
+               /*
+                * for a sync engine, set the timeout upfront
+                */
+               if (mtime_since(&td->timeout_end, &io_u->issue_time) < IO_U_TIMEOUT)
+                       io_u_set_timeout(td);
+       }
+
        if (io_u->ddir != DDIR_SYNC)
                td->io_issues[io_u->ddir]++;
 
        ret = td->io_ops->queue(td, io_u);
 
-       if ((td->io_ops->flags & FIO_SYNCIO) == 0)
+       if (ret == FIO_Q_QUEUED) {
+               int r;
+
+               td->io_u_queued++;
+               if (td->io_u_queued > td->iodepth_batch) {
+                       r = td_io_commit(td);
+                       if (r < 0)
+                               return r;
+               }
+       }
+
+       if ((td->io_ops->flags & FIO_SYNCIO) == 0) {
                fio_gettime(&io_u->issue_time, NULL);
 
+               /*
+                * async engine, set the timeout here
+                */
+               if (ret == FIO_Q_QUEUED &&
+                   mtime_since(&td->timeout_end, &io_u->issue_time) < IO_U_TIMEOUT)
+                       io_u_set_timeout(td);
+       }
+
        return ret;
 }
 
@@ -212,6 +251,10 @@ int td_io_init(struct thread_data *td)
 
 int td_io_commit(struct thread_data *td)
 {
+       if (!td->cur_depth)
+               return 0;
+
+       td->io_u_queued = 0;
        if (td->io_ops->commit)
                return td->io_ops->commit(td);