io_u: ensure to invalidate cache on time_based random reads
[fio.git] / io_u.c
diff --git a/io_u.c b/io_u.c
index a37b723e7f03124c48508b26cc64bd8786d37a6c..945aa19288bdc333c0d7a5e6087c54813ea420d3 100644 (file)
--- a/io_u.c
+++ b/io_u.c
@@ -1,12 +1,8 @@
 #include <unistd.h>
-#include <fcntl.h>
 #include <string.h>
-#include <signal.h>
-#include <time.h>
 #include <assert.h>
 
 #include "fio.h"
-#include "hash.h"
 #include "verify.h"
 #include "trim.h"
 #include "lib/rand.h"
@@ -81,11 +77,6 @@ static uint64_t last_block(struct thread_data *td, struct fio_file *f,
        return max_blocks;
 }
 
-struct rand_off {
-       struct flist_head list;
-       uint64_t off;
-};
-
 static int __get_next_rand_offset(struct thread_data *td, struct fio_file *f,
                                  enum fio_ddir ddir, uint64_t *b,
                                  uint64_t lastb)
@@ -276,16 +267,8 @@ bail:
        return 0;
 }
 
-static int flist_cmp(void *data, struct flist_head *a, struct flist_head *b)
-{
-       struct rand_off *r1 = flist_entry(a, struct rand_off, list);
-       struct rand_off *r2 = flist_entry(b, struct rand_off, list);
-
-       return r1->off - r2->off;
-}
-
-static int get_off_from_method(struct thread_data *td, struct fio_file *f,
-                              enum fio_ddir ddir, uint64_t *b)
+static int get_next_rand_offset(struct thread_data *td, struct fio_file *f,
+                               enum fio_ddir ddir, uint64_t *b)
 {
        if (td->o.random_distribution == FIO_RAND_DIST_RANDOM) {
                uint64_t lastb;
@@ -310,25 +293,6 @@ static int get_off_from_method(struct thread_data *td, struct fio_file *f,
        return 1;
 }
 
-/*
- * Sort the reads for a verify phase in batches of verifysort_nr, if
- * specified.
- */
-static inline bool should_sort_io(struct thread_data *td)
-{
-       if (!td->o.verifysort_nr || !td->o.do_verify)
-               return false;
-       if (!td_random(td))
-               return false;
-       if (td->runstate != TD_VERIFYING)
-               return false;
-       if (td->o.random_generator == FIO_RAND_GEN_TAUSWORTHE ||
-           td->o.random_generator == FIO_RAND_GEN_TAUSWORTHE64)
-               return false;
-
-       return true;
-}
-
 static bool should_do_random(struct thread_data *td, enum fio_ddir ddir)
 {
        unsigned int v;
@@ -341,44 +305,6 @@ static bool should_do_random(struct thread_data *td, enum fio_ddir ddir)
        return v <= td->o.perc_rand[ddir];
 }
 
-static int get_next_rand_offset(struct thread_data *td, struct fio_file *f,
-                               enum fio_ddir ddir, uint64_t *b)
-{
-       struct rand_off *r;
-       int i, ret = 1;
-
-       if (!should_sort_io(td))
-               return get_off_from_method(td, f, ddir, b);
-
-       if (!flist_empty(&td->next_rand_list)) {
-fetch:
-               r = flist_first_entry(&td->next_rand_list, struct rand_off, list);
-               flist_del(&r->list);
-               *b = r->off;
-               free(r);
-               return 0;
-       }
-
-       for (i = 0; i < td->o.verifysort_nr; i++) {
-               r = malloc(sizeof(*r));
-
-               ret = get_off_from_method(td, f, ddir, &r->off);
-               if (ret) {
-                       free(r);
-                       break;
-               }
-
-               flist_add(&r->list, &td->next_rand_list);
-       }
-
-       if (ret && !i)
-               return ret;
-
-       assert(!flist_empty(&td->next_rand_list));
-       flist_sort(NULL, &td->next_rand_list, flist_cmp);
-       goto fetch;
-}
-
 static void loop_cache_invalidate(struct thread_data *td, struct fio_file *f)
 {
        struct thread_options *o = &td->o;
@@ -399,9 +325,9 @@ static int get_next_rand_block(struct thread_data *td, struct fio_file *f,
        if (td->o.time_based ||
            (td->o.file_service_type & __FIO_FSERVICE_NONUNIFORM)) {
                fio_file_reset(td, f);
+               loop_cache_invalidate(td, f);
                if (!get_next_rand_offset(td, f, ddir, b))
                        return 0;
-               loop_cache_invalidate(td, f);
        }
 
        dprint(FD_IO, "%s: rand offset failed, last=%llu, size=%llu\n",
@@ -430,7 +356,11 @@ static int get_next_seq_offset(struct thread_data *td, struct fio_file *f,
        if (f->last_pos[ddir] < f->real_file_size) {
                uint64_t pos;
 
-               if (f->last_pos[ddir] == f->file_offset && o->ddir_seq_add < 0) {
+               /*
+                * Only rewind if we already hit the end
+                */
+               if (f->last_pos[ddir] == f->file_offset &&
+                   f->file_offset && o->ddir_seq_add < 0) {
                        if (f->real_file_size > f->io_size)
                                f->last_pos[ddir] = f->io_size;
                        else
@@ -680,11 +610,8 @@ int io_u_quiesce(struct thread_data *td)
         * io's that have been actually submitted to an async engine,
         * and cur_depth is meaningless for sync engines.
         */
-       if (td->io_u_queued || td->cur_depth) {
-               int fio_unused ret;
-
-               ret = td_io_commit(td);
-       }
+       if (td->io_u_queued || td->cur_depth)
+               td_io_commit(td);
 
        while (td->io_u_in_flight) {
                int ret;
@@ -852,8 +779,8 @@ void put_io_u(struct thread_data *td, struct io_u *io_u)
                assert(!(td->flags & TD_F_CHILD));
        }
        io_u_qpush(&td->io_u_freelist, io_u);
-       td_io_u_unlock(td);
        td_io_u_free_notify(td);
+       td_io_u_unlock(td);
 }
 
 void clear_io_u(struct thread_data *td, struct io_u *io_u)
@@ -885,8 +812,8 @@ void requeue_io_u(struct thread_data *td, struct io_u **io_u)
        }
 
        io_u_rpush(&td->io_u_requeues, __io_u);
-       td_io_u_unlock(td);
        td_io_u_free_notify(td);
+       td_io_u_unlock(td);
        *io_u = NULL;
 }
 
@@ -1554,6 +1481,7 @@ bool queue_full(const struct thread_data *td)
 struct io_u *__get_io_u(struct thread_data *td)
 {
        struct io_u *io_u = NULL;
+       int ret;
 
        if (td->stop_io)
                return NULL;
@@ -1590,7 +1518,8 @@ again:
                 * return one
                 */
                assert(!(td->flags & TD_F_CHILD));
-               assert(!pthread_cond_wait(&td->free_cond, &td->io_u_lock));
+               ret = pthread_cond_wait(&td->free_cond, &td->io_u_lock);
+               assert(ret == 0);
                goto again;
        }
 
@@ -1697,7 +1626,7 @@ static void small_content_scramble(struct io_u *io_u)
 
 /*
  * Return an io_u to be processed. Gets a buflen and offset, sets direction,
- * etc. The returned io_u is fully ready to be prepped and submitted.
+ * etc. The returned io_u is fully ready to be prepped, populated and submitted.
  */
 struct io_u *get_io_u(struct thread_data *td)
 {
@@ -1758,12 +1687,9 @@ struct io_u *get_io_u(struct thread_data *td)
                                        td->o.min_bs[DDIR_WRITE],
                                        io_u->buflen);
                        } else if ((td->flags & TD_F_SCRAMBLE_BUFFERS) &&
-                                  !(td->flags & TD_F_COMPRESS))
+                                  !(td->flags & TD_F_COMPRESS) &&
+                                  !(td->flags & TD_F_DO_VERIFY))
                                do_scramble = 1;
-                       if (td->flags & TD_F_VER_NONE) {
-                               populate_verify_io_u(td, io_u);
-                               do_scramble = 0;
-                       }
                } else if (io_u->ddir == DDIR_READ) {
                        /*
                         * Reset the buf_filled parameters so next time if the