Inc block in mark_random_map()
[fio.git] / io_u.c
diff --git a/io_u.c b/io_u.c
index 92cdd71701a9df3973eb4158b0a8fcb6bab4eed5..c33dddf66f7c1337ed9157ffe5ad52628703945d 100644 (file)
--- a/io_u.c
+++ b/io_u.c
@@ -6,6 +6,7 @@
 #include <assert.h>
 
 #include "fio.h"
+#include "hash.h"
 
 /*
  * Change this define to play with the timeout handling
@@ -31,7 +32,7 @@ static int random_map_free(struct fio_file *f, const unsigned long long block)
 
        dprint(FD_RANDOM, "free: b=%llu, idx=%u, bit=%u\n", block, idx, bit);
 
-       return (f->file_map[idx] & (1UL << bit)) == 0;
+       return (f->file_map[idx] & (1 << bit)) == 0;
 }
 
 /*
@@ -42,14 +43,14 @@ static void mark_random_map(struct thread_data *td, struct io_u *io_u)
        unsigned int min_bs = td->o.rw_min_bs;
        struct fio_file *f = io_u->file;
        unsigned long long block;
-       unsigned int blocks;
-       unsigned int nr_blocks;
+       unsigned int blocks, nr_blocks;
 
        block = (io_u->offset - f->file_offset) / (unsigned long long) min_bs;
-       blocks = 0;
        nr_blocks = (io_u->buflen + min_bs - 1) / min_bs;
+       blocks = 0;
 
-       while (blocks < nr_blocks) {
+       while (nr_blocks) {
+               unsigned int this_blocks, mask;
                unsigned int idx, bit;
 
                /*
@@ -64,22 +65,40 @@ static void mark_random_map(struct thread_data *td, struct io_u *io_u)
 
                fio_assert(td, idx < f->num_maps);
 
-               f->file_map[idx] |= (1UL << bit);
-               block++;
-               blocks++;
+               this_blocks = nr_blocks;
+               if (this_blocks + bit > BLOCKS_PER_MAP)
+                       this_blocks = BLOCKS_PER_MAP - bit;
+
+               if (this_blocks == BLOCKS_PER_MAP)
+                       mask = -1U;
+               else
+                       mask = ((1U << this_blocks) - 1) << bit;
+
+               fio_assert(td, !(f->file_map[idx] & mask));
+               f->file_map[idx] |= mask;
+               nr_blocks -= this_blocks;
+               blocks += this_blocks;
+               block += this_blocks;
        }
 
        if ((blocks * min_bs) < io_u->buflen)
                io_u->buflen = blocks * min_bs;
 }
 
-static inline unsigned long long last_block(struct thread_data *td,
-                                           struct fio_file *f,
-                                           enum fio_ddir ddir)
+static unsigned long long last_block(struct thread_data *td, struct fio_file *f,
+                                    enum fio_ddir ddir)
 {
        unsigned long long max_blocks;
+       unsigned long long max_size;
 
-       max_blocks = f->io_size / (unsigned long long) td->o.min_bs[ddir];
+       /*
+        * Hmm, should we make sure that ->io_size <= ->real_file_size?
+        */
+       max_size = f->io_size;
+       if (max_size > f->real_file_size)
+               max_size = f->real_file_size;
+
+       max_blocks = max_size / (unsigned long long) td->o.min_bs[ddir];
        if (!max_blocks)
                return 0;
 
@@ -98,8 +117,8 @@ static int get_next_free_block(struct thread_data *td, struct fio_file *f,
        i = f->last_free_lookup;
        *b = (i * BLOCKS_PER_MAP);
        while ((*b) * min_bs < f->real_file_size) {
-               if (f->file_map[i] != -1UL) {
-                       *b += fio_ffz(f->file_map[i]);
+               if (f->file_map[i] != (unsigned int) -1) {
+                       *b += ffz(f->file_map[i]);
                        if (*b > last_block(td, f, ddir))
                                break;
                        f->last_free_lookup = i;
@@ -208,7 +227,7 @@ static int get_next_offset(struct thread_data *td, struct io_u *io_u)
 static unsigned int get_next_buflen(struct thread_data *td, struct io_u *io_u)
 {
        const int ddir = io_u->ddir;
-       unsigned int buflen;
+       unsigned int buflen = buflen; /* silence dumb gcc warning */
        long r;
 
        if (td->o.min_bs[ddir] == td->o.max_bs[ddir])
@@ -249,7 +268,6 @@ static unsigned int get_next_buflen(struct thread_data *td, struct io_u *io_u)
 
 static void set_rwmix_bytes(struct thread_data *td)
 {
-       unsigned long issues;
        unsigned int diff;
 
        /*
@@ -257,11 +275,8 @@ static void set_rwmix_bytes(struct thread_data *td)
         * buffered writes may issue a lot quicker than they complete,
         * whereas reads do not.
         */
-       issues = td->io_issues[td->rwmix_ddir] - td->rwmix_issues;
        diff = td->o.rwmix[td->rwmix_ddir ^ 1];
-
-       td->rwmix_issues = td->io_issues[td->rwmix_ddir]
-                               + (issues * ((100 - diff)) / diff);
+       td->rwmix_issues = (td->io_issues[td->rwmix_ddir] * diff) / 100;
 }
 
 static inline enum fio_ddir get_rand_ddir(struct thread_data *td)
@@ -271,7 +286,7 @@ static inline enum fio_ddir get_rand_ddir(struct thread_data *td)
 
        r = os_random_long(&td->rwmix_state);
        v = 1 + (int) (100.0 * (r / (RAND_MAX + 1.0)));
-       if (v < td->o.rwmix[DDIR_READ])
+       if (v <= td->o.rwmix[DDIR_READ])
                return DDIR_READ;
 
        return DDIR_WRITE;
@@ -345,6 +360,8 @@ void requeue_io_u(struct thread_data *td, struct io_u **io_u)
 {
        struct io_u *__io_u = *io_u;
 
+       dprint(FD_IO, "requeue %p\n", __io_u);
+
        __io_u->flags |= IO_U_F_FREE;
        if ((__io_u->flags & IO_U_F_FLIGHT) && (__io_u->ddir != DDIR_SYNC))
                td->io_issues[__io_u->ddir]--;
@@ -421,6 +438,47 @@ out:
        return 0;
 }
 
+static void __io_u_mark_map(unsigned int *map, unsigned int nr)
+{
+       int index = 0;
+
+       switch (nr) {
+       default:
+               index = 6;
+               break;
+       case 33 ... 64:
+               index = 5;
+               break;
+       case 17 ... 32:
+               index = 4;
+               break;
+       case 9 ... 16:
+               index = 3;
+               break;
+       case 5 ... 8:
+               index = 2;
+               break;
+       case 1 ... 4:
+               index = 1;
+       case 0:
+               break;
+       }
+
+       map[index]++;
+}
+
+void io_u_mark_submit(struct thread_data *td, unsigned int nr)
+{
+       __io_u_mark_map(td->ts.io_u_submit, nr);
+       td->ts.total_submit++;
+}
+
+void io_u_mark_complete(struct thread_data *td, unsigned int nr)
+{
+       __io_u_mark_map(td->ts.io_u_complete, nr);
+       td->ts.total_complete++;
+}
+
 void io_u_mark_depth(struct thread_data *td, unsigned int nr)
 {
        int index = 0;
@@ -772,6 +830,8 @@ struct io_u *get_io_u(struct thread_data *td)
 
                if (td->o.verify != VERIFY_NONE)
                        populate_verify_io_u(td, io_u);
+               else if (td->o.refill_buffers && io_u->ddir == DDIR_WRITE)
+                       io_u_fill_buffer(td, io_u, io_u->xfer_buflen);
        }
 
        /*
@@ -780,6 +840,7 @@ struct io_u *get_io_u(struct thread_data *td)
        io_u->endpos = io_u->offset + io_u->buflen;
        io_u->xfer_buf = io_u->buf;
        io_u->xfer_buflen = io_u->buflen;
+
 out:
        if (!td_io_prep(td, io_u)) {
                fio_gettime(&io_u->start_time, NULL);
@@ -943,6 +1004,23 @@ void io_u_queued(struct thread_data *td, struct io_u *io_u)
        add_slat_sample(td, io_u->ddir, slat_time);
 }
 
+/*
+ * "randomly" fill the buffer contents
+ */
+void io_u_fill_buffer(struct thread_data *td, struct io_u *io_u,
+                     unsigned int max_bs)
+{
+       long *ptr = io_u->buf;
+
+       if (!td->o.zero_buffers) {
+               while ((void *) ptr - io_u->buf < max_bs) {
+                       *ptr = rand() * GOLDEN_RATIO_PRIME;
+                       ptr++;
+               }
+       } else
+               memset(ptr, 0, max_bs);
+}
+
 #ifdef FIO_USE_TIMEOUT
 void io_u_set_timeout(struct thread_data *td)
 {