Do at least one block if randommap fails us
[fio.git] / io_u.c
diff --git a/io_u.c b/io_u.c
index c3939b32ad0df0f101fa24d0bdfef6ebe716c0ff..927e161177d97ead31a03c44f436086ea5103f06 100644 (file)
--- a/io_u.c
+++ b/io_u.c
@@ -32,7 +32,7 @@ static int random_map_free(struct fio_file *f, const unsigned long long block)
 
        dprint(FD_RANDOM, "free: b=%llu, idx=%u, bit=%u\n", block, idx, bit);
 
-       return (f->file_map[idx] & (1UL << bit)) == 0;
+       return (f->file_map[idx] & (1 << bit)) == 0;
 }
 
 /*
@@ -43,40 +43,53 @@ static void mark_random_map(struct thread_data *td, struct io_u *io_u)
        unsigned int min_bs = td->o.rw_min_bs;
        struct fio_file *f = io_u->file;
        unsigned long long block;
-       unsigned int blocks;
-       unsigned int nr_blocks;
+       unsigned int blocks, nr_blocks;
 
        block = (io_u->offset - f->file_offset) / (unsigned long long) min_bs;
-       blocks = 0;
        nr_blocks = (io_u->buflen + min_bs - 1) / min_bs;
+       blocks = 0;
 
-       while (blocks < nr_blocks) {
+       while (nr_blocks) {
+               unsigned int this_blocks, mask;
                unsigned int idx, bit;
 
                /*
                 * If we have a mixed random workload, we may
                 * encounter blocks we already did IO to.
                 */
-               if ((td->o.ddir_nr == 1) && !random_map_free(f, block))
+               if ((td->o.ddir_nr == 1) && !random_map_free(f, block)) {
+                       if (!blocks)
+                               blocks = 1;
                        break;
+               }
 
                idx = RAND_MAP_IDX(f, block);
                bit = RAND_MAP_BIT(f, block);
 
                fio_assert(td, idx < f->num_maps);
 
-               f->file_map[idx] |= (1UL << bit);
-               block++;
-               blocks++;
+               this_blocks = nr_blocks;
+               if (this_blocks + bit > BLOCKS_PER_MAP)
+                       this_blocks = BLOCKS_PER_MAP - bit;
+
+               if (this_blocks == BLOCKS_PER_MAP)
+                       mask = -1U;
+               else
+                       mask = ((1U << this_blocks) - 1) << bit;
+
+               fio_assert(td, !(f->file_map[idx] & mask));
+               f->file_map[idx] |= mask;
+               nr_blocks -= this_blocks;
+               blocks += this_blocks;
+               block += this_blocks;
        }
 
        if ((blocks * min_bs) < io_u->buflen)
                io_u->buflen = blocks * min_bs;
 }
 
-static inline unsigned long long last_block(struct thread_data *td,
-                                           struct fio_file *f,
-                                           enum fio_ddir ddir)
+static unsigned long long last_block(struct thread_data *td, struct fio_file *f,
+                                    enum fio_ddir ddir)
 {
        unsigned long long max_blocks;
        unsigned long long max_size;
@@ -107,8 +120,8 @@ static int get_next_free_block(struct thread_data *td, struct fio_file *f,
        i = f->last_free_lookup;
        *b = (i * BLOCKS_PER_MAP);
        while ((*b) * min_bs < f->real_file_size) {
-               if (f->file_map[i] != -1UL) {
-                       *b += fio_ffz(f->file_map[i]);
+               if (f->file_map[i] != (unsigned int) -1) {
+                       *b += ffz(f->file_map[i]);
                        if (*b > last_block(td, f, ddir))
                                break;
                        f->last_free_lookup = i;
@@ -258,7 +271,6 @@ static unsigned int get_next_buflen(struct thread_data *td, struct io_u *io_u)
 
 static void set_rwmix_bytes(struct thread_data *td)
 {
-       unsigned long issues;
        unsigned int diff;
 
        /*
@@ -266,11 +278,8 @@ static void set_rwmix_bytes(struct thread_data *td)
         * buffered writes may issue a lot quicker than they complete,
         * whereas reads do not.
         */
-       issues = td->io_issues[td->rwmix_ddir] - td->rwmix_issues;
        diff = td->o.rwmix[td->rwmix_ddir ^ 1];
-
-       td->rwmix_issues = td->io_issues[td->rwmix_ddir]
-                               + (issues * ((100 - diff)) / diff);
+       td->rwmix_issues = (td->io_issues[td->rwmix_ddir] * diff) / 100;
 }
 
 static inline enum fio_ddir get_rand_ddir(struct thread_data *td)
@@ -280,7 +289,7 @@ static inline enum fio_ddir get_rand_ddir(struct thread_data *td)
 
        r = os_random_long(&td->rwmix_state);
        v = 1 + (int) (100.0 * (r / (RAND_MAX + 1.0)));
-       if (v < td->o.rwmix[DDIR_READ])
+       if (v <= td->o.rwmix[DDIR_READ])
                return DDIR_READ;
 
        return DDIR_WRITE;
@@ -354,6 +363,8 @@ void requeue_io_u(struct thread_data *td, struct io_u **io_u)
 {
        struct io_u *__io_u = *io_u;
 
+       dprint(FD_IO, "requeue %p\n", __io_u);
+
        __io_u->flags |= IO_U_F_FREE;
        if ((__io_u->flags & IO_U_F_FLIGHT) && (__io_u->ddir != DDIR_SYNC))
                td->io_issues[__io_u->ddir]--;
@@ -822,6 +833,8 @@ struct io_u *get_io_u(struct thread_data *td)
 
                if (td->o.verify != VERIFY_NONE)
                        populate_verify_io_u(td, io_u);
+               else if (td->o.refill_buffers && io_u->ddir == DDIR_WRITE)
+                       io_u_fill_buffer(td, io_u, io_u->xfer_buflen);
        }
 
        /*
@@ -831,8 +844,6 @@ struct io_u *get_io_u(struct thread_data *td)
        io_u->xfer_buf = io_u->buf;
        io_u->xfer_buflen = io_u->buflen;
 
-       if (td->o.refill_buffers && io_u->ddir == DDIR_WRITE)
-               io_u_fill_buffer(td, io_u, io_u->xfer_buflen);
 out:
        if (!td_io_prep(td, io_u)) {
                fio_gettime(&io_u->start_time, NULL);