Do at least one block if randommap fails us
[fio.git] / io_u.c
diff --git a/io_u.c b/io_u.c
index b10e83eee3b3871aa3ad7a957e3cc0ffec00ea00..927e161177d97ead31a03c44f436086ea5103f06 100644 (file)
--- a/io_u.c
+++ b/io_u.c
@@ -32,7 +32,7 @@ static int random_map_free(struct fio_file *f, const unsigned long long block)
 
        dprint(FD_RANDOM, "free: b=%llu, idx=%u, bit=%u\n", block, idx, bit);
 
-       return (f->file_map[idx] & (1UL << bit)) == 0;
+       return (f->file_map[idx] & (1 << bit)) == 0;
 }
 
 /*
@@ -43,40 +43,53 @@ static void mark_random_map(struct thread_data *td, struct io_u *io_u)
        unsigned int min_bs = td->o.rw_min_bs;
        struct fio_file *f = io_u->file;
        unsigned long long block;
-       unsigned int blocks;
-       unsigned int nr_blocks;
+       unsigned int blocks, nr_blocks;
 
        block = (io_u->offset - f->file_offset) / (unsigned long long) min_bs;
-       blocks = 0;
        nr_blocks = (io_u->buflen + min_bs - 1) / min_bs;
+       blocks = 0;
 
-       while (blocks < nr_blocks) {
+       while (nr_blocks) {
+               unsigned int this_blocks, mask;
                unsigned int idx, bit;
 
                /*
                 * If we have a mixed random workload, we may
                 * encounter blocks we already did IO to.
                 */
-               if ((td->o.ddir_nr == 1) && !random_map_free(f, block))
+               if ((td->o.ddir_nr == 1) && !random_map_free(f, block)) {
+                       if (!blocks)
+                               blocks = 1;
                        break;
+               }
 
                idx = RAND_MAP_IDX(f, block);
                bit = RAND_MAP_BIT(f, block);
 
                fio_assert(td, idx < f->num_maps);
 
-               f->file_map[idx] |= (1UL << bit);
-               block++;
-               blocks++;
+               this_blocks = nr_blocks;
+               if (this_blocks + bit > BLOCKS_PER_MAP)
+                       this_blocks = BLOCKS_PER_MAP - bit;
+
+               if (this_blocks == BLOCKS_PER_MAP)
+                       mask = -1U;
+               else
+                       mask = ((1U << this_blocks) - 1) << bit;
+
+               fio_assert(td, !(f->file_map[idx] & mask));
+               f->file_map[idx] |= mask;
+               nr_blocks -= this_blocks;
+               blocks += this_blocks;
+               block += this_blocks;
        }
 
        if ((blocks * min_bs) < io_u->buflen)
                io_u->buflen = blocks * min_bs;
 }
 
-static inline unsigned long long last_block(struct thread_data *td,
-                                           struct fio_file *f,
-                                           enum fio_ddir ddir)
+static unsigned long long last_block(struct thread_data *td, struct fio_file *f,
+                                    enum fio_ddir ddir)
 {
        unsigned long long max_blocks;
        unsigned long long max_size;
@@ -107,8 +120,8 @@ static int get_next_free_block(struct thread_data *td, struct fio_file *f,
        i = f->last_free_lookup;
        *b = (i * BLOCKS_PER_MAP);
        while ((*b) * min_bs < f->real_file_size) {
-               if (f->file_map[i] != -1UL) {
-                       *b += fio_ffz(f->file_map[i]);
+               if (f->file_map[i] != (unsigned int) -1) {
+                       *b += ffz(f->file_map[i]);
                        if (*b > last_block(td, f, ddir))
                                break;
                        f->last_free_lookup = i;
@@ -350,6 +363,8 @@ void requeue_io_u(struct thread_data *td, struct io_u **io_u)
 {
        struct io_u *__io_u = *io_u;
 
+       dprint(FD_IO, "requeue %p\n", __io_u);
+
        __io_u->flags |= IO_U_F_FREE;
        if ((__io_u->flags & IO_U_F_FLIGHT) && (__io_u->ddir != DDIR_SYNC))
                td->io_issues[__io_u->ddir]--;
@@ -818,6 +833,8 @@ struct io_u *get_io_u(struct thread_data *td)
 
                if (td->o.verify != VERIFY_NONE)
                        populate_verify_io_u(td, io_u);
+               else if (td->o.refill_buffers && io_u->ddir == DDIR_WRITE)
+                       io_u_fill_buffer(td, io_u, io_u->xfer_buflen);
        }
 
        /*
@@ -827,8 +844,6 @@ struct io_u *get_io_u(struct thread_data *td)
        io_u->xfer_buf = io_u->buf;
        io_u->xfer_buflen = io_u->buflen;
 
-       if (td->o.refill_buffers && io_u->ddir == DDIR_WRITE)
-               io_u_fill_buffer(td, io_u, io_u->xfer_buflen);
 out:
        if (!td_io_prep(td, io_u)) {
                fio_gettime(&io_u->start_time, NULL);