smalloc: turn on the thread safe flag
[fio.git] / io_u.c
diff --git a/io_u.c b/io_u.c
index 92cdd71701a9df3973eb4158b0a8fcb6bab4eed5..c3939b32ad0df0f101fa24d0bdfef6ebe716c0ff 100644 (file)
--- a/io_u.c
+++ b/io_u.c
@@ -6,6 +6,7 @@
 #include <assert.h>
 
 #include "fio.h"
+#include "hash.h"
 
 /*
  * Change this define to play with the timeout handling
@@ -78,8 +79,16 @@ static inline unsigned long long last_block(struct thread_data *td,
                                            enum fio_ddir ddir)
 {
        unsigned long long max_blocks;
+       unsigned long long max_size;
 
-       max_blocks = f->io_size / (unsigned long long) td->o.min_bs[ddir];
+       /*
+        * Hmm, should we make sure that ->io_size <= ->real_file_size?
+        */
+       max_size = f->io_size;
+       if (max_size > f->real_file_size)
+               max_size = f->real_file_size;
+
+       max_blocks = max_size / (unsigned long long) td->o.min_bs[ddir];
        if (!max_blocks)
                return 0;
 
@@ -208,7 +217,7 @@ static int get_next_offset(struct thread_data *td, struct io_u *io_u)
 static unsigned int get_next_buflen(struct thread_data *td, struct io_u *io_u)
 {
        const int ddir = io_u->ddir;
-       unsigned int buflen;
+       unsigned int buflen = buflen; /* silence dumb gcc warning */
        long r;
 
        if (td->o.min_bs[ddir] == td->o.max_bs[ddir])
@@ -421,6 +430,47 @@ out:
        return 0;
 }
 
+static void __io_u_mark_map(unsigned int *map, unsigned int nr)
+{
+       int index = 0;
+
+       switch (nr) {
+       default:
+               index = 6;
+               break;
+       case 33 ... 64:
+               index = 5;
+               break;
+       case 17 ... 32:
+               index = 4;
+               break;
+       case 9 ... 16:
+               index = 3;
+               break;
+       case 5 ... 8:
+               index = 2;
+               break;
+       case 1 ... 4:
+               index = 1;
+       case 0:
+               break;
+       }
+
+       map[index]++;
+}
+
+void io_u_mark_submit(struct thread_data *td, unsigned int nr)
+{
+       __io_u_mark_map(td->ts.io_u_submit, nr);
+       td->ts.total_submit++;
+}
+
+void io_u_mark_complete(struct thread_data *td, unsigned int nr)
+{
+       __io_u_mark_map(td->ts.io_u_complete, nr);
+       td->ts.total_complete++;
+}
+
 void io_u_mark_depth(struct thread_data *td, unsigned int nr)
 {
        int index = 0;
@@ -780,6 +830,9 @@ struct io_u *get_io_u(struct thread_data *td)
        io_u->endpos = io_u->offset + io_u->buflen;
        io_u->xfer_buf = io_u->buf;
        io_u->xfer_buflen = io_u->buflen;
+
+       if (td->o.refill_buffers && io_u->ddir == DDIR_WRITE)
+               io_u_fill_buffer(td, io_u, io_u->xfer_buflen);
 out:
        if (!td_io_prep(td, io_u)) {
                fio_gettime(&io_u->start_time, NULL);
@@ -943,6 +996,23 @@ void io_u_queued(struct thread_data *td, struct io_u *io_u)
        add_slat_sample(td, io_u->ddir, slat_time);
 }
 
+/*
+ * "randomly" fill the buffer contents
+ */
+void io_u_fill_buffer(struct thread_data *td, struct io_u *io_u,
+                     unsigned int max_bs)
+{
+       long *ptr = io_u->buf;
+
+       if (!td->o.zero_buffers) {
+               while ((void *) ptr - io_u->buf < max_bs) {
+                       *ptr = rand() * GOLDEN_RATIO_PRIME;
+                       ptr++;
+               }
+       } else
+               memset(ptr, 0, max_bs);
+}
+
 #ifdef FIO_USE_TIMEOUT
 void io_u_set_timeout(struct thread_data *td)
 {