Make file structures dynamically allocated
[fio.git] / log.c
diff --git a/log.c b/log.c
index 5b21ee224d2b7a24131563581e5ff4e019f7c118..f6fbaeb26c7e1c023055ada3252bf59201cc32c1 100644 (file)
--- a/log.c
+++ b/log.c
@@ -65,7 +65,7 @@ int read_iolog_get(struct thread_data *td, struct io_u *io_u)
                 * invalid ddir, this is a file action
                 */
                if (ipo->ddir == DDIR_INVAL) {
-                       struct fio_file *f = &td->files[ipo->fileno];
+                       struct fio_file *f = td->files[ipo->fileno];
 
                        if (ipo->file_action == FIO_LOG_OPEN_FILE) {
                                assert(!td_io_open_file(td, f));
@@ -81,7 +81,7 @@ int read_iolog_get(struct thread_data *td, struct io_u *io_u)
                io_u->offset = ipo->offset;
                io_u->buflen = ipo->len;
                io_u->ddir = ipo->ddir;
-               io_u->file = &td->files[ipo->fileno];
+               io_u->file = td->files[ipo->fileno];
                get_file(io_u->file);
 
                dprint(FD_IO, "iolog: get %llu/%lu/%s\n", io_u->offset,
@@ -108,6 +108,12 @@ void prune_io_piece_log(struct thread_data *td)
                rb_erase(n, &td->io_hist_tree);
                free(ipo);
        }
+
+       while (!list_empty(&td->io_hist_list)) {
+               ipo = list_entry(td->io_hist_list.next, struct io_piece, list);
+               list_del(&ipo->list);
+               free(ipo);
+       }
 }
 
 /*
@@ -132,8 +138,7 @@ void log_io_piece(struct thread_data *td, struct io_u *io_u)
         * For both these cases, just reading back data in the order we
         * wrote it out is the fastest.
         */
-       if (!td_random(td) || !td->o.overwrite ||
-            (io_u->file->flags & FIO_FILE_NOSORT)) {
+       if (!td_random(td) || !td->o.overwrite) {
                INIT_LIST_HEAD(&ipo->list);
                list_add_tail(&ipo->list, &td->io_hist_list);
                return;