Ensure that we exit with non-zero status on IO engine load failure
[fio.git] / engines / mmap.c
index 71abfb9ac546247cd339033373ebbbda35778d54..059bfcfae7453d6dd804cf25ab6ad6ecfdc05411 100644 (file)
@@ -45,12 +45,12 @@ static int fio_mmap_file(struct thread_data *td, struct fio_file *f,
        }
 
        if (!td_random(td)) {
-               if (madvise(f->mmap_ptr, length, MADV_SEQUENTIAL) < 0) {
+               if (posix_madvise(f->mmap_ptr, length, POSIX_MADV_SEQUENTIAL) < 0) {
                        td_verror(td, errno, "madvise");
                        goto err;
                }
        } else {
-               if (madvise(f->mmap_ptr, length, MADV_RANDOM) < 0) {
+               if (posix_madvise(f->mmap_ptr, length, POSIX_MADV_RANDOM) < 0) {
                        td_verror(td, errno, "madvise");
                        goto err;
                }
@@ -75,12 +75,6 @@ static int fio_mmapio_prep_limited(struct thread_data *td, struct io_u *io_u)
                return EIO;
        }
 
-       if (f->mmap_ptr) {
-               if (munmap(f->mmap_ptr, f->mmap_sz) < 0)
-                       return errno;
-               f->mmap_ptr = NULL;
-       }
-
        f->mmap_sz = mmap_map_size;
        if (f->mmap_sz  > f->io_size)
                f->mmap_sz = f->io_size;
@@ -101,12 +95,6 @@ static int fio_mmapio_prep_full(struct thread_data *td, struct io_u *io_u)
        if (fio_file_partial_mmap(f))
                return EINVAL;
 
-       if (f->mmap_ptr) {
-               if (munmap(f->mmap_ptr, f->mmap_sz) < 0)
-                       return errno;
-               f->mmap_ptr = NULL;
-       }
-
        f->mmap_sz = f->io_size;
        f->mmap_off = 0;
 
@@ -122,10 +110,22 @@ static int fio_mmapio_prep(struct thread_data *td, struct io_u *io_u)
        struct fio_file *f = io_u->file;
        int ret;
 
+       /*
+        * It fits within existing mapping, use it
+        */
        if (io_u->offset >= f->mmap_off &&
            io_u->offset + io_u->buflen < f->mmap_off + f->mmap_sz)
                goto done;
 
+       /*
+        * unmap any existing mapping
+        */
+       if (f->mmap_ptr) {
+               if (munmap(f->mmap_ptr, f->mmap_sz) < 0)
+                       return errno;
+               f->mmap_ptr = NULL;
+       }
+
        if (fio_mmapio_prep_full(td, io_u)) {
                td_clear_error(td);
                ret = fio_mmapio_prep_limited(td, io_u);
@@ -154,17 +154,23 @@ static int fio_mmapio_queue(struct thread_data *td, struct io_u *io_u)
                        io_u->error = errno;
                        td_verror(td, io_u->error, "msync");
                }
+       } else if (io_u->ddir == DDIR_TRIM) {
+               int ret = do_io_u_trim(td, io_u);
+
+               if (!ret)
+                       td_verror(td, io_u->error, "trim");
        }
 
+
        /*
         * not really direct, but should drop the pages from the cache
         */
-       if (td->o.odirect && !ddir_sync(io_u->ddir)) {
+       if (td->o.odirect && ddir_rw(io_u->ddir)) {
                if (msync(io_u->mmap_data, io_u->xfer_buflen, MS_SYNC) < 0) {
                        io_u->error = errno;
                        td_verror(td, io_u->error, "msync");
                }
-               if (madvise(io_u->mmap_data, io_u->xfer_buflen,  MADV_DONTNEED) < 0) {
+               if (posix_madvise(io_u->mmap_data, io_u->xfer_buflen, POSIX_MADV_DONTNEED) < 0) {
                        io_u->error = errno;
                        td_verror(td, io_u->error, "madvise");
                }