mmap: catch invalid msync() errors early
[fio.git] / engines / mmap.c
index 05a4d5163ce5dbd45a3ba351419417e642b65be1..79238b1e537b079a183f31f589aa151b0d681419 100644 (file)
 #include <sys/mman.h>
 
 #include "../fio.h"
+#include "../verify.h"
 
 /*
- * Limits us to 2GB of mapped files in total
+ * Limits us to 1GB of mapped files in total
  */
-#define MMAP_TOTAL_SZ  (2 * 1024 * 1024 * 1024UL)
+#define MMAP_TOTAL_SZ  (1 * 1024 * 1024 * 1024UL)
 
 static unsigned long mmap_map_size;
 static unsigned long mmap_map_mask;
@@ -25,7 +26,6 @@ static int fio_mmap_file(struct thread_data *td, struct fio_file *f,
                         size_t length, off_t off)
 {
        int flags = 0;
-       int ret = 0;
 
        if (td_rw(td))
                flags = PROT_READ | PROT_WRITE;
@@ -39,72 +39,104 @@ static int fio_mmap_file(struct thread_data *td, struct fio_file *f,
 
        f->mmap_ptr = mmap(NULL, length, flags, MAP_SHARED, f->fd, off);
        if (f->mmap_ptr == MAP_FAILED) {
-               int err = errno;
-
                f->mmap_ptr = NULL;
-               td_verror(td, err, "mmap");
-               if (err == EINVAL && f->io_size > 2*1024*1024*1024UL)
-                       log_err("fio: mmap size likely too large\n");
+               td_verror(td, errno, "mmap");
                goto err;
        }
 
-       if (file_invalidate_cache(td, f))
-               goto err;
-
        if (!td_random(td)) {
-               if (madvise(f->mmap_ptr, length, MADV_SEQUENTIAL) < 0) {
+               if (posix_madvise(f->mmap_ptr, length, POSIX_MADV_SEQUENTIAL) < 0) {
                        td_verror(td, errno, "madvise");
                        goto err;
                }
        } else {
-               if (madvise(f->mmap_ptr, length, MADV_RANDOM) < 0) {
+               if (posix_madvise(f->mmap_ptr, length, POSIX_MADV_RANDOM) < 0) {
                        td_verror(td, errno, "madvise");
                        goto err;
                }
        }
 
 err:
-       return ret;
+       if (td->error && f->mmap_ptr)
+               munmap(f->mmap_ptr, length);
+               
+       return td->error;
 }
 
-static int fio_mmapio_prep(struct thread_data *td, struct io_u *io_u)
+/*
+ * Just mmap an appropriate portion, we cannot mmap the full extent
+ */
+static int fio_mmapio_prep_limited(struct thread_data *td, struct io_u *io_u)
 {
        struct fio_file *f = io_u->file;
-       int ret = 0;
 
        if (io_u->buflen > mmap_map_size) {
                log_err("fio: bs too big for mmap engine\n");
-               ret = EIO;
-               goto err;
+               return EIO;
        }
 
+       f->mmap_sz = mmap_map_size;
+       if (f->mmap_sz  > f->io_size)
+               f->mmap_sz = f->io_size;
+
+       f->mmap_off = io_u->offset;
+
+       return fio_mmap_file(td, f, f->mmap_sz, f->mmap_off);
+}
+
+/*
+ * Attempt to mmap the entire file
+ */
+static int fio_mmapio_prep_full(struct thread_data *td, struct io_u *io_u)
+{
+       struct fio_file *f = io_u->file;
+       int ret;
+
+       if (fio_file_partial_mmap(f))
+               return EINVAL;
+
+       f->mmap_sz = f->io_size;
+       f->mmap_off = 0;
+
+       ret = fio_mmap_file(td, f, f->mmap_sz, f->mmap_off);
+       if (ret)
+               fio_file_set_partial_mmap(f);
+
+       return ret;
+}
+
+static int fio_mmapio_prep(struct thread_data *td, struct io_u *io_u)
+{
+       struct fio_file *f = io_u->file;
+       int ret;
+
+       /*
+        * It fits within existing mapping, use it
+        */
        if (io_u->offset >= f->mmap_off &&
            io_u->offset + io_u->buflen < f->mmap_off + f->mmap_sz)
                goto done;
 
+       /*
+        * unmap any existing mapping
+        */
        if (f->mmap_ptr) {
-               if (munmap(f->mmap_ptr, f->mmap_sz) < 0) {
-                       ret = errno;
-                       goto err;
-               }
+               if (munmap(f->mmap_ptr, f->mmap_sz) < 0)
+                       return errno;
                f->mmap_ptr = NULL;
        }
 
-       f->mmap_sz = mmap_map_size;
-       if (f->mmap_sz  > f->io_size)
-               f->mmap_sz = f->io_size;
-
-       f->mmap_off = io_u->offset & ~mmap_map_mask;
-       if (io_u->offset + io_u->buflen >= f->mmap_off + f->mmap_sz)
-               f->mmap_off -= io_u->buflen;
+       if (fio_mmapio_prep_full(td, io_u)) {
+               td_clear_error(td);
+               ret = fio_mmapio_prep_limited(td, io_u);
+               if (ret)
+                       return ret;
+       }
 
-       ret = fio_mmap_file(td, f, f->mmap_sz, f->mmap_off);
 done:
-       if (!ret)
-               io_u->mmap_data = f->mmap_ptr + io_u->offset - f->mmap_off -
-                                       f->file_offset;
-err:
-       return ret;
+       io_u->mmap_data = f->mmap_ptr + io_u->offset - f->mmap_off -
+                               f->file_offset;
+       return 0;
 }
 
 static int fio_mmapio_queue(struct thread_data *td, struct io_u *io_u)
@@ -117,22 +149,28 @@ static int fio_mmapio_queue(struct thread_data *td, struct io_u *io_u)
                memcpy(io_u->xfer_buf, io_u->mmap_data, io_u->xfer_buflen);
        else if (io_u->ddir == DDIR_WRITE)
                memcpy(io_u->mmap_data, io_u->xfer_buf, io_u->xfer_buflen);
-       else if (io_u->ddir == DDIR_SYNC) {
+       else if (ddir_sync(io_u->ddir)) {
                if (msync(f->mmap_ptr, f->mmap_sz, MS_SYNC)) {
                        io_u->error = errno;
                        td_verror(td, io_u->error, "msync");
                }
+       } else if (io_u->ddir == DDIR_TRIM) {
+               int ret = do_io_u_trim(td, io_u);
+
+               if (!ret)
+                       td_verror(td, io_u->error, "trim");
        }
 
+
        /*
         * not really direct, but should drop the pages from the cache
         */
-       if (td->o.odirect && io_u->ddir != DDIR_SYNC) {
+       if (td->o.odirect && ddir_rw(io_u->ddir)) {
                if (msync(io_u->mmap_data, io_u->xfer_buflen, MS_SYNC) < 0) {
                        io_u->error = errno;
                        td_verror(td, io_u->error, "msync");
                }
-               if (madvise(io_u->mmap_data, io_u->xfer_buflen,  MADV_DONTNEED) < 0) {
+               if (posix_madvise(io_u->mmap_data, io_u->xfer_buflen, POSIX_MADV_DONTNEED) < 0) {
                        io_u->error = errno;
                        td_verror(td, io_u->error, "madvise");
                }
@@ -143,8 +181,16 @@ static int fio_mmapio_queue(struct thread_data *td, struct io_u *io_u)
 
 static int fio_mmapio_init(struct thread_data *td)
 {
+       struct thread_options *o = &td->o;
        unsigned long shift, mask;
 
+       if ((td->o.rw_min_bs & page_mask) &&
+           (o->odirect || o->fsync_blocks || o->fdatasync_blocks)) {
+               log_err("fio: mmap options dictate a minimum block size of "
+                       "%lu bytes\n", page_size);
+               return 1;
+       }
+
        mmap_map_size = MMAP_TOTAL_SZ / td->o.nr_files;
        mask = mmap_map_size;
        shift = 0;