add documentation about filename_format directory behavior
[fio.git] / HOWTO
diff --git a/HOWTO b/HOWTO
index c2c65096bbd22461590c502aba6771b26598f672..a1513e1259f7cc3001fb185a662150a9527dba34 100644 (file)
--- a/HOWTO
+++ b/HOWTO
@@ -54,56 +54,63 @@ Command line options
 
 .. option:: --debug=type
 
-    Enable verbose tracing of various fio actions.  May be ``all`` for all types
-    or individual types separated by a comma (e.g. ``--debug=file,mem`` will
-    enable file and memory debugging).  Currently, additional logging is
-    available for:
+       Enable verbose tracing `type` of various fio actions.  May be ``all`` for all types
+       or individual types separated by a comma (e.g. ``--debug=file,mem`` will
+       enable file and memory debugging).  Currently, additional logging is
+       available for:
 
-    *process*
+       *process*
                        Dump info related to processes.
-    *file*
+       *file*
                        Dump info related to file actions.
-    *io*
+       *io*
                        Dump info related to I/O queuing.
-    *mem*
+       *mem*
                        Dump info related to memory allocations.
-    *blktrace*
+       *blktrace*
                        Dump info related to blktrace setup.
-    *verify*
+       *verify*
                        Dump info related to I/O verification.
-    *all*
+       *all*
                        Enable all debug options.
-    *random*
+       *random*
                        Dump info related to random offset generation.
-    *parse*
+       *parse*
                        Dump info related to option matching and parsing.
-    *diskutil*
+       *diskutil*
                        Dump info related to disk utilization updates.
-    *job:x*
+       *job:x*
                        Dump info only related to job number x.
-    *mutex*
+       *mutex*
                        Dump info only related to mutex up/down ops.
-    *profile*
+       *profile*
                        Dump info related to profile extensions.
-    *time*
+       *time*
                        Dump info related to internal time keeping.
-    *net*
+       *net*
                        Dump info related to networking connections.
-    *rate*
+       *rate*
                        Dump info related to I/O rate switching.
-    *compress*
+       *compress*
                        Dump info related to log compress/decompress.
-    *?* or *help*
+       *?* or *help*
                        Show available debug options.
 
 .. option:: --parse-only
 
-    Parse options only, don\'t start any I/O.
+       Parse options only, don't start any I/O.
 
 .. option:: --output=filename
 
        Write output to file `filename`.
 
+.. option:: --output-format=format
+
+       Set the reporting `format` to `normal`, `terse`, `json`, or `json+`.  Multiple
+       formats can be selected, separated by a comma.  `terse` is a CSV based
+       format.  `json+` is like `json`, except it adds a full dump of the latency
+       buckets.
+
 .. option:: --bandwidth-log
 
        Generate aggregate bandwidth logs.
@@ -114,38 +121,31 @@ Command line options
 
 .. option:: --append-terse
 
-    Print statistics in selected mode AND terse, semicolon-delimited format.
-    **deprecated**, use :option:`--output-format` instead to select multiple
-    formats.
+       Print statistics in selected mode AND terse, semicolon-delimited format.
+       **Deprecated**, use :option:`--output-format` instead to select multiple
+       formats.
 
-.. option:: --output-format=type
-
-       Set the reporting format to `normal`, `terse`, `json`, or `json+`.  Multiple
-       formats can be selected, separate by a comma.  `terse` is a CSV based
-       format.  `json+` is like `json`, except it adds a full dump of the latency
-       buckets.
+.. option:: --terse-version=version
 
-.. option:: --terse-version=type
-
-       Set terse version output format (default 3, or 2 or 4).
+       Set terse `version` output format (default 3, or 2 or 4 or 5).
 
 .. option:: --version
 
-       Print version info and exit.
+       Print version information and exit.
 
 .. option:: --help
 
-       Print this page.
+       Print a summary of the command line options and exit.
 
 .. option:: --cpuclock-test
 
        Perform test and validation of internal CPU clock.
 
-.. option:: --crctest=test
+.. option:: --crctest=[test]
 
-    Test the speed of the builtin checksumming functions. If no argument is
-    given, all of them are tested. Or a comma separated list can be passed, in
-    which case the given ones are tested.
+       Test the speed of the built-in checksumming functions. If no argument is
+       given, all of them are tested. Alternatively, a comma separated list can
+       be passed, in which case the given ones are tested.
 
 .. option:: --cmdhelp=command
 
@@ -153,114 +153,128 @@ Command line options
 
 .. option:: --enghelp=[ioengine[,command]]
 
-    List all commands defined by :option:`ioengine`, or print help for `command`
-    defined by :option:`ioengine`.  If no :option:`ioengine` is given, list all
-    available ioengines.
+       List all commands defined by `ioengine`, or print help for `command`
+       defined by `ioengine`.  If no `ioengine` is given, list all
+       available ioengines.
 
 .. option:: --showcmd=jobfile
 
-       Turn a job file into command line options.
+       Convert `jobfile` to a set of command-line options.
 
 .. option:: --readonly
 
-    Turn on safety read-only checks, preventing writes.  The ``--readonly``
-    option is an extra safety guard to prevent users from accidentally starting
-    a write workload when that is not desired.  Fio will only write if
-    `rw=write/randwrite/rw/randrw` is given.  This extra safety net can be used
-    as an extra precaution as ``--readonly`` will also enable a write check in
-    the I/O engine core to prevent writes due to unknown user space bug(s).
+       Turn on safety read-only checks, preventing writes.  The ``--readonly``
+       option is an extra safety guard to prevent users from accidentally starting
+       a write workload when that is not desired.  Fio will only write if
+       `rw=write/randwrite/rw/randrw` is given.  This extra safety net can be used
+       as an extra precaution as ``--readonly`` will also enable a write check in
+       the I/O engine core to prevent writes due to unknown user space bug(s).
 
 .. option:: --eta=when
 
-       When real-time ETA estimate should be printed.  May be `always`, `never` or
-       `auto`.
+       Specifies when real-time ETA estimate should be printed.  `when` may be
+       `always`, `never` or `auto`.
 
 .. option:: --eta-newline=time
 
-       Force a new line for every `time` period passed.
+       Force a new line for every `time` period passed.  When the unit is omitted,
+       the value is interpreted in seconds.
 
 .. option:: --status-interval=time
 
-       Force full status dump every `time` period passed.
+       Force a full status dump of cumulative (from job start) values at `time`
+       intervals. This option does *not* provide per-period measurements. So
+       values such as bandwidth are running averages. When the time unit is omitted,
+       `time` is interpreted in seconds.
 
 .. option:: --section=name
 
-    Only run specified section in job file.  Multiple sections can be specified.
-    The ``--section`` option allows one to combine related jobs into one file.
-    E.g. one job file could define light, moderate, and heavy sections. Tell
-    fio to run only the "heavy" section by giving ``--section=heavy``
-    command line option.  One can also specify the "write" operations in one
-    section and "verify" operation in another section.  The ``--section`` option
-    only applies to job sections.  The reserved *global* section is always
-    parsed and used.
+       Only run specified section `name` in job file.  Multiple sections can be specified.
+       The ``--section`` option allows one to combine related jobs into one file.
+       E.g. one job file could define light, moderate, and heavy sections. Tell
+       fio to run only the "heavy" section by giving ``--section=heavy``
+       command line option.  One can also specify the "write" operations in one
+       section and "verify" operation in another section.  The ``--section`` option
+       only applies to job sections.  The reserved *global* section is always
+       parsed and used.
 
 .. option:: --alloc-size=kb
 
-    Set the internal smalloc pool to this size in kb (def 1024).  The
-    ``--alloc-size`` switch allows one to use a larger pool size for smalloc.
-    If running large jobs with randommap enabled, fio can run out of memory.
-    Smalloc is an internal allocator for shared structures from a fixed size
-    memory pool. The pool size defaults to 16M and can grow to 8 pools.
+       Set the internal smalloc pool size to `kb` in KiB.  The
+       ``--alloc-size`` switch allows one to use a larger pool size for smalloc.
+       If running large jobs with randommap enabled, fio can run out of memory.
+       Smalloc is an internal allocator for shared structures from a fixed size
+       memory pool and can grow to 16 pools. The pool size defaults to 16MiB.
 
-    NOTE: While running :file:`.fio_smalloc.*` backing store files are visible
-    in :file:`/tmp`.
+       NOTE: While running :file:`.fio_smalloc.*` backing store files are visible
+       in :file:`/tmp`.
 
 .. option:: --warnings-fatal
 
-    All fio parser warnings are fatal, causing fio to exit with an
-    error.
+       All fio parser warnings are fatal, causing fio to exit with an
+       error.
 
 .. option:: --max-jobs=nr
 
-       Maximum number of threads/processes to support.
+       Set the maximum number of threads/processes to support to `nr`.
+       NOTE: On Linux, it may be necessary to increase the shared-memory
+       limit ('/proc/sys/kernel/shmmax') if fio runs into errors while
+       creating jobs.
 
 .. option:: --server=args
 
-    Start a backend server, with `args` specifying what to listen to.
-    See `Client/Server`_ section.
+       Start a backend server, with `args` specifying what to listen to.
+       See `Client/Server`_ section.
 
 .. option:: --daemonize=pidfile
 
-    Background a fio server, writing the pid to the given `pidfile` file.
+       Background a fio server, writing the pid to the given `pidfile` file.
 
 .. option:: --client=hostname
 
-    Instead of running the jobs locally, send and run them on the given host or
-    set of hosts.  See `Client/Server`_ section.
+       Instead of running the jobs locally, send and run them on the given `hostname`
+       or set of `hostname`s.  See `Client/Server`_ section.
 
 .. option:: --remote-config=file
 
-       Tell fio server to load this local file.
+       Tell fio server to load this local `file`.
 
 .. option:: --idle-prof=option
 
-       Report cpu idleness on a system or percpu basis
-       ``--idle-prof=system,percpu`` or
-       run unit work calibration only ``--idle-prof=calibrate``.
+       Report CPU idleness. `option` is one of the following:
+
+               **calibrate**
+                       Run unit work calibration only and exit.
+
+               **system**
+                       Show aggregate system idleness and unit work.
+
+               **percpu**
+                       As **system** but also show per CPU idleness.
 
 .. option:: --inflate-log=log
 
-       Inflate and output compressed log.
+       Inflate and output compressed `log`.
 
 .. option:: --trigger-file=file
 
-       Execute trigger cmd when file exists.
+       Execute trigger command when `file` exists.
 
-.. option:: --trigger-timeout=t
+.. option:: --trigger-timeout=time
 
-       Execute trigger at this time.
+       Execute trigger at this `time`.
 
-.. option:: --trigger=cmd
+.. option:: --trigger=command
 
-       Set this command as local trigger.
+       Set this `command` as local trigger.
 
-.. option:: --trigger-remote=cmd
+.. option:: --trigger-remote=command
 
-       Set this command as remote trigger.
+       Set this `command` as remote trigger.
 
 .. option:: --aux-path=path
 
-       Use this path for fio state generated files.
+       Use this `path` for fio state generated files.
 
 Any parameters following the options will be assumed to be job files, unless
 they match a job file parameter. Multiple job files can be listed and each job
@@ -284,8 +298,8 @@ override a *global* section parameter, and a job file may even have several
 *global* sections if so desired. A job is only affected by a *global* section
 residing above it.
 
-The :option:`--cmdhelp` option also lists all options. If used with an `option`
-argument, :option:`--cmdhelp` will detail the given `option`.
+The :option:`--cmdhelp` option also lists all options. If used with a `command`
+argument, :option:`--cmdhelp` will detail the given `command`.
 
 See the `examples/` directory for inspiration on how to write job files.  Note
 the copyright and license requirements currently apply to `examples/` files.
@@ -436,7 +450,7 @@ automatically substituted with the current system values when the job is
 run. Simple math is also supported on these keywords, so you can perform actions
 like::
 
-        size=8*$mb_memory
+       size=8*$mb_memory
 
 and get that properly expanded to 8 times the size of memory in the machine.
 
@@ -465,13 +479,13 @@ Parameter types
 ~~~~~~~~~~~~~~~
 
 **str**
-    String. This is a sequence of alpha characters.
+       String: A sequence of alphanumeric characters.
 
 **time**
-       Integer with possible time suffix. In seconds unless otherwise
-       specified, use e.g. 10m for 10 minutes. Accepts s/m/h for seconds, minutes,
-       and hours, and accepts 'ms' (or 'msec') for milliseconds, and 'us' (or
-       'usec') for microseconds.
+       Integer with possible time suffix.  Without a unit value is interpreted as
+       seconds unless otherwise specified.  Accepts a suffix of 'd' for days, 'h' for
+       hours, 'm' for minutes, 's' for seconds, 'ms' (or 'msec') for milliseconds and
+       'us' (or 'usec') for microseconds.  For example, use 10m for 10 minutes.
 
 .. _int:
 
@@ -479,44 +493,45 @@ Parameter types
        Integer. A whole number value, which may contain an integer prefix
        and an integer suffix:
 
-        [*integer prefix*] **number** [*integer suffix*]
+       [*integer prefix*] **number** [*integer suffix*]
 
        The optional *integer prefix* specifies the number's base. The default
        is decimal. *0x* specifies hexadecimal.
 
        The optional *integer suffix* specifies the number's units, and includes an
        optional unit prefix and an optional unit.  For quantities of data, the
-       default unit is bytes. For quantities of time, the default unit is seconds.
+       default unit is bytes. For quantities of time, the default unit is seconds
+       unless otherwise specified.
 
-       With :option:`kb_base` =1000, fio follows international standards for unit
+       With :option:`kb_base`\=1000, fio follows international standards for unit
        prefixes.  To specify power-of-10 decimal values defined in the
        International System of Units (SI):
 
-               * *Ki* -- means kilo (K) or 1000
-               * *Mi* -- means mega (M) or 1000**2
-               * *Gi* -- means giga (G) or 1000**3
-               * *Ti* -- means tera (T) or 1000**4
-               * *Pi* -- means peta (P) or 1000**5
+               * *K* -- means kilo (K) or 1000
+               * *M* -- means mega (M) or 1000**2
+               * *G* -- means giga (G) or 1000**3
+               * *T* -- means tera (T) or 1000**4
+               * *P* -- means peta (P) or 1000**5
 
        To specify power-of-2 binary values defined in IEC 80000-13:
 
-               * *k* -- means kibi (Ki) or 1024
-               * *M* -- means mebi (Mi) or 1024**2
-               * *G* -- means gibi (Gi) or 1024**3
-               * *T* -- means tebi (Ti) or 1024**4
-               * *P* -- means pebi (Pi) or 1024**5
+               * *Ki* -- means kibi (Ki) or 1024
+               * *Mi* -- means mebi (Mi) or 1024**2
+               * *Gi* -- means gibi (Gi) or 1024**3
+               * *Ti* -- means tebi (Ti) or 1024**4
+               * *Pi* -- means pebi (Pi) or 1024**5
 
-       With :option:`kb_base` =1024 (the default), the unit prefixes are opposite
+       With :option:`kb_base`\=1024 (the default), the unit prefixes are opposite
        from those specified in the SI and IEC 80000-13 standards to provide
        compatibility with old scripts.  For example, 4k means 4096.
 
        For quantities of data, an optional unit of 'B' may be included
-       (e.g.,  'kB' is the same as 'k').
+       (e.g., 'kB' is the same as 'k').
 
        The *integer suffix* is not case sensitive (e.g., m/mi mean mebi/mega,
        not milli). 'b' and 'B' both mean byte, not bit.
 
-       Examples with :option:`kb_base` =1000:
+       Examples with :option:`kb_base`\=1000:
 
                * *4 KiB*: 4096, 4096b, 4096B, 4ki, 4kib, 4kiB, 4Ki, 4KiB
                * *1 MiB*: 1048576, 1mi, 1024ki
@@ -524,7 +539,7 @@ Parameter types
                * *1 TiB*: 1099511627776, 1ti, 1024gi, 1048576mi
                * *1 TB*: 1000000000, 1t, 1000m, 1000000k
 
-       Examples with :option:`kb_base` =1024 (default):
+       Examples with :option:`kb_base`\=1024 (default):
 
                * *4 KiB*: 4096, 4096b, 4096B, 4k, 4kb, 4kB, 4K, 4KB
                * *1 MiB*: 1048576, 1m, 1024k
@@ -536,13 +551,15 @@ Parameter types
 
                * *D* -- means days
                * *H* -- means hours
-               * *M* -- mean minutes
+               * *M* -- means minutes
                * *s* -- or sec means seconds (default)
                * *ms* -- or *msec* means milliseconds
                * *us* -- or *usec* means microseconds
 
        If the option accepts an upper and lower range, use a colon ':' or
        minus '-' to separate such values. See :ref:`irange <irange>`.
+       If the lower value specified happens to be larger than the upper value
+       the two values are swapped.
 
 .. _bool:
 
@@ -561,6 +578,8 @@ Parameter types
 **float_list**
        A list of floating point numbers, separated by a ':' character.
 
+With the above in mind, here follows the complete list of fio job parameters.
+
 
 Units
 ~~~~~
@@ -607,9 +626,6 @@ Units
                Bit based.
 
 
-With the above in mind, here follows the complete list of fio job parameters.
-
-
 Job description
 ~~~~~~~~~~~~~~~
 
@@ -636,7 +652,7 @@ Job description
        larger number of threads/processes doing the same thing. Each thread is
        reported separately; to see statistics for all clones as a whole, use
        :option:`group_reporting` in conjunction with :option:`new_group`.
-       See :option:`--max-jobs`.
+       See :option:`--max-jobs`.  Default: 1.
 
 
 Time related parameters
@@ -647,7 +663,7 @@ Time related parameters
        Tell fio to terminate processing after the specified period of time.  It
        can be quite hard to determine for how long a specified job will run, so
        this parameter is handy to cap the total runtime to a given time.  When
-       the unit is omitted, the value is given in seconds.
+       the unit is omitted, the value is intepreted in seconds.
 
 .. option:: time_based
 
@@ -657,10 +673,9 @@ Time related parameters
 
 .. option:: startdelay=irange(time)
 
-       Delay start of job for the specified number of seconds. Supports all time
-       suffixes to allow specification of hours, minutes, seconds and milliseconds
-       -- seconds are the default if a unit is omitted.  Can be given as a range
-       which causes each thread to choose randomly out of the range.
+       Delay the start of job for the specified amount of time.  Can be a single
+       value or a range.  When given as a range, each thread will choose a value
+       randomly from within the range.  Value is in seconds if a unit is omitted.
 
 .. option:: ramp_time=time
 
@@ -721,36 +736,41 @@ Target file/device
        Prefix filenames with this directory. Used to place files in a different
        location than :file:`./`.  You can specify a number of directories by
        separating the names with a ':' character. These directories will be
-       assigned equally distributed to job clones creates with :option:`numjobs` as
+       assigned equally distributed to job clones created by :option:`numjobs` as
        long as they are using generated filenames. If specific `filename(s)` are
        set fio will use the first listed directory, and thereby matching the
        `filename` semantic which generates a file each clone if not specified, but
        let all clones use the same if set.
 
-       See the :option:`filename` option for escaping certain characters.
+       See the :option:`filename` option for information on how to escape "``:``" and
+       "``\``" characters within the directory path itself.
 
 .. option:: filename=str
 
        Fio normally makes up a `filename` based on the job name, thread number, and
-       file number. If you want to share files between threads in a job or several
+       file number (see :option:`filename_format`). If you want to share files
+       between threads in a job or several
        jobs with fixed file paths, specify a `filename` for each of them to override
        the default. If the ioengine is file based, you can specify a number of files
        by separating the names with a ':' colon. So if you wanted a job to open
        :file:`/dev/sda` and :file:`/dev/sdb` as the two working files, you would use
        ``filename=/dev/sda:/dev/sdb``. This also means that whenever this option is
        specified, :option:`nrfiles` is ignored. The size of regular files specified
-       by this option will be :option:`size` divided by number of files unless
+       by this option will be :option:`size` divided by number of files unless an
        explicit size is specified by :option:`filesize`.
 
+       Each colon and backslash in the wanted path must be escaped with a ``\``
+       character.  For instance, if the path is :file:`/dev/dsk/foo@3,0:c` then you
+       would use ``filename=/dev/dsk/foo@3,0\:c`` and if the path is
+       :file:`F:\\filename` then you would use ``filename=F\:\\filename``.
+
        On Windows, disk devices are accessed as :file:`\\\\.\\PhysicalDrive0` for
        the first device, :file:`\\\\.\\PhysicalDrive1` for the second etc.
        Note: Windows and FreeBSD prevent write access to areas
-       of the disk containing in-use data (e.g. filesystems).  If the wanted
-       `filename` does need to include a colon, then escape that with a ``\``
-       character. For instance, if the `filename` is :file:`/dev/dsk/foo@3,0:c`,
-       then you would use ``filename="/dev/dsk/foo@3,0\:c"``.  The
-       :file:`-` is a reserved name, meaning stdin or stdout.  Which of the two
-       depends on the read/write direction set.
+       of the disk containing in-use data (e.g. filesystems).
+
+       The filename "`-`" is a reserved name, meaning *stdin* or *stdout*.  Which
+       of the two depends on the read/write direction set.
 
 .. option:: filename_format=str
 
@@ -775,6 +795,13 @@ Target file/device
        named :file:`testfiles.4`. The default of :file:`$jobname.$jobnum.$filenum`
        will be used if no other format specifier is given.
 
+       If you specify a path then the directories will be created up to the
+       main directory for the file.  So for example if you specify
+       ``filename_format=a/b/c/$jobnum`` then the directories a/b/c will be
+       created before the file setup part of the job.  If you specify
+       :option:`directory` then the path will be relative that directory,
+       otherwise it is treated as the absolute path.
+
 .. option:: unique_filename=bool
 
        To avoid collisions between networked clients, fio defaults to prefixing any
@@ -829,7 +856,7 @@ Target file/device
 
                **sequential**
                        Finish one file before moving on to the next. Multiple files can
-                       still be open depending on 'openfiles'.
+                       still be open depending on :option:`openfiles`.
 
                **zipf**
                        Use a *Zipf* distribution to decide what file to access.
@@ -837,10 +864,13 @@ Target file/device
                **pareto**
                        Use a *Pareto* distribution to decide what file to access.
 
-               **gauss**
+               **normal**
                        Use a *Gaussian* (normal) distribution to decide what file to
                        access.
 
+               **gauss**
+                       Alias for normal.
+
        For *random*, *roundrobin*, and *sequential*, a postfix can be appended to
        tell fio how many I/Os to issue before switching to a new file. For example,
        specifying ``file_service_type=random:8`` would cause fio to issue
@@ -858,27 +888,28 @@ Target file/device
 
        If true, serialize the file creation for the jobs.  This may be handy to
        avoid interleaving of data files, which may greatly depend on the filesystem
-       used and even the number of processors in the system.
+       used and even the number of processors in the system.  Default: true.
 
 .. option:: create_fsync=bool
 
-       fsync the data file after creation. This is the default.
+       :manpage:`fsync(2)` the data file after creation. This is the default.
 
 .. option:: create_on_open=bool
 
-       Don't pre-setup the files for I/O, just create open() when it's time to do
-       I/O to that file.
+       If true, don't pre-create files but allow the job's open() to create a file
+       when it's time to do I/O.  Default: false -- pre-create all necessary files
+       when the job starts.
 
 .. option:: create_only=bool
 
        If true, fio will only run the setup phase of the job.  If files need to be
-       laid out or updated on disk, only that will be done. The actual job contents
-       are not executed.
+       laid out or updated on disk, only that will be done -- the actual job contents
+       are not executed.  Default: false.
 
 .. option:: allow_file_create=bool
 
-       If true, fio is permitted to create files as part of its workload. This is
-       the default behavior. If this option is false, then fio will error out if
+       If true, fio is permitted to create files as part of its workload.  If this
+       option is false, then fio will error out if
        the files it needs to use don't already exist. Default: true.
 
 .. option:: allow_mounted_write=bool
@@ -886,7 +917,8 @@ Target file/device
        If this isn't set, fio will abort jobs that are destructive (e.g. that write)
        to what appears to be a mounted device or partition. This should help catch
        creating inadvertently destructive tests, not realizing that the test will
-       destroy data on the mounted file system. Default: false.
+       destroy data on the mounted file system. Note that some platforms don't allow
+       writing against a mounted device regardless of this option. Default: false.
 
 .. option:: pre_read=bool
 
@@ -894,16 +926,18 @@ Target file/device
        given I/O operation. This will also clear the :option:`invalidate` flag,
        since it is pointless to pre-read and then drop the cache. This will only
        work for I/O engines that are seek-able, since they allow you to read the
-       same data multiple times. Thus it will not work on e.g. network or splice I/O.
+       same data multiple times. Thus it will not work on non-seekable I/O engines
+       (e.g. network, splice). Default: false.
 
 .. option:: unlink=bool
 
        Unlink the job files when done. Not the default, as repeated runs of that
-       job would then waste time recreating the file set again and again.
+       job would then waste time recreating the file set again and again. Default:
+       false.
 
 .. option:: unlink_each_loop=bool
 
-       Unlink job files after each iteration or loop.
+       Unlink job files after each iteration or loop.  Default: false.
 
 .. option:: zonesize=int
 
@@ -925,7 +959,7 @@ I/O type
 .. option:: direct=bool
 
        If value is true, use non-buffered I/O. This is usually O_DIRECT. Note that
-       ZFS on Solaris doesn't support direct I/O.  On Windows the synchronous
+       OpenBSD and ZFS on Solaris don't support direct I/O.  On Windows the synchronous
        ioengines don't support direct I/O.  Default: false.
 
 .. option:: atomic=bool
@@ -949,10 +983,10 @@ I/O type
                                Sequential writes.
                **trim**
                                Sequential trims (Linux block devices only).
-               **randwrite**
-                               Random writes.
                **randread**
                                Random reads.
+               **randwrite**
+                               Random writes.
                **randtrim**
                                Random trims (Linux block devices only).
                **rw,readwrite**
@@ -965,15 +999,16 @@ I/O type
 
        Fio defaults to read if the option is not specified.  For the mixed I/O
        types, the default is to split them 50/50.  For certain types of I/O the
-       result may still be skewed a bit, since the speed may be different. It is
-       possible to specify a number of I/O's to do before getting a new offset,
-       this is done by appending a ``:<nr>`` to the end of the string given.  For a
+       result may still be skewed a bit, since the speed may be different.
+
+       It is possible to specify the number of I/Os to do before getting a new
+       offset by appending ``:<nr>`` to the end of the string given.  For a
        random read, it would look like ``rw=randread:8`` for passing in an offset
        modifier with a value of 8. If the suffix is used with a sequential I/O
-       pattern, then the value specified will be added to the generated offset for
-       each I/O.  For instance, using ``rw=write:4k`` will skip 4k for every
-       write. It turns sequential I/O into sequential I/O with holes.  See the
-       :option:`rw_sequencer` option.
+       pattern, then the *<nr>* value specified will be **added** to the generated
+       offset for each I/O turning sequential I/O into sequential I/O with holes.
+       For instance, using ``rw=write:4k`` will skip 4k for every write.  Also see
+       the :option:`rw_sequencer` option.
 
 .. option:: rw_sequencer=str
 
@@ -988,8 +1023,8 @@ I/O type
 
        ``sequential`` is only useful for random I/O, where fio would normally
        generate a new random offset for every I/O. If you append e.g. 8 to randread,
-       you would get a new random offset for every 8 I/O's. The result would be a
-       seek for only every 8 I/O's, instead of for every I/O. Use ``rw=randread:8``
+       you would get a new random offset for every 8 I/Os. The result would be a
+       seek for only every 8 I/Os, instead of for every I/O. Use ``rw=randread:8``
        to specify that. As sequential I/O is already sequential, setting
        ``sequential`` for that would not result in any differences.  ``identical``
        behaves in a similar fashion, except it sends the same offset 8 number of
@@ -1025,6 +1060,10 @@ I/O type
                **none**
                        Do not pre-allocate space.
 
+               **native**
+                       Use a platform's native pre-allocation call but fall back to
+                       **none** behavior if it fails/is not implemented.
+
                **posix**
                        Pre-allocate via :manpage:`posix_fallocate(3)`.
 
@@ -1039,8 +1078,9 @@ I/O type
                        Backward-compatible alias for **posix**.
 
        May not be available on all supported platforms. **keep** is only available
-       on Linux. If using ZFS on Solaris this must be set to **none** because ZFS
-       doesn't support it. Default: **posix**.
+       on Linux. If using ZFS on Solaris this cannot be set to **posix**
+       because ZFS doesn't support pre-allocation. Default: **native** if any
+       pre-allocation methods are available, **none** if not.
 
 .. option:: fadvise_hint=str
 
@@ -1061,18 +1101,39 @@ I/O type
                **random**
                        Advise using **FADV_RANDOM**.
 
-.. option:: fadvise_stream=int
+.. option:: write_hint=str
+
+       Use :manpage:`fcntl(2)` to advise the kernel what life time to expect
+       from a write. Only supported on Linux, as of version 4.13. Accepted
+       values are:
+
+               **none**
+                       No particular life time associated with this file.
+
+               **short**
+                       Data written to this file has a short life time.
 
-       Use :manpage:`posix_fadvise(2)` to advise the kernel what stream ID the
-       writes issued belong to. Only supported on Linux. Note, this option may
-       change going forward.
+               **medium**
+                       Data written to this file has a medium life time.
+
+               **long**
+                       Data written to this file has a long life time.
+
+               **extreme**
+                       Data written to this file has a very long life time.
+
+       The values are all relative to each other, and no absolute meaning
+       should be associated with them.
 
 .. option:: offset=int
 
-       Start I/O at the given offset in the file. The data before the given offset
-       will not be touched. This effectively caps the file size at `real_size -
-       offset`. Can be combined with :option:`size` to constrain the start and
-       end range that I/O will be done within.
+       Start I/O at the provided offset in the file, given as either a fixed size in
+       bytes or a percentage. If a percentage is given, the next ``blockalign``-ed
+       offset will be used. Data before the given offset will not be touched. This
+       effectively caps the file size at `real_size - offset`. Can be combined with
+       :option:`size` to constrain the start and end range of the I/O workload.
+       A percentage can be specified by a number between 1 and 100 followed by '%',
+       for example, ``offset=20%`` to specify 20%.
 
 .. option:: offset_increment=int
 
@@ -1095,25 +1156,29 @@ I/O type
 
 .. option:: fsync=int
 
-       If writing to a file, issue a sync of the dirty data for every number of
-       blocks given. For example, if you give 32 as a parameter, fio will sync the
-       file for every 32 writes issued. If fio is using non-buffered I/O, we may
-       not sync the file. The exception is the sg I/O engine, which synchronizes
-       the disk cache anyway.
+       If writing to a file, issue an :manpage:`fsync(2)` (or its equivalent) of
+       the dirty data for every number of blocks given. For example, if you give 32
+       as a parameter, fio will sync the file after every 32 writes issued. If fio is
+       using non-buffered I/O, we may not sync the file. The exception is the sg
+       I/O engine, which synchronizes the disk cache anyway. Defaults to 0, which
+       means fio does not periodically issue and wait for a sync to complete. Also
+       see :option:`end_fsync` and :option:`fsync_on_close`.
 
 .. option:: fdatasync=int
 
        Like :option:`fsync` but uses :manpage:`fdatasync(2)` to only sync data and
        not metadata blocks.  In Windows, FreeBSD, and DragonFlyBSD there is no
-       :manpage:`fdatasync(2)`, this falls back to using :manpage:`fsync(2)`.
+       :manpage:`fdatasync(2)` so this falls back to using :manpage:`fsync(2)`.
+       Defaults to 0, which means fio does not periodically issue and wait for a
+       data-only sync to complete.
 
 .. option:: write_barrier=int
 
-   Make every `N-th` write a barrier write.
+       Make every `N-th` write a barrier write.
 
-.. option:: sync_file_range=str:val
+.. option:: sync_file_range=str:int
 
-       Use :manpage:`sync_file_range(2)` for every `val` number of write
+       Use :manpage:`sync_file_range(2)` for every `int` number of write
        operations. Fio will track range of writes that have happened since the last
        :manpage:`sync_file_range(2)` call. `str` can currently be one or more of:
 
@@ -1134,17 +1199,18 @@ I/O type
        If true, writes to a file will always overwrite existing data. If the file
        doesn't already exist, it will be created before the write phase begins. If
        the file exists and is large enough for the specified write phase, nothing
-       will be done.
+       will be done. Default: false.
 
 .. option:: end_fsync=bool
 
-       If true, fsync file contents when a write stage has completed.
+       If true, :manpage:`fsync(2)` file contents when a write stage has completed.
+       Default: false.
 
 .. option:: fsync_on_close=bool
 
        If true, fio will :manpage:`fsync(2)` a dirty file on close.  This differs
-       from end_fsync in that it will happen on every file close, not just at the
-       end of the job.
+       from :option:`end_fsync` in that it will happen on every file close, not
+       just at the end of the job.  Default: false.
 
 .. option:: rwmixread=int
 
@@ -1175,30 +1241,30 @@ I/O type
                **pareto**
                                Pareto distribution
 
-               **gauss**
+               **normal**
                                Normal (Gaussian) distribution
 
                **zoned**
                                Zoned random distribution
 
        When using a **zipf** or **pareto** distribution, an input value is also
-       needed to define the access pattern. For **zipf**, this is the `zipf
+       needed to define the access pattern. For **zipf**, this is the `Zipf
        theta`. For **pareto**, it's the `Pareto power`. Fio includes a test
-       program, :command:`genzipf`, that can be used visualize what the given input
+       program, :command:`fio-genzipf`, that can be used visualize what the given input
        values will yield in terms of hit rates.  If you wanted to use **zipf** with
        a `theta` of 1.2, you would use ``random_distribution=zipf:1.2`` as the
        option. If a non-uniform model is used, fio will disable use of the random
-       map. For the **gauss** distribution, a normal deviation is supplied as a
-       value between 0 and 100.
+       map. For the **normal** distribution, a normal (Gaussian) deviation is
+       supplied as a value between 0 and 100.
 
        For a **zoned** distribution, fio supports specifying percentages of I/O
        access that should fall within what range of the file or device. For
        example, given a criteria of:
 
-       * 60% of accesses should be to the first 10%
-       * 30% of accesses should be to the next 20%
-       * 8% of accesses should be to to the next 30%
-       * 2% of accesses should be to the next 40%
+               * 60% of accesses should be to the first 10%
+               * 30% of accesses should be to the next 20%
+               * 8% of accesses should be to the next 30%
+               * 2% of accesses should be to the next 40%
 
        we can define that through zoning of the random accesses. For the above
        example, the user would do::
@@ -1238,21 +1304,20 @@ I/O type
 
 .. option:: random_generator=str
 
-       Fio supports the following engines for generating
-       I/O offsets for random I/O:
+       Fio supports the following engines for generating I/O offsets for random I/O:
 
                **tausworthe**
-                       Strong 2^88 cycle random number generator
+                       Strong 2^88 cycle random number generator.
                **lfsr**
-                       Linear feedback shift register generator
+                       Linear feedback shift register generator.
                **tausworthe64**
-                       Strong 64-bit 2^258 cycle random number generator
+                       Strong 64-bit 2^258 cycle random number generator.
 
        **tausworthe** is a strong random number generator, but it requires tracking
        on the side if we want to ensure that blocks are only read or written
-       once. **LFSR** guarantees that we never generate the same offset twice, and
+       once. **lfsr** guarantees that we never generate the same offset twice, and
        it's also less computationally expensive. It's not a true random generator,
-       however, though for I/O purposes it's typically good enough. **LFSR** only
+       however, though for I/O purposes it's typically good enough. **lfsr** only
        works with single block sizes, not with workloads that use multiple block
        sizes. If used with such a workload, fio may read or write some blocks
        multiple times. The default value is **tausworthe**, unless the required
@@ -1285,7 +1350,7 @@ Block size
                        means default for reads, 8k for writes and trims.
 
                **bs=,8k,**
-                       means default for reads, 8k for writes, and default for writes.
+                       means default for reads, 8k for writes, and default for trims.
 
 .. option:: blocksize_range=irange[,irange][,irange], bsrange=irange[,irange][,irange]
 
@@ -1335,7 +1400,7 @@ Block size
        typically won't work with direct I/O, as that normally requires sector
        alignment.
 
-.. option:: bs_is_seq_rand
+.. option:: bs_is_seq_rand=bool
 
        If this option is set, fio will use the normal read,write blocksize settings
        as sequential,random blocksize settings instead. Any random read or write
@@ -1377,8 +1442,8 @@ Buffers and memory
 .. option:: buffer_compress_percentage=int
 
        If this is set, then fio will attempt to provide I/O buffer content (on
-       WRITEs) that compress to the specified level. Fio does this by providing a
-       mix of random data and a fixed pattern. The fixed pattern is either zeroes,
+       WRITEs) that compresses to the specified level. Fio does this by providing a
+       mix of random data and a fixed pattern. The fixed pattern is either zeros,
        or the pattern specified by :option:`buffer_pattern`. If the pattern option
        is used, it might skew the compression ratio slightly. Note that this is per
        block size unit, for file/disk wide compression level that matches this
@@ -1395,11 +1460,18 @@ Buffers and memory
 
 .. option:: buffer_pattern=str
 
-       If set, fio will fill the I/O buffers with this pattern. If not set, the
-       contents of I/O buffers is defined by the other options related to buffer
-       contents. The setting can be any pattern of bytes, and can be prefixed with
-       0x for hex values. It may also be a string, where the string must then be
-       wrapped with ``""``, e.g.::
+       If set, fio will fill the I/O buffers with this pattern or with the contents
+       of a file. If not set, the contents of I/O buffers are defined by the other
+       options related to buffer contents. The setting can be any pattern of bytes,
+       and can be prefixed with 0x for hex values. It may also be a string, where
+       the string must then be wrapped with ``""``. Or it may also be a filename,
+       where the filename must be wrapped with ``''`` in which case the file is
+       opened and read. Note that not all the file contents will be read if that
+       would cause the buffers to overflow. So, for example::
+
+               buffer_pattern='filename'
+
+       or::
 
                buffer_pattern="abcd"
 
@@ -1413,7 +1485,7 @@ Buffers and memory
 
        Also you can combine everything together in any order::
 
-               buffer_pattern=0xdeadface"abcd"-12
+               buffer_pattern=0xdeadface"abcd"-12'filename'
 
 .. option:: dedupe_percentage=int
 
@@ -1425,8 +1497,8 @@ Buffers and memory
 
 .. option:: invalidate=bool
 
-       Invalidate the buffer/page cache parts for this file prior to starting
-       I/O if the platform and file type support it. Defaults to true.
+       Invalidate the buffer/page cache parts of the files to be used prior to
+       starting I/O if the platform and file type support it.  Defaults to true.
        This will be ignored if :option:`pre_read` is also specified for the
        same job.
 
@@ -1452,7 +1524,7 @@ Buffers and memory
                        Same as shm, but use huge pages as backing.
 
                **mmap**
-                       Use mmap to allocate buffers. May either be anonymous memory, or can
+                       Use :manpage:`mmap(2)` to allocate buffers. May either be anonymous memory, or can
                        be file backed if a filename is given after the option. The format
                        is `mem=mmap:/path/to/file`.
 
@@ -1463,6 +1535,10 @@ Buffers and memory
                **mmapshared**
                        Same as mmap, but use a MMAP_SHARED mapping.
 
+               **cudamalloc**
+                       Use GPU memory as the buffers for GPUDirect RDMA benchmark.
+                       The :option:`ioengine` must be `rdma`.
+
        The area allocated is a function of the maximum allowed bs size for the job,
        multiplied by the I/O depth given. Note that for **shmhuge** and
        **mmaphuge** to work, the system must have free huge pages allocated. This
@@ -1480,7 +1556,7 @@ Buffers and memory
        should point there. So if it's mounted in :file:`/huge`, you would use
        `mem=mmaphuge:/huge/somefile`.
 
-.. option:: iomem_align=int
+.. option:: iomem_align=int, mem_align=int
 
        This indicates the memory alignment of the I/O memory buffers.  Note that
        the given alignment is applied to the first I/O unit buffer, if using
@@ -1535,7 +1611,7 @@ I/O size
        and :option:`io_size` is set to 40GiB, then fio will do 40GiB of I/O within
        the 0..20GiB region.
 
-.. option:: filesize=int
+.. option:: filesize=irange(int)
 
        Individual file sizes. May be a range, in which case fio will select sizes
        for files at random within the given range and limited to :option:`size` in
@@ -1570,6 +1646,7 @@ I/O engine
                **sync**
                        Basic :manpage:`read(2)` or :manpage:`write(2)`
                        I/O. :manpage:`lseek(2)` is used to position the I/O location.
+                       See :option:`fsync` and :option:`fdatasync` for syncing write I/Os.
 
                **psync**
                        Basic :manpage:`pread(2)` or :manpage:`pwrite(2)` I/O.  Default on
@@ -1587,7 +1664,7 @@ I/O engine
 
                **libaio**
                        Linux native asynchronous I/O. Note that Linux may only support
-                       queued behaviour with non-buffered I/O (set ``direct=1`` or
+                       queued behavior with non-buffered I/O (set ``direct=1`` or
                        ``buffered=0``).
                        This engine defines engine specific options.
 
@@ -1614,8 +1691,8 @@ I/O engine
                        SCSI generic sg v3 I/O. May either be synchronous using the SG_IO
                        ioctl, or if the target is an sg character device we use
                        :manpage:`read(2)` and :manpage:`write(2)` for asynchronous
-                       I/O. Requires filename option to specify either block or character
-                       devices.
+                       I/O. Requires :option:`filename` option to specify either block or
+                       character devices.
 
                **null**
                        Doesn't transfer any data, just pretends to.  This is mainly used to
@@ -1637,9 +1714,9 @@ I/O engine
                **cpuio**
                        Doesn't transfer any data, but burns CPU cycles according to the
                        :option:`cpuload` and :option:`cpuchunks` options. Setting
-                       :option:`cpuload` =85 will cause that job to do nothing but burn 85%
-                       of the CPU. In case of SMP machines, use :option:`numjobs`
-                       =<no_of_cpu> to get desired CPU usage, as the cpuload only loads a
+                       :option:`cpuload`\=85 will cause that job to do nothing but burn 85%
+                       of the CPU. In case of SMP machines, use :option:`numjobs`=<nr_of_cpu>
+                       to get desired CPU usage, as the cpuload only loads a
                        single CPU at the desired rate. A job never finishes unless there is
                        at least one non-cpuio job.
 
@@ -1669,6 +1746,11 @@ I/O engine
                        DDIR_TRIM
                                does fallocate(,mode = FALLOC_FL_KEEP_SIZE|FALLOC_FL_PUNCH_HOLE).
 
+               **ftruncate**
+                       I/O engine that sends :manpage:`ftruncate(2)` operations in response
+                       to write (DDIR_WRITE) events. Each ftruncate issued sets the file's
+                       size to the current block offset. :option:`blocksize` is ignored.
+
                **e4defrag**
                        I/O engine that does regular EXT4_IOC_MOVE_EXT ioctls to simulate
                        defragment activity in request to DDIR_WRITE event.
@@ -1679,26 +1761,26 @@ I/O engine
                        ioengine defines engine specific options.
 
                **gfapi**
-                       Using Glusterfs libgfapi sync interface to direct access to
-                       Glusterfs volumes without having to go through FUSE.  This ioengine
+                       Using GlusterFS libgfapi sync interface to direct access to
+                       GlusterFS volumes without having to go through FUSE.  This ioengine
                        defines engine specific options.
 
                **gfapi_async**
-                       Using Glusterfs libgfapi async interface to direct access to
-                       Glusterfs volumes without having to go through FUSE. This ioengine
+                       Using GlusterFS libgfapi async interface to direct access to
+                       GlusterFS volumes without having to go through FUSE. This ioengine
                        defines engine specific options.
 
                **libhdfs**
-                       Read and write through Hadoop (HDFS).  The :file:`filename` option
+                       Read and write through Hadoop (HDFS).  The :option:`filename` option
                        is used to specify host,port of the hdfs name-node to connect.  This
                        engine interprets offsets a little differently.  In HDFS, files once
-                       created cannot be modified.  So random writes are not possible. To
-                       imitate this, libhdfs engine expects bunch of small files to be
-                       created over HDFS, and engine will randomly pick a file out of those
-                       files based on the offset generated by fio backend. (see the example
+                       created cannot be modified so random writes are not possible. To
+                       imitate this the libhdfs engine expects a bunch of small files to be
+                       created over HDFS and will randomly pick a file from them
+                       based on the offset generated by fio backend (see the example
                        job file to create such files, use ``rw=write`` option). Please
-                       note, you might want to set necessary environment variables to work
-                       with hdfs/libhdfs properly.  Each job uses its own connection to
+                       note, it may be necessary to set environment variables to work
+                       with HDFS/libhdfs properly.  Each job uses its own connection to
                        HDFS.
 
                **mtd**
@@ -1706,7 +1788,7 @@ I/O engine
                        :file:`/dev/mtd0`). Discards are treated as erases. Depending on the
                        underlying device type, the I/O may have to go in a certain pattern,
                        e.g., on NAND, writing sequentially to erase blocks and discarding
-                       before overwriting. The writetrim mode works well for this
+                       before overwriting. The `trimwrite` mode works well for this
                        constraint.
 
                **pmemblk**
@@ -1721,15 +1803,21 @@ I/O engine
                **external**
                        Prefix to specify loading an external I/O engine object file. Append
                        the engine filename, e.g. ``ioengine=external:/tmp/foo.o`` to load
-                       ioengine :file:`foo.o` in :file:`/tmp`.
+                       ioengine :file:`foo.o` in :file:`/tmp`. The path can be either
+                       absolute or relative. See :file:`engines/skeleton_external.c` for
+                       details of writing an external I/O engine.
 
+               **filecreate**
+                       Simply create the files and do no IO to them.  You still need to
+                       set  `filesize` so that all the accounting still occurs, but no
+                       actual IO will be done other than creating the file.
 
 I/O engine specific parameters
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
 In addition, there are some parameters which are only valid when a specific
-ioengine is in use. These are used identically to normal parameters, with the
-caveat that when used on the command line, they must come after the
+:option:`ioengine` is in use. These are used identically to normal parameters,
+with the caveat that when used on the command line, they must come after the
 :option:`ioengine` that defines them is selected.
 
 .. option:: userspace_reap : [libaio]
@@ -1745,9 +1833,15 @@ caveat that when used on the command line, they must come after the
        Set RWF_HIPRI on I/O, indicating to the kernel that it's of higher priority
        than normal.
 
+.. option:: hipri_percentage : [pvsync2]
+
+       When hipri is set this determines the probability of a pvsync2 I/O being high
+       priority. The default is 100%.
+
 .. option:: cpuload=int : [cpuio]
 
-       Attempt to use the specified percentage of CPU cycles.
+       Attempt to use the specified percentage of CPU cycles. This is a mandatory
+       option when using cpuio I/O engine.
 
 .. option:: cpuchunks=int : [cpuio]
 
@@ -1757,18 +1851,16 @@ caveat that when used on the command line, they must come after the
 
        Detect when I/O threads are done, then exit.
 
-.. option:: hostname=str : [netsplice] [net]
-
-       The host name or IP address to use for TCP or UDP based I/O.  If the job is
-       a TCP listener or UDP reader, the host name is not used and must be omitted
-       unless it is a valid UDP multicast address.
-
 .. option:: namenode=str : [libhdfs]
 
-       The host name or IP address of a HDFS cluster namenode to contact.
+       The hostname or IP address of a HDFS cluster namenode to contact.
 
 .. option:: port=int
 
+   [libhdfs]
+
+               The listening port of the HFDS cluster namenode.
+
    [netsplice], [net]
 
                The TCP or UDP port to bind to or connect to. If this is used with
@@ -1776,9 +1868,11 @@ caveat that when used on the command line, they must come after the
                this will be the starting port number since fio will use a range of
                ports.
 
-   [libhdfs]
+.. option:: hostname=str : [netsplice] [net]
 
-               the listening port of the HFDS cluster namenode.
+       The hostname or IP address to use for TCP or UDP based I/O.  If the job is
+       a TCP listener or UDP reader, the hostname is not used and must be omitted
+       unless it is a valid UDP multicast address.
 
 .. option:: interface=str : [netsplice] [net]
 
@@ -1793,9 +1887,7 @@ caveat that when used on the command line, they must come after the
 
        Set TCP_NODELAY on TCP connections.
 
-.. option:: protocol=str : [netsplice] [net]
-
-.. option:: proto=str : [netsplice] [net]
+.. option:: protocol=str, proto=str : [netsplice] [net]
 
        The network protocol to use. Accepted values are:
 
@@ -1812,15 +1904,15 @@ caveat that when used on the command line, they must come after the
 
        When the protocol is TCP or UDP, the port must also be given, as well as the
        hostname if the job is a TCP listener or UDP reader. For unix sockets, the
-       normal filename option should be used and the port is invalid.
+       normal :option:`filename` option should be used and the port is invalid.
 
-.. option:: listen : [net]
+.. option:: listen : [netsplice] [net]
 
        For TCP network connections, tell fio to listen for incoming connections
        rather than initiating an outgoing connection. The :option:`hostname` must
        be omitted if this option is used.
 
-.. option:: pingpong : [net]
+.. option:: pingpong : [netsplice] [net]
 
        Normally a network writer will just continue writing data, and a network
        reader will just consume packages. If ``pingpong=1`` is set, a writer will
@@ -1832,17 +1924,17 @@ caveat that when used on the command line, they must come after the
        ``pingpong=1`` should only be set for a single reader when multiple readers
        are listening to the same address.
 
-.. option:: window_size : [net]
+.. option:: window_size : [netsplice] [net]
 
        Set the desired socket buffer size for the connection.
 
-.. option:: mss : [net]
+.. option:: mss : [netsplice] [net]
 
        Set the TCP maximum segment size (TCP_MAXSEG).
 
 .. option:: donorname=str : [e4defrag]
 
-       File will be used as a block donor(swap extents between files).
+       File will be used as a block donor (swap extents between files).
 
 .. option:: inplace=int : [e4defrag]
 
@@ -1851,7 +1943,7 @@ caveat that when used on the command line, they must come after the
        **0**
                Default. Preallocate donor's file on init.
        **1**
-               Allocate space immediately inside defragment event,     and free right
+               Allocate space immediately inside defragment event, and free right
                after event.
 
 .. option:: clustername=str : [rbd]
@@ -1883,7 +1975,7 @@ caveat that when used on the command line, they must come after the
 
 .. option:: chunk_size : [libhdfs]
 
-       the size of the chunk to use for each file.
+       The size of the chunk to use for each file.
 
 
 I/O depth
@@ -1896,7 +1988,7 @@ I/O depth
        for small degrees when :option:`verify_async` is in use).  Even async
        engines may impose OS restrictions causing the desired depth not to be
        achieved.  This may happen on Linux when using libaio and not setting
-       :option:`direct` =1, since buffered I/O is not async on that OS.  Keep an
+       :option:`direct`\=1, since buffered I/O is not async on that OS.  Keep an
        eye on the I/O depth distribution in the fio output to verify that the
        achieved depth is as expected. Default: 1.
 
@@ -1919,9 +2011,9 @@ I/O depth
 .. option:: iodepth_batch_complete_max=int
 
        This defines maximum pieces of I/O to retrieve at once. This variable should
-       be used along with :option:`iodepth_batch_complete_min` =int variable,
+       be used along with :option:`iodepth_batch_complete_min`\=int variable,
        specifying the range of min and max amount of I/O which should be
-       retrieved. By default it is equal to :option:`iodepth_batch_complete_min`
+       retrieved. By default it is equal to the :option:`iodepth_batch_complete_min`
        value.
 
        Example #1::
@@ -1950,6 +2042,21 @@ I/O depth
        16 requests, it will let the depth drain down to 4 before starting to fill
        it again.
 
+.. option:: serialize_overlap=bool
+
+       Serialize in-flight I/Os that might otherwise cause or suffer from data races.
+       When two or more I/Os are submitted simultaneously, there is no guarantee that
+       the I/Os will be processed or completed in the submitted order. Further, if
+       two or more of those I/Os are writes, any overlapping region between them can
+       become indeterminate/undefined on certain storage. These issues can cause
+       verification to fail erratically when at least one of the racing I/Os is
+       changing data and the overlapping region has a non-zero size. Setting
+       ``serialize_overlap`` tells fio to avoid provoking this behavior by explicitly
+       serializing in-flight I/Os that have a non-zero overlap. Note that setting
+       this option can reduce both performance and the `:option:iodepth` achieved.
+       Additionally this option does not work when :option:`io_submit_mode` is set to
+       offload. Default: false.
+
 .. option:: io_submit_mode=str
 
        This option controls how fio submits the I/O to the I/O engine. The default
@@ -1959,7 +2066,7 @@ I/O depth
        has a bit of extra overhead, especially for lower queue depth I/O where it
        can increase latencies. The benefit is that fio can manage submission rates
        independently of the device completion rates. This avoids skewed latency
-       reporting if I/O gets back up on the device side (the coordinated omission
+       reporting if I/O gets backed up on the device side (the coordinated omission
        problem).
 
 
@@ -1970,7 +2077,7 @@ I/O rate
 
        Stall the job for the specified period of time after an I/O has completed before issuing the
        next. May be used to simulate processing being done by an application.
-       When the unit is omitted, the value is given in microseconds.  See
+       When the unit is omitted, the value is interpreted in microseconds.  See
        :option:`thinktime_blocks` and :option:`thinktime_spin`.
 
 .. option:: thinktime_spin=time
@@ -1978,15 +2085,15 @@ I/O rate
        Only valid if :option:`thinktime` is set - pretend to spend CPU time doing
        something with the data received, before falling back to sleeping for the
        rest of the period specified by :option:`thinktime`.  When the unit is
-       omitted, the value is given in microseconds.
+       omitted, the value is interpreted in microseconds.
 
 .. option:: thinktime_blocks=int
 
        Only valid if :option:`thinktime` is set - control how many blocks to issue,
-       before waiting `thinktime` usecs. If not set, defaults to 1 which will make
-       fio wait `thinktime` usecs after every block. This effectively makes any
+       before waiting :option:`thinktime` usecs. If not set, defaults to 1 which will make
+       fio wait :option:`thinktime` usecs after every block. This effectively makes any
        queue depth setting redundant, since no more than 1 I/O will be queued
-       before we have to complete it and do our thinktime. In other words, this
+       before we have to complete it and do our :option:`thinktime`. In other words, this
        setting effectively caps the queue depth if the latter is larger.
 
 .. option:: rate=int[,int][,int]
@@ -1995,6 +2102,11 @@ I/O rate
        suffix rules apply.  Comma-separated values may be specified for reads,
        writes, and trims as described in :option:`blocksize`.
 
+       For example, using `rate=1m,500k` would limit reads to 1MiB/sec and writes to
+       500KiB/sec.  Capping only reads or writes can be done with `rate=,500k` or
+       `rate=500k,` where the former will only limit writes (to 500KiB/sec) and the
+       latter will only limit reads.
+
 .. option:: rate_min=int[,int][,int]
 
        Tell fio to do whatever it can to maintain at least this bandwidth. Failing
@@ -2034,14 +2146,14 @@ I/O latency
 
        If set, fio will attempt to find the max performance point that the given
        workload will run at while maintaining a latency below this target.  When
-       the unit is omitted, the value is given in microseconds.  See
+       the unit is omitted, the value is interpreted in microseconds.  See
        :option:`latency_window` and :option:`latency_percentile`.
 
 .. option:: latency_window=time
 
        Used with :option:`latency_target` to specify the sample window that the job
        is run at varying queue depths to test the performance.  When the unit is
-       omitted, the value is given in microseconds.
+       omitted, the value is interpreted in microseconds.
 
 .. option:: latency_percentile=float
 
@@ -2053,13 +2165,13 @@ I/O latency
 .. option:: max_latency=time
 
        If set, fio will exit the job with an ETIMEDOUT error if it exceeds this
-       maximum latency. When the unit is omitted, the value is given in
+       maximum latency. When the unit is omitted, the value is interpreted in
        microseconds.
 
 .. option:: rate_cycle=int
 
        Average bandwidth for :option:`rate` and :option:`rate_min` over this number
-       of milliseconds.
+       of milliseconds. Defaults to 1000.
 
 
 I/O replay
@@ -2073,7 +2185,7 @@ I/O replay
 
 .. option:: read_iolog=str
 
-       Open an iolog with the specified file name and replay the I/O patterns it
+       Open an iolog with the specified filename and replay the I/O patterns it
        contains. This can be used to store a workload and replay it sometime
        later. The iolog given may also be a blktrace binary file, which allows fio
        to replay a workload captured by :command:`blktrace`. See
@@ -2081,10 +2193,10 @@ I/O replay
        replay, the file needs to be turned into a blkparse binary data file first
        (``blkparse <device> -o /dev/null -d file_for_fio.bin``).
 
-.. option:: replay_no_stall=int
+.. option:: replay_no_stall=bool
 
        When replaying I/O with :option:`read_iolog` the default behavior is to
-       attempt to respect the time stamps within the log and replay them with the
+       attempt to respect the timestamps within the log and replay them with the
        appropriate delay between IOPS. By setting this variable fio will not
        respect the timestamps and attempt to replay them as fast as possible while
        still respecting ordering. The result is the same I/O pattern to a given
@@ -2097,9 +2209,9 @@ I/O replay
        from.  This is sometimes undesirable because on a different machine those
        major/minor numbers can map to a different device.  Changing hardware on the
        same system can also result in a different major/minor mapping.
-       ``replay_redirect`` causes all IOPS to be replayed onto the single specified
+       ``replay_redirect`` causes all I/Os to be replayed onto the single specified
        device regardless of the device it was recorded
-       from. i.e. :option:`replay_redirect` = :file:`/dev/sdc` would cause all I/O
+       from. i.e. :option:`replay_redirect`\= :file:`/dev/sdc` would cause all I/O
        in the blktrace or iolog to be replayed onto :file:`/dev/sdc`.  This means
        multiple devices will be replayed onto a single device, if the trace
        contains multiple devices. If you want multiple devices to be replayed
@@ -2123,15 +2235,14 @@ Threads, processes and job synchronization
 
 .. option:: thread
 
-       Fio defaults to forking jobs, however if this option is given, fio will use
-       POSIX Threads function :manpage:`pthread_create(3)` to create threads instead
-       of forking processes.
+       Fio defaults to creating jobs by using fork, however if this option is
+       given, fio will create jobs by using POSIX Threads' function
+       :manpage:`pthread_create(3)` to create threads instead.
 
 .. option:: wait_for=str
 
-       Specifies the name of the already defined job to wait for. Single waitee
-       name only may be specified. If set, the job won't be started until all
-       workers of the waitee job are done.
+       If set, the current job won't be started until all workers of the specified
+       waitee job are done.
 
        ``wait_for`` operates on the job name basis, so there are a few
        limitations. First, the waitee must be defined prior to the waiter job
@@ -2159,8 +2270,8 @@ Threads, processes and job synchronization
 
 .. option:: cpumask=int
 
-       Set the CPU affinity of this job. The parameter given is a bitmask of
-       allowed CPU's the job may run on. So if you want the allowed CPUs to be 1
+       Set the CPU affinity of this job. The parameter given is a bit mask of
+       allowed CPUs the job may run on. So if you want the allowed CPUs to be 1
        and 5, you would pass the decimal value of (1 << 1 | 1 << 5), or 34. See man
        :manpage:`sched_setaffinity(2)`. This may not work on all supported
        operating systems or kernel versions. This option doesn't work well for a
@@ -2170,23 +2281,23 @@ Threads, processes and job synchronization
 
 .. option:: cpus_allowed=str
 
-       Controls the same options as :option:`cpumask`, but it allows a text setting
-       of the permitted CPUs instead. So to use CPUs 1 and 5, you would specify
-       ``cpus_allowed=1,5``. This options also allows a range of CPUs. Say you
-       wanted a binding to CPUs 1, 5, and 8-15, you would set
-       ``cpus_allowed=1,5,8-15``.
+       Controls the same options as :option:`cpumask`, but accepts a textual
+       specification of the permitted CPUs instead. So to use CPUs 1 and 5 you
+       would specify ``cpus_allowed=1,5``. This option also allows a range of CPUs
+       to be specified -- say you wanted a binding to CPUs 1, 5, and 8 to 15, you
+       would set ``cpus_allowed=1,5,8-15``.
 
 .. option:: cpus_allowed_policy=str
 
        Set the policy of how fio distributes the CPUs specified by
-       :option:`cpus_allowed` or cpumask. Two policies are supported:
+       :option:`cpus_allowed` or :option:`cpumask`. Two policies are supported:
 
                **shared**
                        All jobs will share the CPU set specified.
                **split**
                        Each job will get a unique CPU from the CPU set.
 
-       **shared** is the default behaviour, if the option isn't specified. If
+       **shared** is the default behavior, if the option isn't specified. If
        **split** is specified, then fio will will assign one cpu per job. If not
        enough CPUs are given for the jobs listed, then fio will roundrobin the CPUs
        in the set.
@@ -2195,7 +2306,7 @@ Threads, processes and job synchronization
 
        Set this job running on specified NUMA nodes' CPUs. The arguments allow
        comma delimited list of cpu numbers, A-B ranges, or `all`. Note, to enable
-       numa options support, fio must be built on a system with libnuma-dev(el)
+       NUMA options support, fio must be built on a system with libnuma-dev(el)
        installed.
 
 .. option:: numa_mem_policy=str
@@ -2205,11 +2316,11 @@ Threads, processes and job synchronization
 
                <mode>[:<nodelist>]
 
-       ``mode`` is one of the following memory policy: ``default``, ``prefer``,
-       ``bind``, ``interleave``, ``local`` For ``default`` and ``local`` memory
-       policy, no node is needed to be specified.  For ``prefer``, only one node is
-       allowed.  For ``bind`` and ``interleave``, it allow comma delimited list of
-       numbers, A-B ranges, or `all`.
+       ``mode`` is one of the following memory poicies: ``default``, ``prefer``,
+       ``bind``, ``interleave`` or ``local``. For ``default`` and ``local`` memory
+       policies, no node needs to be specified.  For ``prefer``, only one node is
+       allowed.  For ``bind`` and ``interleave`` the ``nodelist`` may be as
+       follows: a comma delimited list of numbers, A-B ranges, or `all`.
 
 .. option:: cgroup=str
 
@@ -2265,8 +2376,9 @@ Threads, processes and job synchronization
 
 .. option:: exitall
 
-       When one job finishes, terminate the rest. The default is to wait for each
-       job to finish, sometimes that is not the desired action.
+       By default, fio will continue running all other jobs when one job finishes
+       but sometimes this is not the desired action.  Setting ``exitall`` will
+       instead make fio terminate all other jobs when one job finishes.
 
 .. option:: exec_prerun=str
 
@@ -2324,13 +2436,14 @@ Verification
                        header of each block.
 
                **crc32c**
-                       Use a crc32c sum of the data area and store it in the header of each
-                       block.
+                       Use a crc32c sum of the data area and store it in the header of
+                       each block. This will automatically use hardware acceleration
+                       (e.g. SSE4.2 on an x86 or CRC crypto extensions on ARM64) but will
+                       fall back to software crc32c if none is found. Generally the
+                       fatest checksum fio supports when hardware accelerated.
 
                **crc32c-intel**
-                       Use hardware assisted crc32c calculation provided on SSE4.2 enabled
-                       processors. Falls back to regular software crc32c, if not supported
-                       by the system.
+                       Synonym for crc32c.
 
                **crc32**
                        Use a crc32 sum of the data area and store it in the header of each
@@ -2383,7 +2496,7 @@ Verification
 
                **null**
                        Only pretend to verify. Useful for testing internals with
-                       :option:`ioengine` `=null`, not for much else.
+                       :option:`ioengine`\=null, not for much else.
 
        This option can be used for repeated burn-in tests of a system to make sure
        that the written data is also correctly read back. If the data direction
@@ -2401,7 +2514,7 @@ Verification
 
 .. option:: verifysort_nr=int
 
-   Pre-load and sort verify blocks for a read workload.
+       Pre-load and sort verify blocks for a read workload.
 
 .. option:: verify_offset=int
 
@@ -2419,7 +2532,7 @@ Verification
        If set, fio will fill the I/O buffers with this pattern. Fio defaults to
        filling with totally random bytes, but sometimes it's interesting to fill
        with a known pattern for I/O verification purposes. Depending on the width
-       of the pattern, fio will fill 1/2/3/4 bytes of the buffer at the time(it can
+       of the pattern, fio will fill 1/2/3/4 bytes of the buffer at the time (it can
        be either a decimal or a hex number).  The ``verify_pattern`` if larger than
        a 32-bit quantity has to be a hex number that starts with either "0x" or
        "0X". Use with :option:`verify`. Also, ``verify_pattern`` supports %o
@@ -2452,6 +2565,7 @@ Verification
        contents to one or more separate threads. If using this offload option, even
        sync I/O engines can benefit from using an :option:`iodepth` setting higher
        than 1, as it allows them to have I/O in flight while verifies are running.
+       Defaults to 0 async threads, i.e. verification is not asynchronous.
 
 .. option:: verify_async_cpus=str
 
@@ -2484,18 +2598,19 @@ Verification
        state is loaded for the verify read phase. The format of the filename is,
        roughly::
 
-       <type>-<jobname>-<jobindex>-verify.state.
+               <type>-<jobname>-<jobindex>-verify.state.
 
        <type> is "local" for a local run, "sock" for a client/server socket
        connection, and "ip" (192.168.0.1, for instance) for a networked
-       client/server connection.
+       client/server connection. Defaults to true.
 
 .. option:: verify_state_load=bool
 
        If a verify termination trigger was used, fio stores the current write state
        of each thread. This can be used at verification time so that fio knows how
        far it should verify.  Without this information, fio will run a full
-       verification pass, according to the settings in the job file used.
+       verification pass, according to the settings in the job file used.  Default
+       false.
 
 .. option:: trim_percentage=int
 
@@ -2503,11 +2618,11 @@ Verification
 
 .. option:: trim_verify_zero=bool
 
-       Verify that trim/discarded blocks are returned as zeroes.
+       Verify that trim/discarded blocks are returned as zeros.
 
 .. option:: trim_backlog=int
 
-       Verify that trim/discarded blocks are returned as zeroes.
+       Trim after this number of blocks are written.
 
 .. option:: trim_backlog_batch=int
 
@@ -2517,7 +2632,6 @@ Verification
 
        Enable experimental verification.
 
-
 Steady state
 ~~~~~~~~~~~~
 
@@ -2558,13 +2672,13 @@ Steady state
        A rolling window of this duration will be used to judge whether steady state
        has been reached. Data will be collected once per second. The default is 0
        which disables steady state detection.  When the unit is omitted, the
-       value is given in seconds.
+       value is interpreted in seconds.
 
 .. option:: steadystate_ramp_time=time, ss_ramp=time
 
        Allow the job to run for the specified duration before beginning data
        collection for checking the steady state job termination criterion. The
-       default is 0.  When the unit is omitted, the value is given in seconds.
+       default is 0.  When the unit is omitted, the value is interpreted in seconds.
 
 
 Measurements and reporting
@@ -2592,12 +2706,18 @@ Measurements and reporting
        all jobs in a file will be part of the same reporting group, unless
        separated by a :option:`stonewall`.
 
+.. option:: stats=bool
+
+       By default, fio collects and shows final output results for all jobs
+       that run. If this option is set to 0, then fio will ignore it in
+       the final stat output.
+
 .. option:: write_bw_log=str
 
        If given, write a bandwidth log for this job. Can be used to store data of
        the bandwidth of the jobs in their lifetime. The included
        :command:`fio_generate_plots` script uses :command:`gnuplot` to turn these
-       text files into nice graphs. See :option:`write_lat_log` for behaviour of
+       text files into nice graphs. See :option:`write_lat_log` for behavior of
        given filename. For this option, the postfix is :file:`_bw.x.log`, where `x`
        is the index of the job (`1..N`, where `N` is the number of jobs). If
        :option:`per_job_logs` is false, then the filename will not include the job
@@ -2614,8 +2734,8 @@ Measurements and reporting
                write_lat_log=foo
 
        The actual log names will be :file:`foo_slat.x.log`, :file:`foo_clat.x.log`,
-       and :file:`foo_lat.x.log`, where `x` is the index of the job (1..N, where N
-       is the number of jobs). This helps :command:`fio_generate_plot` find the
+       and :file:`foo_lat.x.log`, where `x` is the index of the job (`1..N`, where `N`
+       is the number of jobs). This helps :command:`fio_generate_plots` find the
        logs automatically. If :option:`per_job_logs` is false, then the filename
        will not include the job index.  See `Log File Formats`_.
 
@@ -2624,7 +2744,7 @@ Measurements and reporting
        Same as :option:`write_lat_log`, but writes I/O completion latency
        histograms. If no filename is given with this option, the default filename
        of :file:`jobname_clat_hist.x.log` is used, where `x` is the index of the
-       job (1..N, where `N` is the number of jobs). Even if the filename is given,
+       job (`1..N`, where `N` is the number of jobs). Even if the filename is given,
        fio will still append the type of log.  If :option:`per_job_logs` is false,
        then the filename will not include the job index. See `Log File Formats`_.
 
@@ -2632,7 +2752,7 @@ Measurements and reporting
 
        Same as :option:`write_bw_log`, but writes IOPS. If no filename is given
        with this option, the default filename of :file:`jobname_type.x.log` is
-       used,where `x` is the index of the job (1..N, where `N` is the number of
+       used, where `x` is the index of the job (`1..N`, where `N` is the number of
        jobs). Even if the filename is given, fio will still append the type of
        log. If :option:`per_job_logs` is false, then the filename will not include
        the job index. See `Log File Formats`_.
@@ -2644,6 +2764,7 @@ Measurements and reporting
        very large size. Setting this option makes fio average the each log entry
        over the specified period of time, reducing the resolution of the log.  See
        :option:`log_max_value` as well. Defaults to 0, logging all entries.
+       Also see `Log File Formats`_.
 
 .. option:: log_hist_msec=int
 
@@ -2668,10 +2789,11 @@ Measurements and reporting
        you instead want to log the maximum value, set this option to 1. Defaults to
        0, meaning that averaged values are logged.
 
-.. option:: log_offset=int
+.. option:: log_offset=bool
 
        If this is set, the iolog options will include the byte offset for the I/O
-       entry as well as the other data values.
+       entry as well as the other data values. Defaults to 0 meaning that
+       offsets are not present in logs. Also see `Log File Formats`_.
 
 .. option:: log_compression=int
 
@@ -2745,7 +2867,7 @@ Measurements and reporting
 .. option:: disable_slat=bool
 
        Disable measurements of submission latency numbers. See
-       :option:`disable_slat`.
+       :option:`disable_lat`.
 
 .. option:: disable_bw_measurement=bool, disable_bw=bool
 
@@ -2754,7 +2876,15 @@ Measurements and reporting
 
 .. option:: clat_percentiles=bool
 
-       Enable the reporting of percentiles of completion latencies.
+       Enable the reporting of percentiles of completion latencies.  This
+       option is mutually exclusive with :option:`lat_percentiles`.
+
+.. option:: lat_percentiles=bool
+
+       Enable the reporting of percentiles of IO latencies. This is similar
+       to :option:`clat_percentiles`, except that this includes the
+       submission latency. This option is mutually exclusive with
+       :option:`clat_percentiles`.
 
 .. option:: percentile_list=float_list
 
@@ -2813,7 +2943,8 @@ Error handling
 .. option:: ignore_error=str
 
        Sometimes you want to ignore some errors during test in that case you can
-       specify error list for each error type.
+       specify error list for each error type, instead of only being able to
+       ignore the default 'non-fatal error' using :option:`continue_on_error`.
        ``ignore_error=READ_ERR_LIST,WRITE_ERR_LIST,VERIFY_ERR_LIST`` errors for
        given error type is separated with ':'. Error may be symbol ('ENOSPC',
        'ENOMEM') or integer.  Example::
@@ -2821,7 +2952,8 @@ Error handling
                ignore_error=EAGAIN,ENOSPC:122
 
        This option will ignore EAGAIN from READ, and ENOSPC and 122(EDQUOT) from
-       WRITE.
+       WRITE. This option works by overriding :option:`continue_on_error` with
+       the list of errors for each error type if any.
 
 .. option:: error_dump=bool
 
@@ -2847,7 +2979,7 @@ other tools.
 To view a profile's additional options use :option:`--cmdhelp` after specifying
 the profile.  For example::
 
-$ fio --profile=act --cmdhelp
+       $ fio --profile=act --cmdhelp
 
 Act profile options
 ~~~~~~~~~~~~~~~~~~~
@@ -2865,12 +2997,13 @@ Act profile options
 .. option:: test-duration=time
        :noindex:
 
-       How long the entire test takes to run.  Default: 24h.
+       How long the entire test takes to run.  When the unit is omitted, the value
+       is given in seconds.  Default: 24h.
 
 .. option:: threads-per-queue=int
        :noindex:
 
-       Number of read IO threads per device.  Default: 8.
+       Number of read I/O threads per device.  Default: 8.
 
 .. option:: read-req-num-512-blocks=int
        :noindex:
@@ -2893,7 +3026,7 @@ Tiobench profile options
 .. option:: size=str
        :noindex:
 
-       Size in MiB
+       Size in MiB.
 
 .. option:: block=int
        :noindex:
@@ -2918,13 +3051,20 @@ Tiobench profile options
 Interpreting the output
 -----------------------
 
+..
+       Example output was based on the following:
+       TZ=UTC fio --iodepth=8 --ioengine=null --size=100M --time_based \
+               --rate=1256k --bs=14K --name=quick --runtime=1s --name=mixed \
+               --runtime=2m --rw=rw
+
 Fio spits out a lot of output. While running, fio will display the status of the
 jobs created. An example of that would be::
 
     Jobs: 1 (f=1): [_(1),M(1)][24.8%][r=20.5MiB/s,w=23.5MiB/s][r=82,w=94 IOPS][eta 01m:31s]
 
-The characters inside the square brackets denote the current status of each
-thread. The possible values (in typical life cycle order) are:
+The characters inside the first set of square brackets denote the current status of
+each thread.  The first character is the first job defined in the job file, and so
+forth.  The possible values (in typical life cycle order) are:
 
 +------+-----+-----------------------------------------------------------+
 | Idle | Run |                                                           |
@@ -2937,6 +3077,8 @@ thread. The possible values (in typical life cycle order) are:
 +------+-----+-----------------------------------------------------------+
 |      |  p  | Thread running pre-reading file(s).                       |
 +------+-----+-----------------------------------------------------------+
+|      |  /  | Thread is in ramp period.                                 |
++------+-----+-----------------------------------------------------------+
 |      |  R  | Running, doing sequential reads.                          |
 +------+-----+-----------------------------------------------------------+
 |      |  r  | Running, doing random reads.                              |
@@ -2949,77 +3091,103 @@ thread. The possible values (in typical life cycle order) are:
 +------+-----+-----------------------------------------------------------+
 |      |  m  | Running, doing mixed random reads/writes.                 |
 +------+-----+-----------------------------------------------------------+
-|      |  F  | Running, currently waiting for :manpage:`fsync(2)`        |
+|      |  D  | Running, doing sequential trims.                          |
++------+-----+-----------------------------------------------------------+
+|      |  d  | Running, doing random trims.                              |
++------+-----+-----------------------------------------------------------+
+|      |  F  | Running, currently waiting for :manpage:`fsync(2)`.       |
 +------+-----+-----------------------------------------------------------+
 |      |  V  | Running, doing verification of written data.              |
 +------+-----+-----------------------------------------------------------+
+| f    |     | Thread finishing.                                         |
++------+-----+-----------------------------------------------------------+
 | E    |     | Thread exited, not reaped by main thread yet.             |
 +------+-----+-----------------------------------------------------------+
-| _    |     | Thread reaped, or                                         |
+| _    |     | Thread reaped.                                            |
 +------+-----+-----------------------------------------------------------+
 | X    |     | Thread reaped, exited with an error.                      |
 +------+-----+-----------------------------------------------------------+
 | K    |     | Thread reaped, exited due to signal.                      |
 +------+-----+-----------------------------------------------------------+
 
+..
+       Example output was based on the following:
+       TZ=UTC fio --iodepth=8 --ioengine=null --size=100M --runtime=58m \
+               --time_based --rate=2512k --bs=256K --numjobs=10 \
+               --name=readers --rw=read --name=writers --rw=write
+
 Fio will condense the thread string as not to take up more space on the command
-line as is needed. For instance, if you have 10 readers and 10 writers running,
+line than needed. For instance, if you have 10 readers and 10 writers running,
 the output would look like this::
 
     Jobs: 20 (f=20): [R(10),W(10)][4.0%][r=20.5MiB/s,w=23.5MiB/s][r=82,w=94 IOPS][eta 57m:36s]
 
-Fio will still maintain the ordering, though. So the above means that jobs 1..10
-are readers, and 11..20 are writers.
+Note that the status string is displayed in order, so it's possible to tell which of
+the jobs are currently doing what.  In the example above this means that jobs 1--10
+are readers and 11--20 are writers.
 
 The other values are fairly self explanatory -- number of threads currently
-running and doing I/O, the number of currently open files (f=), the rate of I/O
-since last check (read speed listed first, then write speed and optionally trim
-speed), and the estimated completion percentage and time for the current
-running group. It's impossible to estimate runtime of the following groups (if
-any). Note that the string is displayed in order, so it's possible to tell which
-of the jobs are currently doing what. The first character is the first job
-defined in the job file, and so forth.
-
-When fio is done (or interrupted by :kbd:`ctrl-c`), it will show the data for
-each thread, group of threads, and disks in that order. For each data direction,
-the output looks like::
-
-    Client1 (g=0): err= 0:
-      write: io=    32MiB, bw=   666KiB/s, iops=89 , runt= 50320msec
-        slat (msec): min=    0, max=  136, avg= 0.03, stdev= 1.92
-        clat (msec): min=    0, max=  631, avg=48.50, stdev=86.82
-        bw (KiB/s) : min=    0, max= 1196, per=51.00%, avg=664.02, stdev=681.68
-      cpu        : usr=1.49%, sys=0.25%, ctx=7969, majf=0, minf=17
-      IO depths    : 1=0.1%, 2=0.3%, 4=0.5%, 8=99.0%, 16=0.0%, 32=0.0%, >32=0.0%
-         submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
-         complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
-         issued r/w: total=0/32768, short=0/0
-         lat (msec): 2=1.6%, 4=0.0%, 10=3.2%, 20=12.8%, 50=38.4%, 100=24.8%,
-         lat (msec): 250=15.2%, 500=0.0%, 750=0.0%, 1000=0.0%, >=2048=0.0%
-
-The client number is printed, along with the group id and error of that
-thread. Below is the I/O statistics, here for writes. In the order listed, they
-denote:
-
-**io**
-               Number of megabytes I/O performed.
-
-**bw**
-               Average bandwidth rate.
-
-**iops**
-               Average I/Os performed per second.
-
-**runt**
-               The runtime of that thread.
+running and doing I/O, the number of currently open files (f=), the estimated
+completion percentage, the rate of I/O since last check (read speed listed first,
+then write speed and optionally trim speed) in terms of bandwidth and IOPS,
+and time to completion for the current running group. It's impossible to estimate
+runtime of the following groups (if any).
+
+..
+       Example output was based on the following:
+       TZ=UTC fio --iodepth=16 --ioengine=posixaio --filename=/tmp/fiofile \
+               --direct=1 --size=100M --time_based --runtime=50s --rate_iops=89 \
+               --bs=7K --name=Client1 --rw=write
+
+When fio is done (or interrupted by :kbd:`Ctrl-C`), it will show the data for
+each thread, group of threads, and disks in that order. For each overall thread (or
+group) the output looks like::
+
+       Client1: (groupid=0, jobs=1): err= 0: pid=16109: Sat Jun 24 12:07:54 2017
+         write: IOPS=88, BW=623KiB/s (638kB/s)(30.4MiB/50032msec)
+           slat (nsec): min=500, max=145500, avg=8318.00, stdev=4781.50
+           clat (usec): min=170, max=78367, avg=4019.02, stdev=8293.31
+            lat (usec): min=174, max=78375, avg=4027.34, stdev=8291.79
+           clat percentiles (usec):
+            |  1.00th=[  302],  5.00th=[  326], 10.00th=[  343], 20.00th=[  363],
+            | 30.00th=[  392], 40.00th=[  404], 50.00th=[  416], 60.00th=[  445],
+            | 70.00th=[  816], 80.00th=[ 6718], 90.00th=[12911], 95.00th=[21627],
+            | 99.00th=[43779], 99.50th=[51643], 99.90th=[68682], 99.95th=[72877],
+            | 99.99th=[78119]
+          bw (  KiB/s): min=  532, max=  686, per=0.10%, avg=622.87, stdev=24.82, samples=  100
+          iops        : min=   76, max=   98, avg=88.98, stdev= 3.54, samples=  100
+         lat (usec)   : 250=0.04%, 500=64.11%, 750=4.81%, 1000=2.79%
+         lat (msec)   : 2=4.16%, 4=1.84%, 10=4.90%, 20=11.33%, 50=5.37%
+         lat (msec)   : 100=0.65%
+         cpu          : usr=0.27%, sys=0.18%, ctx=12072, majf=0, minf=21
+         IO depths    : 1=85.0%, 2=13.1%, 4=1.8%, 8=0.1%, 16=0.0%, 32=0.0%, >=64=0.0%
+            submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
+            complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
+            issued rwt: total=0,4450,0, short=0,0,0, dropped=0,0,0
+            latency   : target=0, window=0, percentile=100.00%, depth=8
+
+The job name (or first job's name when using :option:`group_reporting`) is printed,
+along with the group id, count of jobs being aggregated, last error id seen (which
+is 0 when there are no errors), pid/tid of that thread and the time the job/group
+completed.  Below are the I/O statistics for each data direction performed (showing
+writes in the example above).  In the order listed, they denote:
+
+**read/write/trim**
+               The string before the colon shows the I/O direction the statistics
+               are for.  **IOPS** is the average I/Os performed per second.  **BW**
+               is the average bandwidth rate shown as: value in power of 2 format
+               (value in power of 10 format).  The last two values show: (**total
+               I/O performed** in power of 2 format / **runtime** of that thread).
 
 **slat**
-               Submission latency (avg being the average, stdev being the standard
-               deviation). This is the time it took to submit the I/O. For sync I/O,
-               the slat is really the completion latency, since queue/complete is one
-               operation there. This value can be in milliseconds or microseconds, fio
-               will choose the most appropriate base and print that. In the example
-               above, milliseconds is the best scale. Note: in :option:`--minimal` mode
+               Submission latency (**min** being the minimum, **max** being the
+               maximum, **avg** being the average, **stdev** being the standard
+               deviation).  This is the time it took to submit the I/O.  For
+               sync I/O this row is not displayed as the slat is really the
+               completion latency (since queue/complete is one operation there).
+               This value can be in nanoseconds, microseconds or milliseconds ---
+               fio will choose the most appropriate base and print that (in the
+               example above nanoseconds was the best scale).  Note: in :option:`--minimal` mode
                latencies are always expressed in microseconds.
 
 **clat**
@@ -3029,12 +3197,28 @@ denote:
                complete is basically just CPU time (I/O has already been done, see slat
                explanation).
 
+**lat**
+               Total latency. Same names as slat and clat, this denotes the time from
+               when fio created the I/O unit to completion of the I/O operation.
+
 **bw**
-               Bandwidth. Same names as the xlat stats, but also includes an
-               approximate percentage of total aggregate bandwidth this thread received
-               in this group. This last value is only really useful if the threads in
-               this group are on the same disk, since they are then competing for disk
-               access.
+               Bandwidth statistics based on samples. Same names as the xlat stats,
+               but also includes the number of samples taken (**samples**) and an
+               approximate percentage of total aggregate bandwidth this thread
+               received in its group (**per**). This last value is only really
+               useful if the threads in this group are on the same disk, since they
+               are then competing for disk access.
+
+**iops**
+               IOPS statistics based on samples. Same names as bw.
+
+**lat (nsec/usec/msec)**
+               The distribution of I/O completion latencies. This is the time from when
+               I/O leaves fio and when it gets completed. Unlike the separate
+               read/write/trim sections above, the data here and in the remaining
+               sections apply to all I/Os for the reporting group. 250=0.04% means that
+               0.04% of the I/Os completed in under 250us. 500=64.11% means that 64.11%
+               of the I/Os required 250 to 499us for completion.
 
 **cpu**
                CPU usage. User and system time, along with the number of context
@@ -3044,54 +3228,60 @@ denote:
                context and fault counters are summed.
 
 **IO depths**
-               The distribution of I/O depths over the job life time. The numbers are
-               divided into powers of 2, so for example the 16= entries includes depths
-               up to that value but higher than the previous entry. In other words, it
-               covers the range from 16 to 31.
+               The distribution of I/O depths over the job lifetime.  The numbers are
+               divided into powers of 2 and each entry covers depths from that value
+               up to those that are lower than the next entry -- e.g., 16= covers
+               depths from 16 to 31.  Note that the range covered by a depth
+               distribution entry can be different to the range covered by the
+               equivalent submit/complete distribution entry.
 
 **IO submit**
                How many pieces of I/O were submitting in a single submit call. Each
                entry denotes that amount and below, until the previous entry -- e.g.,
-               8=100% mean that we submitted anywhere in between 5-8 I/Os per submit
-               call.
+               16=100% means that we submitted anywhere between 9 to 16 I/Os per submit
+               call.  Note that the range covered by a submit distribution entry can
+               be different to the range covered by the equivalent depth distribution
+               entry.
 
 **IO complete**
                Like the above submit number, but for completions instead.
 
-**IO issued**
-               The number of read/write requests issued, and how many of them were
-               short.
+**IO issued rwt**
+               The number of read/write/trim requests issued, and how many of them were
+               short or dropped.
 
-**IO latencies**
-               The distribution of I/O completion latencies. This is the time from when
-               I/O leaves fio and when it gets completed.  The numbers follow the same
-               pattern as the I/O depths, meaning that 2=1.6% means that 1.6% of the
-               I/O completed within 2 msecs, 20=12.8% means that 12.8% of the I/O took
-               more than 10 msecs, but less than (or equal to) 20 msecs.
+**IO latency**
+               These values are for `--latency-target` and related options. When
+               these options are engaged, this section describes the I/O depth required
+               to meet the specified latency target.
+
+..
+       Example output was based on the following:
+       TZ=UTC fio --ioengine=null --iodepth=2 --size=100M --numjobs=2 \
+               --rate_process=poisson --io_limit=32M --name=read --bs=128k \
+               --rate=11M --name=write --rw=write --bs=2k --rate=700k
 
 After each client has been listed, the group statistics are printed. They
 will look like this::
 
     Run status group 0 (all jobs):
-       READ: io=64MB, aggrb=22178, minb=11355, maxb=11814, mint=2840msec, maxt=2955msec
-      WRITE: io=64MB, aggrb=1302, minb=666, maxb=669, mint=50093msec, maxt=50320msec
+       READ: bw=20.9MiB/s (21.9MB/s), 10.4MiB/s-10.8MiB/s (10.9MB/s-11.3MB/s), io=64.0MiB (67.1MB), run=2973-3069msec
+      WRITE: bw=1231KiB/s (1261kB/s), 616KiB/s-621KiB/s (630kB/s-636kB/s), io=64.0MiB (67.1MB), run=52747-53223msec
 
-For each data direction, it prints:
+For each data direction it prints:
 
+**bw**
+               Aggregate bandwidth of threads in this group followed by the
+               minimum and maximum bandwidth of all the threads in this group.
+               Values outside of brackets are power-of-2 format and those
+               within are the equivalent value in a power-of-10 format.
 **io**
-               Number of megabytes I/O performed.
-**aggrb**
-               Aggregate bandwidth of threads in this group.
-**minb**
-               The minimum average bandwidth a thread saw.
-**maxb**
-               The maximum average bandwidth a thread saw.
-**mint**
-               The smallest runtime of the threads in that group.
-**maxt**
-               The longest runtime of the threads in that group.
-
-And finally, the disk statistics are printed. They will look like this::
+               Aggregate I/O performed of all threads in this group. The
+               format is the same as bw.
+**run**
+               The smallest and longest runtimes of the threads in this group.
+
+And finally, the disk statistics are printed. This is Linux specific. They will look like this::
 
   Disk stats (read/write):
     sda: ios=16398/16511, merge=30/162, ticks=6853/819634, in_queue=826487, util=100.00%
@@ -3102,10 +3292,10 @@ numbers denote:
 **ios**
                Number of I/Os performed by all groups.
 **merge**
-               Number of merges I/O the I/O scheduler.
+               Number of merges performed by the I/O scheduler.
 **ticks**
                Number of ticks we kept the disk busy.
-**io_queue**
+**in_queue**
                Total time spent in the disk queue.
 **util**
                The disk utilization. A value of 100% means we kept the disk
@@ -3131,16 +3321,18 @@ is one long line of values, such as::
 
 The job description (if provided) follows on a second line.
 
-To enable terse output, use the :option:`--minimal` command line option. The
+To enable terse output, use the :option:`--minimal` or
+:option:`--output-format`\=terse command line options. The
 first value is the version of the terse output format. If the output has to be
 changed for some reason, this number will be incremented by 1 to signify that
 change.
 
-Split up, the format is as follows:
+Split up, the format is as follows (comments in brackets denote when a
+field was introduced or whether it's specific to some terse version):
 
     ::
 
-        terse version, fio version, jobname, groupid, error
+        terse version, fio version [v3], jobname, groupid, error
 
     READ status::
 
@@ -3149,7 +3341,8 @@ Split up, the format is as follows:
         Completion latency: min, max, mean, stdev (usec)
         Completion latency percentiles: 20 fields (see below)
         Total latency: min, max, mean, stdev (usec)
-        Bw (KiB/s): min, max, aggregate percentage of total, mean, stdev
+        Bw (KiB/s): min, max, aggregate percentage of total, mean, stdev, number of samples [v5]
+        IOPS [v5]: min, max, mean, stdev, number of samples
 
     WRITE status:
 
@@ -3157,10 +3350,15 @@ Split up, the format is as follows:
 
         Total IO (KiB), bandwidth (KiB/sec), IOPS, runtime (msec)
         Submission latency: min, max, mean, stdev (usec)
-        Completion latency: min, max, mean, stdev(usec)
+        Completion latency: min, max, mean, stdev (usec)
         Completion latency percentiles: 20 fields (see below)
         Total latency: min, max, mean, stdev (usec)
-        Bw (KiB/s): min, max, aggregate percentage of total, mean, stdev
+        Bw (KiB/s): min, max, aggregate percentage of total, mean, stdev, number of samples [v5]
+        IOPS [v5]: min, max, mean, stdev, number of samples
+
+    TRIM status [all but version 3]:
+
+        Fields are similar to READ/WRITE status.
 
     CPU usage::
 
@@ -3178,12 +3376,10 @@ Split up, the format is as follows:
 
         <=2, 4, 10, 20, 50, 100, 250, 500, 750, 1000, 2000, >=2000
 
-    Disk utilization::
+    Disk utilization [v3]::
 
-        Disk name, Read ios, write ios,
-        Read merges, write merges,
-        Read ticks, write ticks,
-        Time spent in queue, disk utilization percentage
+        disk name, read ios, write ios, read merges, write merges, read ticks, write ticks,
+        time spent in queue, disk utilization percentage
 
     Additional Info (dependent on continue_on_error, default off)::
 
@@ -3196,13 +3392,48 @@ Split up, the format is as follows:
 Completion latency percentiles can be a grouping of up to 20 sets, so for the
 terse output fio writes all of them. Each field will look like this::
 
-       1.00%=6112
+        1.00%=6112
 
 which is the Xth percentile, and the `usec` latency associated with it.
 
-For disk utilization, all disks used by fio are shown. So for each disk there
+For `Disk utilization`, all disks used by fio are shown. So for each disk there
 will be a disk utilization section.
 
+Below is a single line containing short names for each of the fields in the
+minimal output v3, separated by semicolons::
+
+        terse_version_3;fio_version;jobname;groupid;error;read_kb;read_bandwidth;read_iops;read_runtime_ms;read_slat_min;read_slat_max;read_slat_mean;read_slat_dev;read_clat_min;read_clat_max;read_clat_mean;read_clat_dev;read_clat_pct01;read_clat_pct02;read_clat_pct03;read_clat_pct04;read_clat_pct05;read_clat_pct06;read_clat_pct07;read_clat_pct08;read_clat_pct09;read_clat_pct10;read_clat_pct11;read_clat_pct12;read_clat_pct13;read_clat_pct14;read_clat_pct15;read_clat_pct16;read_clat_pct17;read_clat_pct18;read_clat_pct19;read_clat_pct20;read_tlat_min;read_lat_max;read_lat_mean;read_lat_dev;read_bw_min;read_bw_max;read_bw_agg_pct;read_bw_mean;read_bw_dev;write_kb;write_bandwidth;write_iops;write_runtime_ms;write_slat_min;write_slat_max;write_slat_mean;write_slat_dev;write_clat_min;write_clat_max;write_clat_mean;write_clat_dev;write_clat_pct01;write_clat_pct02;write_clat_pct03;write_clat_pct04;write_clat_pct05;write_clat_pct06;write_clat_pct07;write_clat_pct08;write_clat_pct09;write_clat_pct10;write_clat_pct11;write_clat_pct12;write_clat_pct13;write_clat_pct14;write_clat_pct15;write_clat_pct16;write_clat_pct17;write_clat_pct18;write_clat_pct19;write_clat_pct20;write_tlat_min;write_lat_max;write_lat_mean;write_lat_dev;write_bw_min;write_bw_max;write_bw_agg_pct;write_bw_mean;write_bw_dev;cpu_user;cpu_sys;cpu_csw;cpu_mjf;cpu_minf;iodepth_1;iodepth_2;iodepth_4;iodepth_8;iodepth_16;iodepth_32;iodepth_64;lat_2us;lat_4us;lat_10us;lat_20us;lat_50us;lat_100us;lat_250us;lat_500us;lat_750us;lat_1000us;lat_2ms;lat_4ms;lat_10ms;lat_20ms;lat_50ms;lat_100ms;lat_250ms;lat_500ms;lat_750ms;lat_1000ms;lat_2000ms;lat_over_2000ms;disk_name;disk_read_iops;disk_write_iops;disk_read_merges;disk_write_merges;disk_read_ticks;write_ticks;disk_queue_time;disk_util
+
+
+JSON output
+------------
+
+The `json` output format is intended to be both human readable and convenient
+for automated parsing. For the most part its sections mirror those of the
+`normal` output. The `runtime` value is reported in msec and the `bw` value is
+reported in 1024 bytes per second units.
+
+
+JSON+ output
+------------
+
+The `json+` output format is identical to the `json` output format except that it
+adds a full dump of the completion latency bins. Each `bins` object contains a
+set of (key, value) pairs where keys are latency durations and values count how
+many I/Os had completion latencies of the corresponding duration. For example,
+consider:
+
+       "bins" : { "87552" : 1, "89600" : 1, "94720" : 1, "96768" : 1, "97792" : 1, "99840" : 1, "100864" : 2, "103936" : 6, "104960" : 534, "105984" : 5995, "107008" : 7529, ... }
+
+This data indicates that one I/O required 87,552ns to complete, two I/Os required
+100,864ns to complete, and 7529 I/Os required 107,008ns to complete.
+
+Also included with fio is a Python script `fio_jsonplus_clat2csv` that takes
+json+ output and generates CSV-formatted latency data suitable for plotting.
+
+The latency durations actually represent the midpoints of latency intervals.
+For details refer to :file:`stat.h`.
+
 
 Trace file format
 -----------------
@@ -3221,9 +3452,9 @@ Each line represents a single I/O action in the following format::
 
        rw, offset, length
 
-where `rw=0/1` for read/write, and the offset and length entries being in bytes.
+where `rw=0/1` for read/write, and the `offset` and `length` entries being in bytes.
 
-This format is not supported in fio versions => 1.20-rc3.
+This format is not supported in fio versions >= 1.20-rc3.
 
 
 Trace file format v2
@@ -3243,15 +3474,15 @@ The file management format::
 
     filename action
 
-The filename is given as an absolute path. The action can be one of these:
+The `filename` is given as an absolute path. The `action` can be one of these:
 
 **add**
-               Add the given filename to the trace.
+               Add the given `filename` to the trace.
 **open**
-               Open the file with the given filename. The filename has to have
+               Open the file with the given `filename`. The `filename` has to have
                been added with the **add** action before.
 **close**
-               Close the file with the given filename. The file has to have been
+               Close the file with the given `filename`. The file has to have been
                opened before.
 
 
@@ -3320,7 +3551,7 @@ completions, etc.
 
 A trigger is invoked either through creation ('touch') of a specified file in
 the system, or through a timeout setting. If fio is run with
-:option:`--trigger-file` = :file:`/tmp/trigger-file`, then it will continually
+:option:`--trigger-file`\= :file:`/tmp/trigger-file`, then it will continually
 check for the existence of :file:`/tmp/trigger-file`. When it sees this file, it
 will fire off the trigger (thus saving state, and executing the trigger
 command).
@@ -3334,8 +3565,8 @@ will then execute the trigger.
 Verification trigger example
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
-Lets say we want to run a powercut test on the remote machine 'server'.  Our
-write workload is in :file:`write-test.fio`. We want to cut power to 'server' at
+Let's say we want to run a powercut test on the remote Linux machine 'server'.
+Our write workload is in :file:`write-test.fio`. We want to cut power to 'server' at
 some point during the run, and we'll run this test from the safety or our local
 machine, 'localbox'. On the server, we'll start the fio backend normally::
 
@@ -3353,7 +3584,7 @@ on the server once it has received the trigger and sent us the write state. This
 will work, but it's not **really** cutting power to the server, it's merely
 abruptly rebooting it. If we have a remote way of cutting power to the server
 through IPMI or similar, we could do that through a local trigger command
-instead. Lets assume we have a script that does IPMI reboot of a given hostname,
+instead. Let's assume we have a script that does IPMI reboot of a given hostname,
 ipmi-reboot. On localbox, we could then have run fio with a local trigger
 instead::
 
@@ -3365,7 +3596,7 @@ execute ``ipmi-reboot server`` when that happened.
 Loading verify state
 ~~~~~~~~~~~~~~~~~~~~
 
-To load store write state, read verification job file must contain the
+To load stored write state, a read verification job file must contain the
 :option:`verify_state_load` option. If that is set, fio will load the previously
 stored state. For a local fio run this is done by loading the files directly,
 and on a client/server run, the server backend will ask the client to send the
@@ -3378,13 +3609,14 @@ Log File Formats
 Fio supports a variety of log file formats, for logging latencies, bandwidth,
 and IOPS. The logs share a common format, which looks like this:
 
-    *time* (`msec`), *value*, *data direction*, *offset*
+    *time* (`msec`), *value*, *data direction*, *block size* (`bytes`),
+    *offset* (`bytes`)
 
-Time for the log entry is always in milliseconds. The *value* logged depends
+*Time* for the log entry is always in milliseconds. The *value* logged depends
 on the type of log, it will be one of the following:
 
     **Latency log**
-               Value is latency in usecs
+               Value is latency in nsecs
     **Bandwidth log**
                Value is in KiB/sec
     **IOPS log**
@@ -3399,31 +3631,31 @@ on the type of log, it will be one of the following:
        **2**
                I/O is a TRIM
 
-The *offset* is the offset, in bytes, from the start of the file, for that
-particular I/O. The logging of the offset can be toggled with
-:option:`log_offset`.
-
-If windowed logging is enabled through :option:`log_avg_msec` then fio doesn't
-log individual I/Os. Instead of logs the average values over the specified period
-of time. Since 'data direction' and 'offset' are per-I/O values, they aren't
-applicable if windowed logging is enabled. If windowed logging is enabled and
-:option:`log_max_value` is set, then fio logs maximum values in that window
-instead of averages.
+The entry's *block size* is always in bytes. The *offset* is the offset, in bytes,
+from the start of the file, for that particular I/O. The logging of the offset can be
+toggled with :option:`log_offset`.
 
+Fio defaults to logging every individual I/O.  When IOPS are logged for individual
+I/Os the *value* entry will always be 1. If windowed logging is enabled through
+:option:`log_avg_msec`, fio logs the average values over the specified period of time.
+If windowed logging is enabled and :option:`log_max_value` is set, then fio logs
+maximum values in that window instead of averages. Since *data direction*, *block
+size* and *offset* are per-I/O values, if windowed logging is enabled they
+aren't applicable and will be 0.
 
-Client/server
+Client/Server
 -------------
 
 Normally fio is invoked as a stand-alone application on the machine where the
-I/O workload should be generated. However, the frontend and backend of fio can
-be run separately. Ie the fio server can generate an I/O workload on the "Device
-Under Test" while being controlled from another machine.
+I/O workload should be generated. However, the backend and frontend of fio can
+be run separately i.e., the fio server can generate an I/O workload on the "Device
+Under Test" while being controlled by a client on another machine.
 
 Start the server on the machine which has access to the storage DUT::
 
-       fio --server=args
+       fio --server=args
 
-where args defines what fio listens to. The arguments are of the form
+where `args` defines what fio listens to. The arguments are of the form
 ``type,hostname`` or ``IP,port``. *type* is either ``ip`` (or ip4) for TCP/IP
 v4, ``ip6`` for TCP/IP v6, or ``sock`` for a local unix domain socket.
 *hostname* is either a hostname or IP address, and *port* is the port to listen
@@ -3451,7 +3683,7 @@ to (only valid for TCP/IP, not a local socket). Some examples:
 
 6) ``fio --server=sock:/tmp/fio.sock``
 
-   Start a fio server, listening on the local socket /tmp/fio.sock.
+   Start a fio server, listening on the local socket :file:`/tmp/fio.sock`.
 
 Once a server is running, a "client" can connect to the fio server with::
 
@@ -3491,7 +3723,7 @@ servers receive the same job file.
 
 In order to let ``fio --client`` runs use a shared filesystem from multiple
 hosts, ``fio --client`` now prepends the IP address of the server to the
-filename.  For example, if fio is using directory :file:`/mnt/nfs/fio` and is
+filename.  For example, if fio is using the directory :file:`/mnt/nfs/fio` and is
 writing filename :file:`fileio.tmp`, with a :option:`--client` `hostfile`
 containing two hostnames ``h1`` and ``h2`` with IP addresses 192.168.10.120 and
 192.168.10.121, then fio will create two files::