HOWTO: reword HDFS description
authorSitsofe Wheeler <sitsofe@yahoo.com>
Fri, 23 Jun 2017 06:36:42 +0000 (07:36 +0100)
committerSitsofe Wheeler <sitsofe@yahoo.com>
Mon, 26 Jun 2017 22:46:46 +0000 (23:46 +0100)
Signed-off-by: Sitsofe Wheeler <sitsofe@yahoo.com>
HOWTO

diff --git a/HOWTO b/HOWTO
index c1c2691481469640df89cfeaf398b2445de75a61..47563aa92ecc65563e61d703d14d5dfc620bb29f 100644 (file)
--- a/HOWTO
+++ b/HOWTO
@@ -1735,13 +1735,13 @@ I/O engine
                        Read and write through Hadoop (HDFS).  The :file:`filename` option
                        is used to specify host,port of the hdfs name-node to connect.  This
                        engine interprets offsets a little differently.  In HDFS, files once
-                       created cannot be modified.  So random writes are not possible. To
-                       imitate this, libhdfs engine expects bunch of small files to be
-                       created over HDFS, and engine will randomly pick a file out of those
-                       files based on the offset generated by fio backend. (see the example
+                       created cannot be modified so random writes are not possible. To
+                       imitate this the libhdfs engine expects a bunch of small files to be
+                       created over HDFS and will randomly pick a file from them
+                       based on the offset generated by fio backend (see the example
                        job file to create such files, use ``rw=write`` option). Please
-                       note, you might want to set necessary environment variables to work
-                       with hdfs/libhdfs properly.  Each job uses its own connection to
+                       note, it may be necessary to set environment variables to work
+                       with HDFS/libhdfs properly.  Each job uses its own connection to
                        HDFS.
 
                **mtd**