readahead: convert ext3/ext4 invocations
[linux-2.6-block.git] / mm / readahead.c
index 93d9ee692fd8b193b12ba207f69f900c831e404d..c094e4f5a25070e74e1119bdccc7560f57729655 100644 (file)
@@ -21,8 +21,16 @@ void default_unplug_io_fn(struct backing_dev_info *bdi, struct page *page)
 }
 EXPORT_SYMBOL(default_unplug_io_fn);
 
+/*
+ * Convienent macros for min/max read-ahead pages.
+ * Note that MAX_RA_PAGES is rounded down, while MIN_RA_PAGES is rounded up.
+ * The latter is necessary for systems with large page size(i.e. 64k).
+ */
+#define MAX_RA_PAGES   (VM_MAX_READAHEAD*1024 / PAGE_CACHE_SIZE)
+#define MIN_RA_PAGES   DIV_ROUND_UP(VM_MIN_READAHEAD*1024, PAGE_CACHE_SIZE)
+
 struct backing_dev_info default_backing_dev_info = {
-       .ra_pages       = (VM_MAX_READAHEAD * 1024) / PAGE_CACHE_SIZE,
+       .ra_pages       = MAX_RA_PAGES,
        .state          = 0,
        .capabilities   = BDI_CAP_MAP_COPY,
        .unplug_io_fn   = default_unplug_io_fn,
@@ -37,7 +45,7 @@ void
 file_ra_state_init(struct file_ra_state *ra, struct address_space *mapping)
 {
        ra->ra_pages = mapping->backing_dev_info->ra_pages;
-       ra->prev_page = -1;
+       ra->prev_index = -1;
 }
 EXPORT_SYMBOL_GPL(file_ra_state_init);
 
@@ -51,7 +59,7 @@ static inline unsigned long get_max_readahead(struct file_ra_state *ra)
 
 static inline unsigned long get_min_readahead(struct file_ra_state *ra)
 {
-       return (VM_MIN_READAHEAD * 1024) / PAGE_CACHE_SIZE;
+       return MIN_RA_PAGES;
 }
 
 static inline void reset_ahead_window(struct file_ra_state *ra)
@@ -202,17 +210,19 @@ out:
  * size:       Number of pages in that read
  *              Together, these form the "current window".
  *              Together, start and size represent the `readahead window'.
- * prev_page:   The page which the readahead algorithm most-recently inspected.
+ * prev_index:  The page which the readahead algorithm most-recently inspected.
  *              It is mainly used to detect sequential file reading.
  *              If page_cache_readahead sees that it is again being called for
  *              a page which it just looked at, it can return immediately without
  *              making any state changes.
+ * offset:      Offset in the prev_index where the last read ended - used for
+ *              detection of sequential file reading.
  * ahead_start,
  * ahead_size:  Together, these form the "ahead window".
  * ra_pages:   The externally controlled max readahead for this fd.
  *
  * When readahead is in the off state (size == 0), readahead is disabled.
- * In this state, prev_page is used to detect the resumption of sequential I/O.
+ * In this state, prev_index is used to detect the resumption of sequential I/O.
  *
  * The readahead code manages two windows - the "current" and the "ahead"
  * windows.  The intent is that while the application is walking the pages
@@ -263,7 +273,8 @@ out:
  */
 static int
 __do_page_cache_readahead(struct address_space *mapping, struct file *filp,
-                       pgoff_t offset, unsigned long nr_to_read)
+                       pgoff_t offset, unsigned long nr_to_read,
+                       unsigned long lookahead_size)
 {
        struct inode *inode = mapping->host;
        struct page *page;
@@ -276,7 +287,7 @@ __do_page_cache_readahead(struct address_space *mapping, struct file *filp,
        if (isize == 0)
                goto out;
 
-       end_index = ((isize - 1) >> PAGE_CACHE_SHIFT);
+       end_index = ((isize - 1) >> PAGE_CACHE_SHIFT);
 
        /*
         * Preallocate as many pages as we will need.
@@ -299,6 +310,8 @@ __do_page_cache_readahead(struct address_space *mapping, struct file *filp,
                        break;
                page->index = page_offset;
                list_add(&page->lru, &page_pool);
+               if (page_idx == nr_to_read - lookahead_size)
+                       SetPageReadahead(page);
                ret++;
        }
        read_unlock_irq(&mapping->tree_lock);
@@ -335,7 +348,7 @@ int force_page_cache_readahead(struct address_space *mapping, struct file *filp,
                if (this_chunk > nr_to_read)
                        this_chunk = nr_to_read;
                err = __do_page_cache_readahead(mapping, filp,
-                                               offset, this_chunk);
+                                               offset, this_chunk, 0);
                if (err < 0) {
                        ret = err;
                        break;
@@ -382,7 +395,7 @@ int do_page_cache_readahead(struct address_space *mapping, struct file *filp,
        if (bdi_read_congested(mapping->backing_dev_info))
                return -1;
 
-       return __do_page_cache_readahead(mapping, filp, offset, nr_to_read);
+       return __do_page_cache_readahead(mapping, filp, offset, nr_to_read, 0);
 }
 
 /*
@@ -402,7 +415,7 @@ blockable_page_cache_readahead(struct address_space *mapping, struct file *filp,
        if (!block && bdi_read_congested(mapping->backing_dev_info))
                return 0;
 
-       actual = __do_page_cache_readahead(mapping, filp, offset, nr_to_read);
+       actual = __do_page_cache_readahead(mapping, filp, offset, nr_to_read, 0);
 
        return check_ra_success(ra, nr_to_read, actual);
 }
@@ -415,7 +428,7 @@ static int make_ahead_window(struct address_space *mapping, struct file *filp,
        ra->ahead_size = get_next_ra_size(ra);
        ra->ahead_start = ra->start + ra->size;
 
-       block = force || (ra->prev_page >= ra->ahead_start);
+       block = force || (ra->prev_index >= ra->ahead_start);
        ret = blockable_page_cache_readahead(mapping, filp,
                        ra->ahead_start, ra->ahead_size, ra, block);
 
@@ -447,7 +460,7 @@ static int make_ahead_window(struct address_space *mapping, struct file *filp,
  * @req_size: hint: total size of the read which the caller is performing in
  *            PAGE_CACHE_SIZE units
  *
- * page_cache_readahead() is the main function.  If performs the adaptive
+ * page_cache_readahead() is the main function.  It performs the adaptive
  * readahead window size management and submits the readahead I/O.
  *
  * Note that @filp is purely used for passing on to the ->readpage[s]()
@@ -467,12 +480,13 @@ page_cache_readahead(struct address_space *mapping, struct file_ra_state *ra,
         * We avoid doing extra work and bogusly perturbing the readahead
         * window expansion logic.
         */
-       if (offset == ra->prev_page && --req_size)
+       if (offset == ra->prev_index && --req_size)
                ++offset;
 
-       /* Note that prev_page == -1 if it is a first read */
-       sequential = (offset == ra->prev_page + 1);
-       ra->prev_page = offset;
+       /* Note that prev_index == -1 if it is a first read */
+       sequential = (offset == ra->prev_index + 1);
+       ra->prev_index = offset;
+       ra->prev_offset = 0;
 
        max = get_max_readahead(ra);
        newsize = min(req_size, max);
@@ -481,7 +495,7 @@ page_cache_readahead(struct address_space *mapping, struct file_ra_state *ra,
        if (newsize == 0 || (ra->flags & RA_FLAG_INCACHE))
                goto out;
 
-       ra->prev_page += newsize - 1;
+       ra->prev_index += newsize - 1;
 
        /*
         * Special case - first read at start of file. We'll assume it's
@@ -537,18 +551,18 @@ page_cache_readahead(struct address_space *mapping, struct file_ra_state *ra,
         * we get called back on the first page of the ahead window which
         * will allow us to submit more IO.
         */
-       if (ra->prev_page >= ra->ahead_start) {
+       if (ra->prev_index >= ra->ahead_start) {
                ra->start = ra->ahead_start;
                ra->size = ra->ahead_size;
                make_ahead_window(mapping, filp, ra, 0);
 recheck:
-               /* prev_page shouldn't overrun the ahead window */
-               ra->prev_page = min(ra->prev_page,
+               /* prev_index shouldn't overrun the ahead window */
+               ra->prev_index = min(ra->prev_index,
                        ra->ahead_start + ra->ahead_size - 1);
        }
 
 out:
-       return ra->prev_page + 1;
+       return ra->prev_index + 1;
 }
 EXPORT_SYMBOL_GPL(page_cache_readahead);
 
@@ -578,3 +592,196 @@ unsigned long max_sane_readahead(unsigned long nr)
        return min(nr, (node_page_state(numa_node_id(), NR_INACTIVE)
                + node_page_state(numa_node_id(), NR_FREE_PAGES)) / 2);
 }
+
+/*
+ * Submit IO for the read-ahead request in file_ra_state.
+ */
+unsigned long ra_submit(struct file_ra_state *ra,
+                      struct address_space *mapping, struct file *filp)
+{
+       unsigned long ra_size;
+       unsigned long la_size;
+       int actual;
+
+       ra_size = ra_readahead_size(ra);
+       la_size = ra_lookahead_size(ra);
+       actual = __do_page_cache_readahead(mapping, filp,
+                                       ra->ra_index, ra_size, la_size);
+
+       return actual;
+}
+EXPORT_SYMBOL_GPL(ra_submit);
+
+/*
+ *  Get the previous window size, ramp it up, and
+ *  return it as the new window size.
+ */
+static unsigned long get_next_ra_size2(struct file_ra_state *ra,
+                                               unsigned long max)
+{
+       unsigned long cur = ra->readahead_index - ra->ra_index;
+       unsigned long newsize;
+
+       if (cur < max / 16)
+               newsize = cur * 4;
+       else
+               newsize = cur * 2;
+
+       return min(newsize, max);
+}
+
+/*
+ * On-demand readahead design.
+ *
+ * The fields in struct file_ra_state represent the most-recently-executed
+ * readahead attempt:
+ *
+ *                    |-------- last readahead window -------->|
+ *       |-- application walking here -->|
+ * ======#============|==================#=====================|
+ *       ^la_index    ^ra_index          ^lookahead_index      ^readahead_index
+ *
+ * [ra_index, readahead_index) represents the last readahead window.
+ *
+ * [la_index, lookahead_index] is where the application would be walking(in
+ * the common case of cache-cold sequential reads): the last window was
+ * established when the application was at la_index, and the next window will
+ * be bring in when the application reaches lookahead_index.
+ *
+ * To overlap application thinking time and disk I/O time, we do
+ * `readahead pipelining': Do not wait until the application consumed all
+ * readahead pages and stalled on the missing page at readahead_index;
+ * Instead, submit an asynchronous readahead I/O as early as the application
+ * reads on the page at lookahead_index. Normally lookahead_index will be
+ * equal to ra_index, for maximum pipelining.
+ *
+ * In interleaved sequential reads, concurrent streams on the same fd can
+ * be invalidating each other's readahead state. So we flag the new readahead
+ * page at lookahead_index with PG_readahead, and use it as readahead
+ * indicator. The flag won't be set on already cached pages, to avoid the
+ * readahead-for-nothing fuss, saving pointless page cache lookups.
+ *
+ * prev_index tracks the last visited page in the _previous_ read request.
+ * It should be maintained by the caller, and will be used for detecting
+ * small random reads. Note that the readahead algorithm checks loosely
+ * for sequential patterns. Hence interleaved reads might be served as
+ * sequential ones.
+ *
+ * There is a special-case: if the first page which the application tries to
+ * read happens to be the first page of the file, it is assumed that a linear
+ * read is about to happen and the window is immediately set to the initial size
+ * based on I/O request size and the max_readahead.
+ *
+ * The code ramps up the readahead size aggressively at first, but slow down as
+ * it approaches max_readhead.
+ */
+
+/*
+ * A minimal readahead algorithm for trivial sequential/random reads.
+ */
+static unsigned long
+ondemand_readahead(struct address_space *mapping,
+                  struct file_ra_state *ra, struct file *filp,
+                  struct page *page, pgoff_t offset,
+                  unsigned long req_size)
+{
+       unsigned long max;      /* max readahead pages */
+       pgoff_t ra_index;       /* readahead index */
+       unsigned long ra_size;  /* readahead size */
+       unsigned long la_size;  /* lookahead size */
+       int sequential;
+
+       max = ra->ra_pages;
+       sequential = (offset - ra->prev_index <= 1UL) || (req_size > max);
+
+       /*
+        * Lookahead/readahead hit, assume sequential access.
+        * Ramp up sizes, and push forward the readahead window.
+        */
+       if (offset && (offset == ra->lookahead_index ||
+                       offset == ra->readahead_index)) {
+               ra_index = ra->readahead_index;
+               ra_size = get_next_ra_size2(ra, max);
+               la_size = ra_size;
+               goto fill_ra;
+       }
+
+       /*
+        * Standalone, small read.
+        * Read as is, and do not pollute the readahead state.
+        */
+       if (!page && !sequential) {
+               return __do_page_cache_readahead(mapping, filp,
+                                               offset, req_size, 0);
+       }
+
+       /*
+        * It may be one of
+        *      - first read on start of file
+        *      - sequential cache miss
+        *      - oversize random read
+        * Start readahead for it.
+        */
+       ra_index = offset;
+       ra_size = get_init_ra_size(req_size, max);
+       la_size = ra_size > req_size ? ra_size - req_size : ra_size;
+
+       /*
+        * Hit on a lookahead page without valid readahead state.
+        * E.g. interleaved reads.
+        * Not knowing its readahead pos/size, bet on the minimal possible one.
+        */
+       if (page) {
+               ra_index++;
+               ra_size = min(4 * ra_size, max);
+       }
+
+fill_ra:
+       ra_set_index(ra, offset, ra_index);
+       ra_set_size(ra, ra_size, la_size);
+
+       return ra_submit(ra, mapping, filp);
+}
+
+/**
+ * page_cache_readahead_ondemand - generic file readahead
+ * @mapping: address_space which holds the pagecache and I/O vectors
+ * @ra: file_ra_state which holds the readahead state
+ * @filp: passed on to ->readpage() and ->readpages()
+ * @page: the page at @offset, or NULL if non-present
+ * @offset: start offset into @mapping, in PAGE_CACHE_SIZE units
+ * @req_size: hint: total size of the read which the caller is performing in
+ *            PAGE_CACHE_SIZE units
+ *
+ * page_cache_readahead_ondemand() is the entry point of readahead logic.
+ * This function should be called when it is time to perform readahead:
+ * 1) @page == NULL
+ *    A cache miss happened, time for synchronous readahead.
+ * 2) @page != NULL && PageReadahead(@page)
+ *    A look-ahead hit occured, time for asynchronous readahead.
+ */
+unsigned long
+page_cache_readahead_ondemand(struct address_space *mapping,
+                               struct file_ra_state *ra, struct file *filp,
+                               struct page *page, pgoff_t offset,
+                               unsigned long req_size)
+{
+       /* no read-ahead */
+       if (!ra->ra_pages)
+               return 0;
+
+       if (page) {
+               ClearPageReadahead(page);
+
+               /*
+                * Defer asynchronous read-ahead on IO congestion.
+                */
+               if (bdi_read_congested(mapping->backing_dev_info))
+                       return 0;
+       }
+
+       /* do read-ahead */
+       return ondemand_readahead(mapping, ra, filp, page,
+                                       offset, req_size);
+}
+EXPORT_SYMBOL_GPL(page_cache_readahead_ondemand);