mm: introduce page reference manipulation functions
authorJoonsoo Kim <iamjoonsoo.kim@lge.com>
Thu, 17 Mar 2016 21:19:26 +0000 (14:19 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Thu, 17 Mar 2016 22:09:34 +0000 (15:09 -0700)
The success of CMA allocation largely depends on the success of
migration and key factor of it is page reference count.  Until now, page
reference is manipulated by direct calling atomic functions so we cannot
follow up who and where manipulate it.  Then, it is hard to find actual
reason of CMA allocation failure.  CMA allocation should be guaranteed
to succeed so finding offending place is really important.

In this patch, call sites where page reference is manipulated are
converted to introduced wrapper function.  This is preparation step to
add tracepoint to each page reference manipulation function.  With this
facility, we can easily find reason of CMA allocation failure.  There is
no functional change in this patch.

In addition, this patch also converts reference read sites.  It will
help a second step that renames page._count to something else and
prevents later attempt to direct access to it (Suggested by Andrew).

Signed-off-by: Joonsoo Kim <iamjoonsoo.kim@lge.com>
Acked-by: Michal Nazarewicz <mina86@mina86.com>
Acked-by: Vlastimil Babka <vbabka@suse.cz>
Cc: Minchan Kim <minchan@kernel.org>
Cc: Mel Gorman <mgorman@techsingularity.net>
Cc: "Kirill A. Shutemov" <kirill.shutemov@linux.intel.com>
Cc: Sergey Senozhatsky <sergey.senozhatsky.work@gmail.com>
Cc: Steven Rostedt <rostedt@goodmis.org>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
25 files changed:
arch/mips/mm/gup.c
arch/powerpc/mm/mmu_context_hash64.c
arch/powerpc/mm/pgtable_64.c
arch/powerpc/platforms/512x/mpc512x_shared.c
arch/x86/mm/gup.c
drivers/block/aoe/aoecmd.c
drivers/net/ethernet/freescale/gianfar.c
drivers/net/ethernet/intel/fm10k/fm10k_main.c
drivers/net/ethernet/intel/igb/igb_main.c
drivers/net/ethernet/intel/ixgbe/ixgbe_main.c
drivers/net/ethernet/intel/ixgbevf/ixgbevf_main.c
drivers/net/ethernet/mellanox/mlx4/en_rx.c
drivers/net/ethernet/sun/niu.c
fs/nilfs2/page.c
include/linux/mm.h
include/linux/page_ref.h [new file with mode: 0644]
include/linux/pagemap.h
mm/debug.c
mm/huge_memory.c
mm/internal.h
mm/memory_hotplug.c
mm/migrate.c
mm/page_alloc.c
mm/vmscan.c
net/core/sock.c

index 1afd87c999b0c22f1ab08508a233126b5d6d9f2b..6cdffc76735c55a7e038502aef2afd1290762e03 100644 (file)
@@ -64,7 +64,7 @@ static inline void get_head_page_multiple(struct page *page, int nr)
 {
        VM_BUG_ON(page != compound_head(page));
        VM_BUG_ON(page_count(page) == 0);
-       atomic_add(nr, &page->_count);
+       page_ref_add(page, nr);
        SetPageReferenced(page);
 }
 
index 4e4efbc2658e3500c1a2f0eb3fb2a036a5d284cc..9ca6fe16cb29440ca6293a9d02f8d3d8a51096d7 100644 (file)
@@ -118,8 +118,7 @@ static void destroy_pagetable_page(struct mm_struct *mm)
        /* drop all the pending references */
        count = ((unsigned long)pte_frag & ~PAGE_MASK) >> PTE_FRAG_SIZE_SHIFT;
        /* We allow PTE_FRAG_NR fragments from a PTE page */
-       count = atomic_sub_return(PTE_FRAG_NR - count, &page->_count);
-       if (!count) {
+       if (page_ref_sub_and_test(page, PTE_FRAG_NR - count)) {
                pgtable_page_dtor(page);
                free_hot_cold_page(page, 0);
        }
index cdf2123d46db4813a4e87f30d29f8da359c313d9..d9cc66cbdbb7657701be8c1d0bc1e176fe504077 100644 (file)
@@ -403,7 +403,7 @@ static pte_t *__alloc_for_cache(struct mm_struct *mm, int kernel)
         * count.
         */
        if (likely(!mm->context.pte_frag)) {
-               atomic_set(&page->_count, PTE_FRAG_NR);
+               set_page_count(page, PTE_FRAG_NR);
                mm->context.pte_frag = ret + PTE_FRAG_SIZE;
        }
        spin_unlock(&mm->page_table_lock);
index 711f3d352af7b45e6ca7786f065963dbde3eb747..452da2391153aef4ffb132a65d440ccfa8fe0e45 100644 (file)
@@ -188,7 +188,7 @@ static struct fsl_diu_shared_fb __attribute__ ((__aligned__(8))) diu_shared_fb;
 static inline void mpc512x_free_bootmem(struct page *page)
 {
        BUG_ON(PageTail(page));
-       BUG_ON(atomic_read(&page->_count) > 1);
+       BUG_ON(page_ref_count(page) > 1);
        free_reserved_page(page);
 }
 
index d8a798d8bf50ac037fa2ac4854085bd78759c249..f8d0b5e8bdfd891c0a184e5604b5301238fdbc23 100644 (file)
@@ -131,7 +131,7 @@ static inline void get_head_page_multiple(struct page *page, int nr)
 {
        VM_BUG_ON_PAGE(page != compound_head(page), page);
        VM_BUG_ON_PAGE(page_count(page) == 0, page);
-       atomic_add(nr, &page->_count);
+       page_ref_add(page, nr);
        SetPageReferenced(page);
 }
 
index d048d2009e897a7e76d523ec704b1fd1f77dd76b..437b3a822f4482c5a6e34a2c1f827f5560d1f56e 100644 (file)
@@ -875,7 +875,7 @@ bio_pageinc(struct bio *bio)
                 * compound pages is no longer allowed by the kernel.
                 */
                page = compound_head(bv.bv_page);
-               atomic_inc(&page->_count);
+               page_ref_inc(page);
        }
 }
 
@@ -888,7 +888,7 @@ bio_pagedec(struct bio *bio)
 
        bio_for_each_segment(bv, bio, iter) {
                page = compound_head(bv.bv_page);
-               atomic_dec(&page->_count);
+               page_ref_dec(page);
        }
 }
 
index b9ecf197ad117754245a290964d7cd55d9be5d4e..f21b2c47978028f3ce9fc5f66c94f2b1158d993e 100644 (file)
@@ -2944,7 +2944,7 @@ static bool gfar_add_rx_frag(struct gfar_rx_buff *rxb, u32 lstatus,
        /* change offset to the other half */
        rxb->page_offset ^= GFAR_RXB_TRUESIZE;
 
-       atomic_inc(&page->_count);
+       page_ref_inc(page);
 
        return true;
 }
index b243c3cbe68faefa9e5857ade0e6a875b4141727..b4547ebed77499133ac62eae09dace7ffe270b0f 100644 (file)
@@ -243,7 +243,7 @@ static bool fm10k_can_reuse_rx_page(struct fm10k_rx_buffer *rx_buffer,
        /* Even if we own the page, we are not allowed to use atomic_set()
         * This would break get_page_unless_zero() users.
         */
-       atomic_inc(&page->_count);
+       page_ref_inc(page);
 
        return true;
 }
index 31e5f39428393818257853b44b0b4915f4817eac..5b4ad1ad4d5f962f445dfebcd744c6dbb62f722a 100644 (file)
@@ -6630,7 +6630,7 @@ static bool igb_can_reuse_rx_page(struct igb_rx_buffer *rx_buffer,
        /* Even if we own the page, we are not allowed to use atomic_set()
         * This would break get_page_unless_zero() users.
         */
-       atomic_inc(&page->_count);
+       page_ref_inc(page);
 
        return true;
 }
index c4003a88bbf6ea1157261dd9378af6a45782c0c7..e6035ff6b86163faeeedbc4b6b484af52f98a986 100644 (file)
@@ -1942,7 +1942,7 @@ static bool ixgbe_add_rx_frag(struct ixgbe_ring *rx_ring,
        /* Even if we own the page, we are not allowed to use atomic_set()
         * This would break get_page_unless_zero() users.
         */
-       atomic_inc(&page->_count);
+       page_ref_inc(page);
 
        return true;
 }
index 3558f019b63114d86ae43b2d4ba1c55c52117d3f..0ea14c0a2e749daa15620140405693e9aeb454bb 100644 (file)
@@ -837,7 +837,7 @@ add_tail_frag:
        /* Even if we own the page, we are not allowed to use atomic_set()
         * This would break get_page_unless_zero() users.
         */
-       atomic_inc(&page->_count);
+       page_ref_inc(page);
 
        return true;
 }
index 41440b2b20a36108bac137b9ab2893beae398038..86bcfe510e4e5b930b94de462f5ff9a76d4183c4 100644 (file)
@@ -82,8 +82,7 @@ static int mlx4_alloc_pages(struct mlx4_en_priv *priv,
        /* Not doing get_page() for each frag is a big win
         * on asymetric workloads. Note we can not use atomic_set().
         */
-       atomic_add(page_alloc->page_size / frag_info->frag_stride - 1,
-                  &page->_count);
+       page_ref_add(page, page_alloc->page_size / frag_info->frag_stride - 1);
        return 0;
 }
 
@@ -127,7 +126,7 @@ out:
                        dma_unmap_page(priv->ddev, page_alloc[i].dma,
                                page_alloc[i].page_size, PCI_DMA_FROMDEVICE);
                        page = page_alloc[i].page;
-                       atomic_set(&page->_count, 1);
+                       set_page_count(page, 1);
                        put_page(page);
                }
        }
@@ -165,7 +164,7 @@ static int mlx4_en_init_allocator(struct mlx4_en_priv *priv,
 
                en_dbg(DRV, priv, "  frag %d allocator: - size:%d frags:%d\n",
                       i, ring->page_alloc[i].page_size,
-                      atomic_read(&ring->page_alloc[i].page->_count));
+                      page_ref_count(ring->page_alloc[i].page));
        }
        return 0;
 
@@ -177,7 +176,7 @@ out:
                dma_unmap_page(priv->ddev, page_alloc->dma,
                               page_alloc->page_size, PCI_DMA_FROMDEVICE);
                page = page_alloc->page;
-               atomic_set(&page->_count, 1);
+               set_page_count(page, 1);
                put_page(page);
                page_alloc->page = NULL;
        }
index ab6051a43134f4dd7296679ffe089203162e3aa7..9cc45649f477fbf241d7e3741cd7772b46f1f4c7 100644 (file)
@@ -3341,7 +3341,7 @@ static int niu_rbr_add_page(struct niu *np, struct rx_ring_info *rp,
 
        niu_hash_page(rp, page, addr);
        if (rp->rbr_blocks_per_page > 1)
-               atomic_add(rp->rbr_blocks_per_page - 1, &page->_count);
+               page_ref_add(page, rp->rbr_blocks_per_page - 1);
 
        for (i = 0; i < rp->rbr_blocks_per_page; i++) {
                __le32 *rbr = &rp->rbr[start_index + i];
index 45d650addd56853c0edd4c7f9bde8901b1f4f783..c20df77eff99f16d23ca31dbb131b1d9a45e5571 100644 (file)
@@ -180,7 +180,7 @@ void nilfs_page_bug(struct page *page)
 
        printk(KERN_CRIT "NILFS_PAGE_BUG(%p): cnt=%d index#=%llu flags=0x%lx "
               "mapping=%p ino=%lu\n",
-              page, atomic_read(&page->_count),
+              page, page_ref_count(page),
               (unsigned long long)page->index, page->flags, m, ino);
 
        if (page_has_buffers(page)) {
index f7fd64227d3a36d496ccff4d5ab720ba90a49132..997fc2e5d9d8b46eeb4efb6eb7d23b8418e43390 100644 (file)
@@ -22,6 +22,7 @@
 #include <linux/resource.h>
 #include <linux/page_ext.h>
 #include <linux/err.h>
+#include <linux/page_ref.h>
 
 struct mempolicy;
 struct anon_vma;
@@ -386,8 +387,8 @@ static inline int pmd_devmap(pmd_t pmd)
  */
 static inline int put_page_testzero(struct page *page)
 {
-       VM_BUG_ON_PAGE(atomic_read(&page->_count) == 0, page);
-       return atomic_dec_and_test(&page->_count);
+       VM_BUG_ON_PAGE(page_ref_count(page) == 0, page);
+       return page_ref_dec_and_test(page);
 }
 
 /*
@@ -398,7 +399,7 @@ static inline int put_page_testzero(struct page *page)
  */
 static inline int get_page_unless_zero(struct page *page)
 {
-       return atomic_inc_not_zero(&page->_count);
+       return page_ref_add_unless(page, 1, 0);
 }
 
 extern int page_is_ram(unsigned long pfn);
@@ -486,11 +487,6 @@ static inline int total_mapcount(struct page *page)
 }
 #endif
 
-static inline int page_count(struct page *page)
-{
-       return atomic_read(&compound_head(page)->_count);
-}
-
 static inline struct page *virt_to_head_page(const void *x)
 {
        struct page *page = virt_to_page(x);
@@ -498,15 +494,6 @@ static inline struct page *virt_to_head_page(const void *x)
        return compound_head(page);
 }
 
-/*
- * Setup the page count before being freed into the page allocator for
- * the first time (boot or memory hotplug)
- */
-static inline void init_page_count(struct page *page)
-{
-       atomic_set(&page->_count, 1);
-}
-
 void __put_page(struct page *page);
 
 void put_pages_list(struct list_head *pages);
@@ -716,8 +703,8 @@ static inline void get_page(struct page *page)
         * Getting a normal page or the head of a compound page
         * requires to already have an elevated page->_count.
         */
-       VM_BUG_ON_PAGE(atomic_read(&page->_count) <= 0, page);
-       atomic_inc(&page->_count);
+       VM_BUG_ON_PAGE(page_ref_count(page) <= 0, page);
+       page_ref_inc(page);
 
        if (unlikely(is_zone_device_page(page)))
                get_zone_device_page(page);
diff --git a/include/linux/page_ref.h b/include/linux/page_ref.h
new file mode 100644 (file)
index 0000000..30f5817
--- /dev/null
@@ -0,0 +1,85 @@
+#ifndef _LINUX_PAGE_REF_H
+#define _LINUX_PAGE_REF_H
+
+#include <linux/atomic.h>
+#include <linux/mm_types.h>
+#include <linux/page-flags.h>
+
+static inline int page_ref_count(struct page *page)
+{
+       return atomic_read(&page->_count);
+}
+
+static inline int page_count(struct page *page)
+{
+       return atomic_read(&compound_head(page)->_count);
+}
+
+static inline void set_page_count(struct page *page, int v)
+{
+       atomic_set(&page->_count, v);
+}
+
+/*
+ * Setup the page count before being freed into the page allocator for
+ * the first time (boot or memory hotplug)
+ */
+static inline void init_page_count(struct page *page)
+{
+       set_page_count(page, 1);
+}
+
+static inline void page_ref_add(struct page *page, int nr)
+{
+       atomic_add(nr, &page->_count);
+}
+
+static inline void page_ref_sub(struct page *page, int nr)
+{
+       atomic_sub(nr, &page->_count);
+}
+
+static inline void page_ref_inc(struct page *page)
+{
+       atomic_inc(&page->_count);
+}
+
+static inline void page_ref_dec(struct page *page)
+{
+       atomic_dec(&page->_count);
+}
+
+static inline int page_ref_sub_and_test(struct page *page, int nr)
+{
+       return atomic_sub_and_test(nr, &page->_count);
+}
+
+static inline int page_ref_dec_and_test(struct page *page)
+{
+       return atomic_dec_and_test(&page->_count);
+}
+
+static inline int page_ref_dec_return(struct page *page)
+{
+       return atomic_dec_return(&page->_count);
+}
+
+static inline int page_ref_add_unless(struct page *page, int nr, int u)
+{
+       return atomic_add_unless(&page->_count, nr, u);
+}
+
+static inline int page_ref_freeze(struct page *page, int count)
+{
+       return likely(atomic_cmpxchg(&page->_count, count, 0) == count);
+}
+
+static inline void page_ref_unfreeze(struct page *page, int count)
+{
+       VM_BUG_ON_PAGE(page_count(page) != 0, page);
+       VM_BUG_ON(count == 0);
+
+       atomic_set(&page->_count, count);
+}
+
+#endif
index 183b15ea052ba1abe1ce8831c99efc323438e284..1ebd65c914220efa86814b7353353381bcb10d08 100644 (file)
@@ -165,7 +165,7 @@ static inline int page_cache_get_speculative(struct page *page)
         * SMP requires.
         */
        VM_BUG_ON_PAGE(page_count(page) == 0, page);
-       atomic_inc(&page->_count);
+       page_ref_inc(page);
 
 #else
        if (unlikely(!get_page_unless_zero(page))) {
@@ -194,10 +194,10 @@ static inline int page_cache_add_speculative(struct page *page, int count)
        VM_BUG_ON(!in_atomic());
 # endif
        VM_BUG_ON_PAGE(page_count(page) == 0, page);
-       atomic_add(count, &page->_count);
+       page_ref_add(page, count);
 
 #else
-       if (unlikely(!atomic_add_unless(&page->_count, count, 0)))
+       if (unlikely(!page_ref_add_unless(page, count, 0)))
                return 0;
 #endif
        VM_BUG_ON_PAGE(PageCompound(page) && page != compound_head(page), page);
@@ -205,19 +205,6 @@ static inline int page_cache_add_speculative(struct page *page, int count)
        return 1;
 }
 
-static inline int page_freeze_refs(struct page *page, int count)
-{
-       return likely(atomic_cmpxchg(&page->_count, count, 0) == count);
-}
-
-static inline void page_unfreeze_refs(struct page *page, int count)
-{
-       VM_BUG_ON_PAGE(page_count(page) != 0, page);
-       VM_BUG_ON(count == 0);
-
-       atomic_set(&page->_count, count);
-}
-
 #ifdef CONFIG_NUMA
 extern struct page *__page_cache_alloc(gfp_t gfp);
 #else
index df7247b0b5326a6a9251d89bce3b2ffb0e90a34b..8865bfb41b0b6e514a8f297c335a8682763bad6a 100644 (file)
@@ -43,7 +43,7 @@ const struct trace_print_flags vmaflag_names[] = {
 void __dump_page(struct page *page, const char *reason)
 {
        pr_emerg("page:%p count:%d mapcount:%d mapping:%p index:%#lx",
-                 page, atomic_read(&page->_count), page_mapcount(page),
+                 page, page_ref_count(page), page_mapcount(page),
                  page->mapping, page->index);
        if (PageCompound(page))
                pr_cont(" compound_mapcount: %d", compound_mapcount(page));
index e08b1659ff19c6131d3a9d82c9bab16d06bac551..bb944c771c82c7042dd72911f5ee3c82a2e950b6 100644 (file)
@@ -2888,7 +2888,7 @@ static void __split_huge_pmd_locked(struct vm_area_struct *vma, pmd_t *pmd,
 
        page = pmd_page(*pmd);
        VM_BUG_ON_PAGE(!page_count(page), page);
-       atomic_add(HPAGE_PMD_NR - 1, &page->_count);
+       page_ref_add(page, HPAGE_PMD_NR - 1);
        write = pmd_write(*pmd);
        young = pmd_young(*pmd);
        dirty = pmd_dirty(*pmd);
@@ -3257,7 +3257,7 @@ static void __split_huge_page_tail(struct page *head, int tail,
        struct page *page_tail = head + tail;
 
        VM_BUG_ON_PAGE(atomic_read(&page_tail->_mapcount) != -1, page_tail);
-       VM_BUG_ON_PAGE(atomic_read(&page_tail->_count) != 0, page_tail);
+       VM_BUG_ON_PAGE(page_ref_count(page_tail) != 0, page_tail);
 
        /*
         * tail_page->_count is zero and not changing from under us. But
@@ -3270,7 +3270,7 @@ static void __split_huge_page_tail(struct page *head, int tail,
         * atomic_set() here would be safe on all archs (and not only on x86),
         * it's safer to use atomic_inc().
         */
-       atomic_inc(&page_tail->_count);
+       page_ref_inc(page_tail);
 
        page_tail->flags &= ~PAGE_FLAGS_CHECK_AT_PREP;
        page_tail->flags |= (head->flags &
index 4042a8a05672c33b198063b0ecc0b593e1d99120..57d7b0e839f06fd969abe14950821d0f1b7db65e 100644 (file)
 void free_pgtables(struct mmu_gather *tlb, struct vm_area_struct *start_vma,
                unsigned long floor, unsigned long ceiling);
 
-static inline void set_page_count(struct page *page, int v)
-{
-       atomic_set(&page->_count, v);
-}
-
 extern int __do_page_cache_readahead(struct address_space *mapping,
                struct file *filp, pgoff_t offset, unsigned long nr_to_read,
                unsigned long lookahead_size);
@@ -64,7 +59,7 @@ static inline unsigned long ra_submit(struct file_ra_state *ra,
 static inline void set_page_refcounted(struct page *page)
 {
        VM_BUG_ON_PAGE(PageTail(page), page);
-       VM_BUG_ON_PAGE(atomic_read(&page->_count), page);
+       VM_BUG_ON_PAGE(page_ref_count(page), page);
        set_page_count(page, 1);
 }
 
index c832ef3565cc87e277084ca99702eb19f477c693..e62aa078f5c94172d100f8c1ad958d95f8a7c58e 100644 (file)
@@ -167,7 +167,7 @@ void get_page_bootmem(unsigned long info,  struct page *page,
        page->lru.next = (struct list_head *) type;
        SetPagePrivate(page);
        set_page_private(page, info);
-       atomic_inc(&page->_count);
+       page_ref_inc(page);
 }
 
 void put_page_bootmem(struct page *page)
@@ -178,7 +178,7 @@ void put_page_bootmem(struct page *page)
        BUG_ON(type < MEMORY_HOTPLUG_MIN_BOOTMEM_TYPE ||
               type > MEMORY_HOTPLUG_MAX_BOOTMEM_TYPE);
 
-       if (atomic_dec_return(&page->_count) == 1) {
+       if (page_ref_dec_return(page) == 1) {
                ClearPagePrivate(page);
                set_page_private(page, 0);
                INIT_LIST_HEAD(&page->lru);
index fdaf0818fb30cd9d45613ae77ff842320dee7157..577c94b8e959ac8034b82dbfa611c9a000de4478 100644 (file)
@@ -349,7 +349,7 @@ int migrate_page_move_mapping(struct address_space *mapping,
                return -EAGAIN;
        }
 
-       if (!page_freeze_refs(page, expected_count)) {
+       if (!page_ref_freeze(page, expected_count)) {
                spin_unlock_irq(&mapping->tree_lock);
                return -EAGAIN;
        }
@@ -363,7 +363,7 @@ int migrate_page_move_mapping(struct address_space *mapping,
         */
        if (mode == MIGRATE_ASYNC && head &&
                        !buffer_migrate_lock_buffers(head, mode)) {
-               page_unfreeze_refs(page, expected_count);
+               page_ref_unfreeze(page, expected_count);
                spin_unlock_irq(&mapping->tree_lock);
                return -EAGAIN;
        }
@@ -397,7 +397,7 @@ int migrate_page_move_mapping(struct address_space *mapping,
         * to one less reference.
         * We know this isn't the last reference.
         */
-       page_unfreeze_refs(page, expected_count - 1);
+       page_ref_unfreeze(page, expected_count - 1);
 
        spin_unlock(&mapping->tree_lock);
        /* Leave irq disabled to prevent preemption while updating stats */
@@ -451,7 +451,7 @@ int migrate_huge_page_move_mapping(struct address_space *mapping,
                return -EAGAIN;
        }
 
-       if (!page_freeze_refs(page, expected_count)) {
+       if (!page_ref_freeze(page, expected_count)) {
                spin_unlock_irq(&mapping->tree_lock);
                return -EAGAIN;
        }
@@ -463,7 +463,7 @@ int migrate_huge_page_move_mapping(struct address_space *mapping,
 
        radix_tree_replace_slot(pslot, newpage);
 
-       page_unfreeze_refs(page, expected_count - 1);
+       page_ref_unfreeze(page, expected_count - 1);
 
        spin_unlock_irq(&mapping->tree_lock);
 
index 096a00d98a45e90ad02818020324767366d19165..30134a8f7cc89988992dcab363e00c447aec97c1 100644 (file)
@@ -766,7 +766,7 @@ static inline int free_pages_check(struct page *page)
                bad_reason = "nonzero mapcount";
        if (unlikely(page->mapping != NULL))
                bad_reason = "non-NULL mapping";
-       if (unlikely(atomic_read(&page->_count) != 0))
+       if (unlikely(page_ref_count(page) != 0))
                bad_reason = "nonzero _count";
        if (unlikely(page->flags & PAGE_FLAGS_CHECK_AT_FREE)) {
                bad_reason = "PAGE_FLAGS_CHECK_AT_FREE flag(s) set";
@@ -1462,7 +1462,7 @@ static inline int check_new_page(struct page *page)
                bad_reason = "nonzero mapcount";
        if (unlikely(page->mapping != NULL))
                bad_reason = "non-NULL mapping";
-       if (unlikely(atomic_read(&page->_count) != 0))
+       if (unlikely(page_ref_count(page) != 0))
                bad_reason = "nonzero _count";
        if (unlikely(page->flags & __PG_HWPOISON)) {
                bad_reason = "HWPoisoned (hardware-corrupted)";
@@ -3475,7 +3475,7 @@ refill:
                /* Even if we own the page, we do not use atomic_set().
                 * This would break get_page_unless_zero() users.
                 */
-               atomic_add(size - 1, &page->_count);
+               page_ref_add(page, size - 1);
 
                /* reset page count bias and offset to start of new frag */
                nc->pfmemalloc = page_is_pfmemalloc(page);
@@ -3487,7 +3487,7 @@ refill:
        if (unlikely(offset < 0)) {
                page = virt_to_page(nc->va);
 
-               if (!atomic_sub_and_test(nc->pagecnt_bias, &page->_count))
+               if (!page_ref_sub_and_test(page, nc->pagecnt_bias))
                        goto refill;
 
 #if (PAGE_SIZE < PAGE_FRAG_CACHE_MAX_SIZE)
@@ -3495,7 +3495,7 @@ refill:
                size = nc->size;
 #endif
                /* OK, page count is 0, we can safely set it */
-               atomic_set(&page->_count, size);
+               set_page_count(page, size);
 
                /* reset page count bias and offset to start of new frag */
                nc->pagecnt_bias = size;
@@ -6852,7 +6852,7 @@ bool has_unmovable_pages(struct zone *zone, struct page *page, int count,
                 * This check already skips compound tails of THP
                 * because their page->_count is zero at all time.
                 */
-               if (!atomic_read(&page->_count)) {
+               if (!page_ref_count(page)) {
                        if (PageBuddy(page))
                                iter += (1 << page_order(page)) - 1;
                        continue;
index b41b82d4bab1efa49ef7f44625250747d927a26b..b934223eaa456aa664cfd5eb07cab634b70e0386 100644 (file)
@@ -638,11 +638,11 @@ static int __remove_mapping(struct address_space *mapping, struct page *page,
         * Note that if SetPageDirty is always performed via set_page_dirty,
         * and thus under tree_lock, then this ordering is not required.
         */
-       if (!page_freeze_refs(page, 2))
+       if (!page_ref_freeze(page, 2))
                goto cannot_free;
        /* note: atomic_cmpxchg in page_freeze_refs provides the smp_rmb */
        if (unlikely(PageDirty(page))) {
-               page_unfreeze_refs(page, 2);
+               page_ref_unfreeze(page, 2);
                goto cannot_free;
        }
 
@@ -704,7 +704,7 @@ int remove_mapping(struct address_space *mapping, struct page *page)
                 * drops the pagecache ref for us without requiring another
                 * atomic operation.
                 */
-               page_unfreeze_refs(page, 1);
+               page_ref_unfreeze(page, 1);
                return 1;
        }
        return 0;
index 6c1c8bc934127c48bb5e0a95961e61c5b79da5b4..67e7efe12ff7e727c215ed0c67b1b063537c8eca 100644 (file)
@@ -1903,7 +1903,7 @@ EXPORT_SYMBOL(sock_cmsg_send);
 bool skb_page_frag_refill(unsigned int sz, struct page_frag *pfrag, gfp_t gfp)
 {
        if (pfrag->page) {
-               if (atomic_read(&pfrag->page->_count) == 1) {
+               if (page_ref_count(pfrag->page) == 1) {
                        pfrag->offset = 0;
                        return true;
                }