fork: report pid reservation failure properly
[linux-2.6-block.git] / mm / mempool.c
index e209c98c72039b55afd1b5ca0b518e89094770a8..2cc08de8b1db259c70ad8d3aa28d0691f7ada544 100644 (file)
  *  extreme VM load.
  *
  *  started by Ingo Molnar, Copyright (C) 2001
+ *  debugging by David Rientjes, Copyright (C) 2015
  */
 
 #include <linux/mm.h>
 #include <linux/slab.h>
+#include <linux/highmem.h>
+#include <linux/kasan.h>
 #include <linux/kmemleak.h>
 #include <linux/export.h>
 #include <linux/mempool.h>
 #include <linux/blkdev.h>
 #include <linux/writeback.h>
+#include "slab.h"
+
+#if defined(CONFIG_DEBUG_SLAB) || defined(CONFIG_SLUB_DEBUG_ON)
+static void poison_error(mempool_t *pool, void *element, size_t size,
+                        size_t byte)
+{
+       const int nr = pool->curr_nr;
+       const int start = max_t(int, byte - (BITS_PER_LONG / 8), 0);
+       const int end = min_t(int, byte + (BITS_PER_LONG / 8), size);
+       int i;
+
+       pr_err("BUG: mempool element poison mismatch\n");
+       pr_err("Mempool %p size %zu\n", pool, size);
+       pr_err(" nr=%d @ %p: %s0x", nr, element, start > 0 ? "... " : "");
+       for (i = start; i < end; i++)
+               pr_cont("%x ", *(u8 *)(element + i));
+       pr_cont("%s\n", end < size ? "..." : "");
+       dump_stack();
+}
+
+static void __check_element(mempool_t *pool, void *element, size_t size)
+{
+       u8 *obj = element;
+       size_t i;
+
+       for (i = 0; i < size; i++) {
+               u8 exp = (i < size - 1) ? POISON_FREE : POISON_END;
+
+               if (obj[i] != exp) {
+                       poison_error(pool, element, size, i);
+                       return;
+               }
+       }
+       memset(obj, POISON_INUSE, size);
+}
+
+static void check_element(mempool_t *pool, void *element)
+{
+       /* Mempools backed by slab allocator */
+       if (pool->free == mempool_free_slab || pool->free == mempool_kfree)
+               __check_element(pool, element, ksize(element));
+
+       /* Mempools backed by page allocator */
+       if (pool->free == mempool_free_pages) {
+               int order = (int)(long)pool->pool_data;
+               void *addr = kmap_atomic((struct page *)element);
+
+               __check_element(pool, addr, 1UL << (PAGE_SHIFT + order));
+               kunmap_atomic(addr);
+       }
+}
+
+static void __poison_element(void *element, size_t size)
+{
+       u8 *obj = element;
+
+       memset(obj, POISON_FREE, size - 1);
+       obj[size - 1] = POISON_END;
+}
+
+static void poison_element(mempool_t *pool, void *element)
+{
+       /* Mempools backed by slab allocator */
+       if (pool->alloc == mempool_alloc_slab || pool->alloc == mempool_kmalloc)
+               __poison_element(element, ksize(element));
+
+       /* Mempools backed by page allocator */
+       if (pool->alloc == mempool_alloc_pages) {
+               int order = (int)(long)pool->pool_data;
+               void *addr = kmap_atomic((struct page *)element);
+
+               __poison_element(addr, 1UL << (PAGE_SHIFT + order));
+               kunmap_atomic(addr);
+       }
+}
+#else /* CONFIG_DEBUG_SLAB || CONFIG_SLUB_DEBUG_ON */
+static inline void check_element(mempool_t *pool, void *element)
+{
+}
+static inline void poison_element(mempool_t *pool, void *element)
+{
+}
+#endif /* CONFIG_DEBUG_SLAB || CONFIG_SLUB_DEBUG_ON */
+
+static void kasan_poison_element(mempool_t *pool, void *element)
+{
+       if (pool->alloc == mempool_alloc_slab)
+               kasan_slab_free(pool->pool_data, element);
+       if (pool->alloc == mempool_kmalloc)
+               kasan_kfree(element);
+       if (pool->alloc == mempool_alloc_pages)
+               kasan_free_pages(element, (unsigned long)pool->pool_data);
+}
+
+static void kasan_unpoison_element(mempool_t *pool, void *element)
+{
+       if (pool->alloc == mempool_alloc_slab)
+               kasan_slab_alloc(pool->pool_data, element);
+       if (pool->alloc == mempool_kmalloc)
+               kasan_krealloc(element, (size_t)pool->pool_data);
+       if (pool->alloc == mempool_alloc_pages)
+               kasan_alloc_pages(element, (unsigned long)pool->pool_data);
+}
 
 static void add_element(mempool_t *pool, void *element)
 {
        BUG_ON(pool->curr_nr >= pool->min_nr);
+       poison_element(pool, element);
+       kasan_poison_element(pool, element);
        pool->elements[pool->curr_nr++] = element;
 }
 
 static void *remove_element(mempool_t *pool)
 {
-       BUG_ON(pool->curr_nr <= 0);
-       return pool->elements[--pool->curr_nr];
+       void *element = pool->elements[--pool->curr_nr];
+
+       BUG_ON(pool->curr_nr < 0);
+       check_element(pool, element);
+       kasan_unpoison_element(pool, element);
+       return element;
 }
 
 /**
@@ -113,23 +225,24 @@ EXPORT_SYMBOL(mempool_create_node);
  *              mempool_create().
  * @new_min_nr: the new minimum number of elements guaranteed to be
  *              allocated for this pool.
- * @gfp_mask:   the usual allocation bitmask.
  *
  * This function shrinks/grows the pool. In the case of growing,
  * it cannot be guaranteed that the pool will be grown to the new
  * size immediately, but new mempool_free() calls will refill it.
+ * This function may sleep.
  *
  * Note, the caller must guarantee that no mempool_destroy is called
  * while this function is running. mempool_alloc() & mempool_free()
  * might be called (eg. from IRQ contexts) while this function executes.
  */
-int mempool_resize(mempool_t *pool, int new_min_nr, gfp_t gfp_mask)
+int mempool_resize(mempool_t *pool, int new_min_nr)
 {
        void *element;
        void **new_elements;
        unsigned long flags;
 
        BUG_ON(new_min_nr <= 0);
+       might_sleep();
 
        spin_lock_irqsave(&pool->lock, flags);
        if (new_min_nr <= pool->min_nr) {
@@ -145,7 +258,8 @@ int mempool_resize(mempool_t *pool, int new_min_nr, gfp_t gfp_mask)
        spin_unlock_irqrestore(&pool->lock, flags);
 
        /* Grow the pool */
-       new_elements = kmalloc(new_min_nr * sizeof(*new_elements), gfp_mask);
+       new_elements = kmalloc_array(new_min_nr, sizeof(*new_elements),
+                                    GFP_KERNEL);
        if (!new_elements)
                return -ENOMEM;
 
@@ -164,7 +278,7 @@ int mempool_resize(mempool_t *pool, int new_min_nr, gfp_t gfp_mask)
 
        while (pool->curr_nr < pool->min_nr) {
                spin_unlock_irqrestore(&pool->lock, flags);
-               element = pool->alloc(gfp_mask, pool->pool_data);
+               element = pool->alloc(GFP_KERNEL, pool->pool_data);
                if (!element)
                        goto out;
                spin_lock_irqsave(&pool->lock, flags);
@@ -332,6 +446,7 @@ EXPORT_SYMBOL(mempool_free);
 void *mempool_alloc_slab(gfp_t gfp_mask, void *pool_data)
 {
        struct kmem_cache *mem = pool_data;
+       VM_BUG_ON(mem->ctor);
        return kmem_cache_alloc(mem, gfp_mask);
 }
 EXPORT_SYMBOL(mempool_alloc_slab);