Merge tag 'slab-for-6.15' of git://git.kernel.org/pub/scm/linux/kernel/git/vbabka...
authorLinus Torvalds <torvalds@linux-foundation.org>
Mon, 24 Mar 2025 23:15:47 +0000 (16:15 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Mon, 24 Mar 2025 23:15:47 +0000 (16:15 -0700)
Pull slab updates from Vlastimil Babka:

 - Move the TINY_RCU kvfree_rcu() implementation from RCU to SLAB
   subsystem and cleanup its integration (Vlastimil Babka)

   Following the move of the TREE_RCU batching kvfree_rcu()
   implementation in 6.14, move also the simpler TINY_RCU variant.
   Refactor the #ifdef guards so that the simple implementation is also
   used with SLUB_TINY.

   Remove the need for RCU to recognize fake callback function pointers
   (__is_kvfree_rcu_offset()) when handling call_rcu() by implementing a
   callback that calculates the object's address from the embedded
   rcu_head address without knowing its offset.

 - Improve kmalloc cache randomization in kvmalloc (GONG Ruiqi)

   Due to an extra layer of function call, all kvmalloc() allocations
   used the same set of random caches. Thanks to moving the kvmalloc()
   implementation to slub.c, this is improved and randomization now
   works for kvmalloc.

 - Various improvements to debugging, testing and other cleanups (Hyesoo
   Yu, Lilith Gkini, Uladzislau Rezki, Matthew Wilcox, Kevin Brodsky, Ye
   Bin)

* tag 'slab-for-6.15' of git://git.kernel.org/pub/scm/linux/kernel/git/vbabka/slab:
  slub: Handle freelist cycle in on_freelist()
  mm/slab: call kmalloc_noprof() unconditionally in kmalloc_array_noprof()
  slab: Mark large folios for debugging purposes
  kunit, slub: Add test_kfree_rcu_wq_destroy use case
  mm, slab: cleanup slab_bug() parameters
  mm: slub: call WARN() when detecting a slab corruption
  mm: slub: Print the broken data before restoring them
  slab: Achieve better kmalloc caches randomization in kvmalloc
  slab: Adjust placement of __kvmalloc_node_noprof
  mm/slab: simplify SLAB_* flag handling
  slab: don't batch kvfree_rcu() with SLUB_TINY
  rcu, slab: use a regular callback function for kvfree_rcu
  rcu: remove trace_rcu_kvfree_callback
  slab, rcu: move TINY_RCU variant of kvfree_rcu() to SLAB

1  2 
lib/tests/slub_kunit.c
mm/util.c

index f11691315c2fb21190b6ec211599a29af65a6391,0000000000000000000000000000000000000000..d47c472b05201bd0850d440dd2d185460de8ec9f
mode 100644,000000..100644
--- /dev/null
@@@ -1,269 -1,0 +1,328 @@@
 +// SPDX-License-Identifier: GPL-2.0
 +#include <kunit/test.h>
 +#include <kunit/test-bug.h>
 +#include <linux/mm.h>
 +#include <linux/slab.h>
 +#include <linux/module.h>
 +#include <linux/kernel.h>
 +#include <linux/rcupdate.h>
++#include <linux/delay.h>
 +#include "../mm/slab.h"
 +
 +static struct kunit_resource resource;
 +static int slab_errors;
 +
 +/*
 + * Wrapper function for kmem_cache_create(), which reduces 2 parameters:
 + * 'align' and 'ctor', and sets SLAB_SKIP_KFENCE flag to avoid getting an
 + * object from kfence pool, where the operation could be caught by both
 + * our test and kfence sanity check.
 + */
 +static struct kmem_cache *test_kmem_cache_create(const char *name,
 +                              unsigned int size, slab_flags_t flags)
 +{
 +      struct kmem_cache *s = kmem_cache_create(name, size, 0,
 +                                      (flags | SLAB_NO_USER_FLAGS), NULL);
 +      s->flags |= SLAB_SKIP_KFENCE;
 +      return s;
 +}
 +
 +static void test_clobber_zone(struct kunit *test)
 +{
 +      struct kmem_cache *s = test_kmem_cache_create("TestSlub_RZ_alloc", 64,
 +                                                      SLAB_RED_ZONE);
 +      u8 *p = kmem_cache_alloc(s, GFP_KERNEL);
 +
 +      kasan_disable_current();
 +      p[64] = 0x12;
 +
 +      validate_slab_cache(s);
 +      KUNIT_EXPECT_EQ(test, 2, slab_errors);
 +
 +      kasan_enable_current();
 +      kmem_cache_free(s, p);
 +      kmem_cache_destroy(s);
 +}
 +
 +#ifndef CONFIG_KASAN
 +static void test_next_pointer(struct kunit *test)
 +{
 +      struct kmem_cache *s = test_kmem_cache_create("TestSlub_next_ptr_free",
 +                                                      64, SLAB_POISON);
 +      u8 *p = kmem_cache_alloc(s, GFP_KERNEL);
 +      unsigned long tmp;
 +      unsigned long *ptr_addr;
 +
 +      kmem_cache_free(s, p);
 +
 +      ptr_addr = (unsigned long *)(p + s->offset);
 +      tmp = *ptr_addr;
 +      p[s->offset] = ~p[s->offset];
 +
 +      /*
 +       * Expecting three errors.
 +       * One for the corrupted freechain and the other one for the wrong
 +       * count of objects in use. The third error is fixing broken cache.
 +       */
 +      validate_slab_cache(s);
 +      KUNIT_EXPECT_EQ(test, 3, slab_errors);
 +
 +      /*
 +       * Try to repair corrupted freepointer.
 +       * Still expecting two errors. The first for the wrong count
 +       * of objects in use.
 +       * The second error is for fixing broken cache.
 +       */
 +      *ptr_addr = tmp;
 +      slab_errors = 0;
 +
 +      validate_slab_cache(s);
 +      KUNIT_EXPECT_EQ(test, 2, slab_errors);
 +
 +      /*
 +       * Previous validation repaired the count of objects in use.
 +       * Now expecting no error.
 +       */
 +      slab_errors = 0;
 +      validate_slab_cache(s);
 +      KUNIT_EXPECT_EQ(test, 0, slab_errors);
 +
 +      kmem_cache_destroy(s);
 +}
 +
 +static void test_first_word(struct kunit *test)
 +{
 +      struct kmem_cache *s = test_kmem_cache_create("TestSlub_1th_word_free",
 +                                                      64, SLAB_POISON);
 +      u8 *p = kmem_cache_alloc(s, GFP_KERNEL);
 +
 +      kmem_cache_free(s, p);
 +      *p = 0x78;
 +
 +      validate_slab_cache(s);
 +      KUNIT_EXPECT_EQ(test, 2, slab_errors);
 +
 +      kmem_cache_destroy(s);
 +}
 +
 +static void test_clobber_50th_byte(struct kunit *test)
 +{
 +      struct kmem_cache *s = test_kmem_cache_create("TestSlub_50th_word_free",
 +                                                      64, SLAB_POISON);
 +      u8 *p = kmem_cache_alloc(s, GFP_KERNEL);
 +
 +      kmem_cache_free(s, p);
 +      p[50] = 0x9a;
 +
 +      validate_slab_cache(s);
 +      KUNIT_EXPECT_EQ(test, 2, slab_errors);
 +
 +      kmem_cache_destroy(s);
 +}
 +#endif
 +
 +static void test_clobber_redzone_free(struct kunit *test)
 +{
 +      struct kmem_cache *s = test_kmem_cache_create("TestSlub_RZ_free", 64,
 +                                                      SLAB_RED_ZONE);
 +      u8 *p = kmem_cache_alloc(s, GFP_KERNEL);
 +
 +      kasan_disable_current();
 +      kmem_cache_free(s, p);
 +      p[64] = 0xab;
 +
 +      validate_slab_cache(s);
 +      KUNIT_EXPECT_EQ(test, 2, slab_errors);
 +
 +      kasan_enable_current();
 +      kmem_cache_destroy(s);
 +}
 +
 +static void test_kmalloc_redzone_access(struct kunit *test)
 +{
 +      struct kmem_cache *s = test_kmem_cache_create("TestSlub_RZ_kmalloc", 32,
 +                              SLAB_KMALLOC|SLAB_STORE_USER|SLAB_RED_ZONE);
 +      u8 *p = alloc_hooks(__kmalloc_cache_noprof(s, GFP_KERNEL, 18));
 +
 +      kasan_disable_current();
 +
 +      /* Suppress the -Warray-bounds warning */
 +      OPTIMIZER_HIDE_VAR(p);
 +      p[18] = 0xab;
 +      p[19] = 0xab;
 +
 +      validate_slab_cache(s);
 +      KUNIT_EXPECT_EQ(test, 2, slab_errors);
 +
 +      kasan_enable_current();
 +      kmem_cache_free(s, p);
 +      kmem_cache_destroy(s);
 +}
 +
 +struct test_kfree_rcu_struct {
 +      struct rcu_head rcu;
 +};
 +
 +static void test_kfree_rcu(struct kunit *test)
 +{
 +      struct kmem_cache *s;
 +      struct test_kfree_rcu_struct *p;
 +
 +      if (IS_BUILTIN(CONFIG_SLUB_KUNIT_TEST))
 +              kunit_skip(test, "can't do kfree_rcu() when test is built-in");
 +
 +      s = test_kmem_cache_create("TestSlub_kfree_rcu",
 +                                 sizeof(struct test_kfree_rcu_struct),
 +                                 SLAB_NO_MERGE);
 +      p = kmem_cache_alloc(s, GFP_KERNEL);
 +
 +      kfree_rcu(p, rcu);
 +      kmem_cache_destroy(s);
 +
 +      KUNIT_EXPECT_EQ(test, 0, slab_errors);
 +}
 +
++struct cache_destroy_work {
++      struct work_struct work;
++      struct kmem_cache *s;
++};
++
++static void cache_destroy_workfn(struct work_struct *w)
++{
++      struct cache_destroy_work *cdw;
++
++      cdw = container_of(w, struct cache_destroy_work, work);
++      kmem_cache_destroy(cdw->s);
++}
++
++#define KMEM_CACHE_DESTROY_NR 10
++
++static void test_kfree_rcu_wq_destroy(struct kunit *test)
++{
++      struct test_kfree_rcu_struct *p;
++      struct cache_destroy_work cdw;
++      struct workqueue_struct *wq;
++      struct kmem_cache *s;
++      unsigned int delay;
++      int i;
++
++      if (IS_BUILTIN(CONFIG_SLUB_KUNIT_TEST))
++              kunit_skip(test, "can't do kfree_rcu() when test is built-in");
++
++      INIT_WORK_ONSTACK(&cdw.work, cache_destroy_workfn);
++      wq = alloc_workqueue("test_kfree_rcu_destroy_wq",
++                      WQ_HIGHPRI | WQ_UNBOUND | WQ_MEM_RECLAIM, 0);
++
++      if (!wq)
++              kunit_skip(test, "failed to alloc wq");
++
++      for (i = 0; i < KMEM_CACHE_DESTROY_NR; i++) {
++              s = test_kmem_cache_create("TestSlub_kfree_rcu_wq_destroy",
++                              sizeof(struct test_kfree_rcu_struct),
++                              SLAB_NO_MERGE);
++
++              if (!s)
++                      kunit_skip(test, "failed to create cache");
++
++              delay = get_random_u8();
++              p = kmem_cache_alloc(s, GFP_KERNEL);
++              kfree_rcu(p, rcu);
++
++              cdw.s = s;
++
++              msleep(delay);
++              queue_work(wq, &cdw.work);
++              flush_work(&cdw.work);
++      }
++
++      destroy_workqueue(wq);
++      KUNIT_EXPECT_EQ(test, 0, slab_errors);
++}
++
 +static void test_leak_destroy(struct kunit *test)
 +{
 +      struct kmem_cache *s = test_kmem_cache_create("TestSlub_leak_destroy",
 +                                                      64, SLAB_NO_MERGE);
 +      kmem_cache_alloc(s, GFP_KERNEL);
 +
 +      kmem_cache_destroy(s);
 +
 +      KUNIT_EXPECT_EQ(test, 2, slab_errors);
 +}
 +
 +static void test_krealloc_redzone_zeroing(struct kunit *test)
 +{
 +      u8 *p;
 +      int i;
 +      struct kmem_cache *s = test_kmem_cache_create("TestSlub_krealloc", 64,
 +                              SLAB_KMALLOC|SLAB_STORE_USER|SLAB_RED_ZONE);
 +
 +      p = alloc_hooks(__kmalloc_cache_noprof(s, GFP_KERNEL, 48));
 +      memset(p, 0xff, 48);
 +
 +      kasan_disable_current();
 +      OPTIMIZER_HIDE_VAR(p);
 +
 +      /* Test shrink */
 +      p = krealloc(p, 40, GFP_KERNEL | __GFP_ZERO);
 +      for (i = 40; i < 64; i++)
 +              KUNIT_EXPECT_EQ(test, p[i], SLUB_RED_ACTIVE);
 +
 +      /* Test grow within the same 64B kmalloc object */
 +      p = krealloc(p, 56, GFP_KERNEL | __GFP_ZERO);
 +      for (i = 40; i < 56; i++)
 +              KUNIT_EXPECT_EQ(test, p[i], 0);
 +      for (i = 56; i < 64; i++)
 +              KUNIT_EXPECT_EQ(test, p[i], SLUB_RED_ACTIVE);
 +
 +      validate_slab_cache(s);
 +      KUNIT_EXPECT_EQ(test, 0, slab_errors);
 +
 +      memset(p, 0xff, 56);
 +      /* Test grow with allocating a bigger 128B object */
 +      p = krealloc(p, 112, GFP_KERNEL | __GFP_ZERO);
 +      for (i = 0; i < 56; i++)
 +              KUNIT_EXPECT_EQ(test, p[i], 0xff);
 +      for (i = 56; i < 112; i++)
 +              KUNIT_EXPECT_EQ(test, p[i], 0);
 +
 +      kfree(p);
 +      kasan_enable_current();
 +      kmem_cache_destroy(s);
 +}
 +
 +static int test_init(struct kunit *test)
 +{
 +      slab_errors = 0;
 +
 +      kunit_add_named_resource(test, NULL, NULL, &resource,
 +                                      "slab_errors", &slab_errors);
 +      return 0;
 +}
 +
 +static struct kunit_case test_cases[] = {
 +      KUNIT_CASE(test_clobber_zone),
 +
 +#ifndef CONFIG_KASAN
 +      KUNIT_CASE(test_next_pointer),
 +      KUNIT_CASE(test_first_word),
 +      KUNIT_CASE(test_clobber_50th_byte),
 +#endif
 +
 +      KUNIT_CASE(test_clobber_redzone_free),
 +      KUNIT_CASE(test_kmalloc_redzone_access),
 +      KUNIT_CASE(test_kfree_rcu),
++      KUNIT_CASE(test_kfree_rcu_wq_destroy),
 +      KUNIT_CASE(test_leak_destroy),
 +      KUNIT_CASE(test_krealloc_redzone_zeroing),
 +      {}
 +};
 +
 +static struct kunit_suite test_suite = {
 +      .name = "slub_test",
 +      .init = test_init,
 +      .test_cases = test_cases,
 +};
 +kunit_test_suite(test_suite);
 +
 +MODULE_LICENSE("GPL");
diff --cc mm/util.c
Simple merge