Merge branch 'x86-mm-for-linus' of git://git.kernel.org/pub/scm/linux/kernel/git...
authorLinus Torvalds <torvalds@linux-foundation.org>
Mon, 6 May 2019 23:13:31 +0000 (16:13 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Mon, 6 May 2019 23:13:31 +0000 (16:13 -0700)
Pull x86 mm updates from Ingo Molnar:
 "The changes in here are:

   - text_poke() fixes and an extensive set of executability lockdowns,
     to (hopefully) eliminate the last residual circumstances under
     which we are using W|X mappings even temporarily on x86 kernels.
     This required a broad range of surgery in text patching facilities,
     module loading, trampoline handling and other bits.

   - tweak page fault messages to be more informative and more
     structured.

   - remove DISCONTIGMEM support on x86-32 and make SPARSEMEM the
     default.

   - reduce KASLR granularity on 5-level paging kernels from 512 GB to
     1 GB.

   - misc other changes and updates"

* 'x86-mm-for-linus' of git://git.kernel.org/pub/scm/linux/kernel/git/tip/tip: (36 commits)
  x86/mm: Initialize PGD cache during mm initialization
  x86/alternatives: Add comment about module removal races
  x86/kprobes: Use vmalloc special flag
  x86/ftrace: Use vmalloc special flag
  bpf: Use vmalloc special flag
  modules: Use vmalloc special flag
  mm/vmalloc: Add flag for freeing of special permsissions
  mm/hibernation: Make hibernation handle unmapped pages
  x86/mm/cpa: Add set_direct_map_*() functions
  x86/alternatives: Remove the return value of text_poke_*()
  x86/jump-label: Remove support for custom text poker
  x86/modules: Avoid breaking W^X while loading modules
  x86/kprobes: Set instruction page as executable
  x86/ftrace: Set trampoline pages as executable
  x86/kgdb: Avoid redundant comparison of patched code
  x86/alternatives: Use temporary mm for text poking
  x86/alternatives: Initialize temporary mm for patching
  fork: Provide a function for copying init_mm
  uprobes: Initialize uprobes earlier
  x86/mm: Save debug registers when loading a temporary mm
  ...

1  2 
arch/Kconfig
arch/x86/Kconfig
arch/x86/include/asm/pgtable.h
arch/x86/include/asm/tlbflush.h
arch/x86/kernel/kprobes/core.c
arch/x86/kernel/vmlinux.lds.S
arch/x86/mm/fault.c
arch/x86/mm/pgtable.c
include/asm-generic/tlb.h

diff --cc arch/Kconfig
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
index b9edc7608d9019db11ae45088bbb9cbcd75ca168,075b353cae86d59c2996e7fbc717ff0d10441f85..480e5b2a5748e56fc097a7758bf60e8c4eb12367
  #include <linux/swap.h>
  #include <asm/pgalloc.h>
  #include <asm/tlbflush.h>
 +#include <asm/cacheflush.h>
  
+ /*
+  * Blindly accessing user memory from NMI context can be dangerous
+  * if we're in the middle of switching the current user task or switching
+  * the loaded mm.
+  */
+ #ifndef nmi_uaccess_okay
+ # define nmi_uaccess_okay() true
+ #endif
  #ifdef CONFIG_MMU
  
 +/*
 + * Generic MMU-gather implementation.
 + *
 + * The mmu_gather data structure is used by the mm code to implement the
 + * correct and efficient ordering of freeing pages and TLB invalidations.
 + *
 + * This correct ordering is:
 + *
 + *  1) unhook page
 + *  2) TLB invalidate page
 + *  3) free page
 + *
 + * That is, we must never free a page before we have ensured there are no live
 + * translations left to it. Otherwise it might be possible to observe (or
 + * worse, change) the page content after it has been reused.
 + *
 + * The mmu_gather API consists of:
 + *
 + *  - tlb_gather_mmu() / tlb_finish_mmu(); start and finish a mmu_gather
 + *
 + *    Finish in particular will issue a (final) TLB invalidate and free
 + *    all (remaining) queued pages.
 + *
 + *  - tlb_start_vma() / tlb_end_vma(); marks the start / end of a VMA
 + *
 + *    Defaults to flushing at tlb_end_vma() to reset the range; helps when
 + *    there's large holes between the VMAs.
 + *
 + *  - tlb_remove_page() / __tlb_remove_page()
 + *  - tlb_remove_page_size() / __tlb_remove_page_size()
 + *
 + *    __tlb_remove_page_size() is the basic primitive that queues a page for
 + *    freeing. __tlb_remove_page() assumes PAGE_SIZE. Both will return a
 + *    boolean indicating if the queue is (now) full and a call to
 + *    tlb_flush_mmu() is required.
 + *
 + *    tlb_remove_page() and tlb_remove_page_size() imply the call to
 + *    tlb_flush_mmu() when required and has no return value.
 + *
 + *  - tlb_change_page_size()
 + *
 + *    call before __tlb_remove_page*() to set the current page-size; implies a
 + *    possible tlb_flush_mmu() call.
 + *
 + *  - tlb_flush_mmu() / tlb_flush_mmu_tlbonly()
 + *
 + *    tlb_flush_mmu_tlbonly() - does the TLB invalidate (and resets
 + *                              related state, like the range)
 + *
 + *    tlb_flush_mmu() - in addition to the above TLB invalidate, also frees
 + *                    whatever pages are still batched.
 + *
 + *  - mmu_gather::fullmm
 + *
 + *    A flag set by tlb_gather_mmu() to indicate we're going to free
 + *    the entire mm; this allows a number of optimizations.
 + *
 + *    - We can ignore tlb_{start,end}_vma(); because we don't
 + *      care about ranges. Everything will be shot down.
 + *
 + *    - (RISC) architectures that use ASIDs can cycle to a new ASID
 + *      and delay the invalidation until ASID space runs out.
 + *
 + *  - mmu_gather::need_flush_all
 + *
 + *    A flag that can be set by the arch code if it wants to force
 + *    flush the entire TLB irrespective of the range. For instance
 + *    x86-PAE needs this when changing top-level entries.
 + *
 + * And allows the architecture to provide and implement tlb_flush():
 + *
 + * tlb_flush() may, in addition to the above mentioned mmu_gather fields, make
 + * use of:
 + *
 + *  - mmu_gather::start / mmu_gather::end
 + *
 + *    which provides the range that needs to be flushed to cover the pages to
 + *    be freed.
 + *
 + *  - mmu_gather::freed_tables
 + *
 + *    set when we freed page table pages
 + *
 + *  - tlb_get_unmap_shift() / tlb_get_unmap_size()
 + *
 + *    returns the smallest TLB entry size unmapped in this range.
 + *
 + * If an architecture does not provide tlb_flush() a default implementation
 + * based on flush_tlb_range() will be used, unless MMU_GATHER_NO_RANGE is
 + * specified, in which case we'll default to flush_tlb_mm().
 + *
 + * Additionally there are a few opt-in features:
 + *
 + *  HAVE_MMU_GATHER_PAGE_SIZE
 + *
 + *  This ensures we call tlb_flush() every time tlb_change_page_size() actually
 + *  changes the size and provides mmu_gather::page_size to tlb_flush().
 + *
 + *  HAVE_RCU_TABLE_FREE
 + *
 + *  This provides tlb_remove_table(), to be used instead of tlb_remove_page()
 + *  for page directores (__p*_free_tlb()). This provides separate freeing of
 + *  the page-table pages themselves in a semi-RCU fashion (see comment below).
 + *  Useful if your architecture doesn't use IPIs for remote TLB invalidates
 + *  and therefore doesn't naturally serialize with software page-table walkers.
 + *
 + *  When used, an architecture is expected to provide __tlb_remove_table()
 + *  which does the actual freeing of these pages.
 + *
 + *  HAVE_RCU_TABLE_NO_INVALIDATE
 + *
 + *  This makes HAVE_RCU_TABLE_FREE avoid calling tlb_flush_mmu_tlbonly() before
 + *  freeing the page-table pages. This can be avoided if you use
 + *  HAVE_RCU_TABLE_FREE and your architecture does _NOT_ use the Linux
 + *  page-tables natively.
 + *
 + *  MMU_GATHER_NO_RANGE
 + *
 + *  Use this if your architecture lacks an efficient flush_tlb_range().
 + */
 +
  #ifdef CONFIG_HAVE_RCU_TABLE_FREE
  /*
   * Semi RCU freeing of the page directories.