Merge branch 'locking-urgent-for-linus' of git://git.kernel.org/pub/scm/linux/kernel...
[linux-2.6-block.git] / arch / powerpc / mm / pgtable_32.c
index 6e56a6240bfa4da1ee1815bb01835c596fad5e1a..16ada373b32b5144d2e94941d56d9c3a07bf2f6c 100644 (file)
 #include <asm/setup.h>
 #include <asm/sections.h>
 
-#include "mmu_decl.h"
+#include <mm/mmu_decl.h>
 
 unsigned long ioremap_bot;
 EXPORT_SYMBOL(ioremap_bot);    /* aka VMALLOC_END */
 
 extern char etext[], _stext[], _sinittext[], _einittext[];
 
-__ref pte_t *pte_alloc_one_kernel(struct mm_struct *mm)
-{
-       if (!slab_is_available())
-               return memblock_alloc(PTE_FRAG_SIZE, PTE_FRAG_SIZE);
-
-       return (pte_t *)pte_fragment_alloc(mm, 1);
-}
-
-pgtable_t pte_alloc_one(struct mm_struct *mm)
-{
-       return (pgtable_t)pte_fragment_alloc(mm, 0);
-}
-
 void __iomem *
 ioremap(phys_addr_t addr, unsigned long size)
 {
@@ -205,7 +192,29 @@ void iounmap(volatile void __iomem *addr)
 }
 EXPORT_SYMBOL(iounmap);
 
-int map_kernel_page(unsigned long va, phys_addr_t pa, pgprot_t prot)
+static void __init *early_alloc_pgtable(unsigned long size)
+{
+       void *ptr = memblock_alloc(size, size);
+
+       if (!ptr)
+               panic("%s: Failed to allocate %lu bytes align=0x%lx\n",
+                     __func__, size, size);
+
+       return ptr;
+}
+
+static pte_t __init *early_pte_alloc_kernel(pmd_t *pmdp, unsigned long va)
+{
+       if (pmd_none(*pmdp)) {
+               pte_t *ptep = early_alloc_pgtable(PTE_FRAG_SIZE);
+
+               pmd_populate_kernel(&init_mm, pmdp, ptep);
+       }
+       return pte_offset_kernel(pmdp, va);
+}
+
+
+int __ref map_kernel_page(unsigned long va, phys_addr_t pa, pgprot_t prot)
 {
        pmd_t *pd;
        pte_t *pg;
@@ -214,7 +223,10 @@ int map_kernel_page(unsigned long va, phys_addr_t pa, pgprot_t prot)
        /* Use upper 10 bits of VA to index the first level map */
        pd = pmd_offset(pud_offset(pgd_offset_k(va), va), va);
        /* Use middle 10 bits of VA to index the second-level map */
-       pg = pte_alloc_kernel(pd, va);
+       if (likely(slab_is_available()))
+               pg = pte_alloc_kernel(pd, va);
+       else
+               pg = early_pte_alloc_kernel(pd, va);
        if (pg != 0) {
                err = 0;
                /* The PTE should never be already set nor present in the
@@ -384,6 +396,9 @@ void mark_rodata_ro(void)
                   PFN_DOWN((unsigned long)__start_rodata);
 
        change_page_attr(page, numpages, PAGE_KERNEL_RO);
+
+       // mark_initmem_nx() should have already run by now
+       ptdump_check_wx();
 }
 #endif