memblock: remove _virt from APIs returning virtual address
authorMike Rapoport <rppt@linux.vnet.ibm.com>
Tue, 30 Oct 2018 22:08:04 +0000 (15:08 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Wed, 31 Oct 2018 15:54:15 +0000 (08:54 -0700)
The conversion is done using

sed -i 's@memblock_virt_alloc@memblock_alloc@g' \
$(git grep -l memblock_virt_alloc)

Link: http://lkml.kernel.org/r/1536927045-23536-8-git-send-email-rppt@linux.vnet.ibm.com
Signed-off-by: Mike Rapoport <rppt@linux.vnet.ibm.com>
Cc: Catalin Marinas <catalin.marinas@arm.com>
Cc: Chris Zankel <chris@zankel.net>
Cc: "David S. Miller" <davem@davemloft.net>
Cc: Geert Uytterhoeven <geert@linux-m68k.org>
Cc: Greentime Hu <green.hu@gmail.com>
Cc: Greg Kroah-Hartman <gregkh@linuxfoundation.org>
Cc: Guan Xuetao <gxt@pku.edu.cn>
Cc: Ingo Molnar <mingo@redhat.com>
Cc: "James E.J. Bottomley" <jejb@parisc-linux.org>
Cc: Jonas Bonn <jonas@southpole.se>
Cc: Jonathan Corbet <corbet@lwn.net>
Cc: Ley Foon Tan <lftan@altera.com>
Cc: Mark Salter <msalter@redhat.com>
Cc: Martin Schwidefsky <schwidefsky@de.ibm.com>
Cc: Matt Turner <mattst88@gmail.com>
Cc: Michael Ellerman <mpe@ellerman.id.au>
Cc: Michal Hocko <mhocko@suse.com>
Cc: Michal Simek <monstr@monstr.eu>
Cc: Palmer Dabbelt <palmer@sifive.com>
Cc: Paul Burton <paul.burton@mips.com>
Cc: Richard Kuo <rkuo@codeaurora.org>
Cc: Richard Weinberger <richard@nod.at>
Cc: Rich Felker <dalias@libc.org>
Cc: Russell King <linux@armlinux.org.uk>
Cc: Serge Semin <fancer.lancer@gmail.com>
Cc: Thomas Gleixner <tglx@linutronix.de>
Cc: Tony Luck <tony.luck@intel.com>
Cc: Vineet Gupta <vgupta@synopsys.com>
Cc: Yoshinori Sato <ysato@users.sourceforge.jp>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
37 files changed:
arch/arm/kernel/setup.c
arch/arm/mach-omap2/omap_hwmod.c
arch/arm64/mm/kasan_init.c
arch/arm64/mm/numa.c
arch/mips/kernel/setup.c
arch/powerpc/kernel/pci_32.c
arch/powerpc/lib/alloc.c
arch/powerpc/mm/mmu_context_nohash.c
arch/powerpc/platforms/powermac/nvram.c
arch/powerpc/platforms/powernv/pci-ioda.c
arch/powerpc/platforms/ps3/setup.c
arch/powerpc/sysdev/msi_bitmap.c
arch/s390/kernel/setup.c
arch/s390/kernel/smp.c
arch/s390/kernel/topology.c
arch/s390/numa/mode_emu.c
arch/s390/numa/toptree.c
arch/x86/mm/kasan_init_64.c
arch/xtensa/mm/kasan_init.c
drivers/clk/ti/clk.c
drivers/firmware/memmap.c
drivers/of/fdt.c
drivers/of/unittest.c
include/linux/bootmem.h
init/main.c
kernel/dma/swiotlb.c
kernel/power/snapshot.c
kernel/printk/printk.c
lib/cpumask.c
mm/hugetlb.c
mm/kasan/kasan_init.c
mm/memblock.c
mm/page_alloc.c
mm/page_ext.c
mm/percpu.c
mm/sparse-vmemmap.c
mm/sparse.c

index 4c249cb261f3913112792cd6cad0a7e2df17ff4f..39e6090d23acc4f1fba831b41096b5ac11b842de 100644 (file)
@@ -857,7 +857,7 @@ static void __init request_standard_resources(const struct machine_desc *mdesc)
                 */
                boot_alias_start = phys_to_idmap(start);
                if (arm_has_idmap_alias() && boot_alias_start != IDMAP_INVALID_ADDR) {
-                       res = memblock_virt_alloc(sizeof(*res), 0);
+                       res = memblock_alloc(sizeof(*res), 0);
                        res->name = "System RAM (boot alias)";
                        res->start = boot_alias_start;
                        res->end = phys_to_idmap(end);
@@ -865,7 +865,7 @@ static void __init request_standard_resources(const struct machine_desc *mdesc)
                        request_resource(&iomem_resource, res);
                }
 
-               res = memblock_virt_alloc(sizeof(*res), 0);
+               res = memblock_alloc(sizeof(*res), 0);
                res->name  = "System RAM";
                res->start = start;
                res->end = end;
index 56a1fe90d394f2682337414f4e9090c9071d8129..1f9b34a7eccdd3b8f73c4d8630111c4e88d2199d 100644 (file)
@@ -726,7 +726,7 @@ static int __init _setup_clkctrl_provider(struct device_node *np)
        u64 size;
        int i;
 
-       provider = memblock_virt_alloc(sizeof(*provider), 0);
+       provider = memblock_alloc(sizeof(*provider), 0);
        if (!provider)
                return -ENOMEM;
 
@@ -736,12 +736,12 @@ static int __init _setup_clkctrl_provider(struct device_node *np)
                of_property_count_elems_of_size(np, "reg", sizeof(u32)) / 2;
 
        provider->addr =
-               memblock_virt_alloc(sizeof(void *) * provider->num_addrs, 0);
+               memblock_alloc(sizeof(void *) * provider->num_addrs, 0);
        if (!provider->addr)
                return -ENOMEM;
 
        provider->size =
-               memblock_virt_alloc(sizeof(u32) * provider->num_addrs, 0);
+               memblock_alloc(sizeof(u32) * provider->num_addrs, 0);
        if (!provider->size)
                return -ENOMEM;
 
index fccb1a6f8c6f8c1b742e1efb7e6e9c2f90bcca33..6a65a2912d360224a42d42a079d1b3097b4a5788 100644 (file)
@@ -38,7 +38,7 @@ static pgd_t tmp_pg_dir[PTRS_PER_PGD] __initdata __aligned(PGD_SIZE);
 
 static phys_addr_t __init kasan_alloc_zeroed_page(int node)
 {
-       void *p = memblock_virt_alloc_try_nid(PAGE_SIZE, PAGE_SIZE,
+       void *p = memblock_alloc_try_nid(PAGE_SIZE, PAGE_SIZE,
                                              __pa(MAX_DMA_ADDRESS),
                                              MEMBLOCK_ALLOC_ACCESSIBLE, node);
        return __pa(p);
index c7fb34efd23e7b7ac743eea26dc39afbb555cb95..0bff116c07a881f9bba9bc55d2bb1681bbe7ea63 100644 (file)
@@ -168,7 +168,7 @@ static void * __init pcpu_fc_alloc(unsigned int cpu, size_t size,
 {
        int nid = early_cpu_to_node(cpu);
 
-       return  memblock_virt_alloc_try_nid(size, align,
+       return  memblock_alloc_try_nid(size, align,
                        __pa(MAX_DMA_ADDRESS), MEMBLOCK_ALLOC_ACCESSIBLE, nid);
 }
 
index 01a5ff4c41ff5edb074c921e0b182a425c1c77e2..0c997645e8f0ef6bd5826af68271283c9f4c3cba 100644 (file)
@@ -859,7 +859,7 @@ static void __init arch_mem_init(char **cmdline_p)
         * Prevent memblock from allocating high memory.
         * This cannot be done before max_low_pfn is detected, so up
         * to this point is possible to only reserve physical memory
-        * with memblock_reserve; memblock_virt_alloc* can be used
+        * with memblock_reserve; memblock_alloc* can be used
         * only after this point
         */
        memblock_set_current_limit(PFN_PHYS(max_low_pfn));
index 4da8ed5762290746baf9575906d264066ce1e026..d39ec3a4550a26b2995e164bc0c3355346c9feb4 100644 (file)
@@ -203,7 +203,7 @@ pci_create_OF_bus_map(void)
        struct property* of_prop;
        struct device_node *dn;
 
-       of_prop = memblock_virt_alloc(sizeof(struct property) + 256, 0);
+       of_prop = memblock_alloc(sizeof(struct property) + 256, 0);
        dn = of_find_node_by_path("/");
        if (dn) {
                memset(of_prop, -1, sizeof(struct property) + 256);
index 06796dec01ea563346aaf551d8684f07d07d069e..bf87d6e133699d18bd1447443af9ecb4c7b66f27 100644 (file)
@@ -14,7 +14,7 @@ void * __ref zalloc_maybe_bootmem(size_t size, gfp_t mask)
        if (slab_is_available())
                p = kzalloc(size, mask);
        else {
-               p = memblock_virt_alloc(size, 0);
+               p = memblock_alloc(size, 0);
        }
        return p;
 }
index 4d80239ef83c37a9c322794356bfbcc9f21db98d..954f1986af4d45d4a48d6104b115f86a31a45654 100644 (file)
@@ -461,10 +461,10 @@ void __init mmu_context_init(void)
        /*
         * Allocate the maps used by context management
         */
-       context_map = memblock_virt_alloc(CTX_MAP_SIZE, 0);
-       context_mm = memblock_virt_alloc(sizeof(void *) * (LAST_CONTEXT + 1), 0);
+       context_map = memblock_alloc(CTX_MAP_SIZE, 0);
+       context_mm = memblock_alloc(sizeof(void *) * (LAST_CONTEXT + 1), 0);
 #ifdef CONFIG_SMP
-       stale_map[boot_cpuid] = memblock_virt_alloc(CTX_MAP_SIZE, 0);
+       stale_map[boot_cpuid] = memblock_alloc(CTX_MAP_SIZE, 0);
 
        cpuhp_setup_state_nocalls(CPUHP_POWERPC_MMU_CTX_PREPARE,
                                  "powerpc/mmu/ctx:prepare",
index 60b03a1703d1f1472b136933b02a7e889547848f..f45b369177a48543af10d019c1110b2c63ba0d94 100644 (file)
@@ -513,7 +513,7 @@ static int __init core99_nvram_setup(struct device_node *dp, unsigned long addr)
                printk(KERN_ERR "nvram: no address\n");
                return -EINVAL;
        }
-       nvram_image = memblock_virt_alloc(NVRAM_SIZE, 0);
+       nvram_image = memblock_alloc(NVRAM_SIZE, 0);
        nvram_data = ioremap(addr, NVRAM_SIZE*2);
        nvram_naddrs = 1; /* Make sure we get the correct case */
 
index cde710297a4e434c58d32f07da8ee61d0a24d4a7..23a67b545b701c8bb2ec3ba94e2e9a015c3a70ad 100644 (file)
@@ -3770,7 +3770,7 @@ static void __init pnv_pci_init_ioda_phb(struct device_node *np,
        phb_id = be64_to_cpup(prop64);
        pr_debug("  PHB-ID  : 0x%016llx\n", phb_id);
 
-       phb = memblock_virt_alloc(sizeof(*phb), 0);
+       phb = memblock_alloc(sizeof(*phb), 0);
 
        /* Allocate PCI controller */
        phb->hose = hose = pcibios_alloc_controller(np);
@@ -3816,7 +3816,7 @@ static void __init pnv_pci_init_ioda_phb(struct device_node *np,
        else
                phb->diag_data_size = PNV_PCI_DIAG_BUF_SIZE;
 
-       phb->diag_data = memblock_virt_alloc(phb->diag_data_size, 0);
+       phb->diag_data = memblock_alloc(phb->diag_data_size, 0);
 
        /* Parse 32-bit and IO ranges (if any) */
        pci_process_bridge_OF_ranges(hose, np, !hose->global_number);
@@ -3875,7 +3875,7 @@ static void __init pnv_pci_init_ioda_phb(struct device_node *np,
        }
        pemap_off = size;
        size += phb->ioda.total_pe_num * sizeof(struct pnv_ioda_pe);
-       aux = memblock_virt_alloc(size, 0);
+       aux = memblock_alloc(size, 0);
        phb->ioda.pe_alloc = aux;
        phb->ioda.m64_segmap = aux + m64map_off;
        phb->ioda.m32_segmap = aux + m32map_off;
index 77a37520068ded6cd49b4e5d60d0982ae69a5c38..12519857a33c5cb404c1952c332faafc6bfdca11 100644 (file)
@@ -126,7 +126,7 @@ static void __init prealloc(struct ps3_prealloc *p)
        if (!p->size)
                return;
 
-       p->address = memblock_virt_alloc(p->size, p->align);
+       p->address = memblock_alloc(p->size, p->align);
 
        printk(KERN_INFO "%s: %lu bytes at %p\n", p->name, p->size,
               p->address);
index e64a411d1a007ebfb241ac908e70e9d29c1ceb55..349a9ff6ca5bf00156e3af1f61d753c091a527e8 100644 (file)
@@ -128,7 +128,7 @@ int __ref msi_bitmap_alloc(struct msi_bitmap *bmp, unsigned int irq_count,
        if (bmp->bitmap_from_slab)
                bmp->bitmap = kzalloc(size, GFP_KERNEL);
        else {
-               bmp->bitmap = memblock_virt_alloc(size, 0);
+               bmp->bitmap = memblock_alloc(size, 0);
                /* the bitmap won't be freed from memblock allocator */
                kmemleak_not_leak(bmp->bitmap);
        }
index 204ccfa54bf3e82386a691dddd6d870e778ef60e..781c1053a7736b6746f71268d58efa46bb522aac 100644 (file)
@@ -378,7 +378,7 @@ static void __init setup_lowcore(void)
         * Setup lowcore for boot cpu
         */
        BUILD_BUG_ON(sizeof(struct lowcore) != LC_PAGES * PAGE_SIZE);
-       lc = memblock_virt_alloc_low(sizeof(*lc), sizeof(*lc));
+       lc = memblock_alloc_low(sizeof(*lc), sizeof(*lc));
        lc->restart_psw.mask = PSW_KERNEL_BITS;
        lc->restart_psw.addr = (unsigned long) restart_int_handler;
        lc->external_new_psw.mask = PSW_KERNEL_BITS |
@@ -422,7 +422,7 @@ static void __init setup_lowcore(void)
         * Allocate the global restart stack which is the same for
         * all CPUs in cast *one* of them does a PSW restart.
         */
-       restart_stack = memblock_virt_alloc(THREAD_SIZE, THREAD_SIZE);
+       restart_stack = memblock_alloc(THREAD_SIZE, THREAD_SIZE);
        restart_stack += STACK_INIT_OFFSET;
 
        /*
@@ -488,7 +488,7 @@ static void __init setup_resources(void)
        bss_resource.end = (unsigned long) __bss_stop - 1;
 
        for_each_memblock(memory, reg) {
-               res = memblock_virt_alloc(sizeof(*res), 8);
+               res = memblock_alloc(sizeof(*res), 8);
                res->flags = IORESOURCE_BUSY | IORESOURCE_SYSTEM_RAM;
 
                res->name = "System RAM";
@@ -502,7 +502,7 @@ static void __init setup_resources(void)
                            std_res->start > res->end)
                                continue;
                        if (std_res->end > res->end) {
-                               sub_res = memblock_virt_alloc(sizeof(*sub_res), 8);
+                               sub_res = memblock_alloc(sizeof(*sub_res), 8);
                                *sub_res = *std_res;
                                sub_res->end = res->end;
                                std_res->start = res->end + 1;
index 1b3188f57b58f6dc1995f3cb9ae1134506450d27..44f9a7d6450ba4bc25218f7060873fb792a9244a 100644 (file)
@@ -761,7 +761,7 @@ void __init smp_detect_cpus(void)
        u16 address;
 
        /* Get CPU information */
-       info = memblock_virt_alloc(sizeof(*info), 8);
+       info = memblock_alloc(sizeof(*info), 8);
        smp_get_core_info(info, 1);
        /* Find boot CPU type */
        if (sclp.has_core_type) {
index e8184a15578a332eae08bcb60e21fbb3ec0dd780..799a91882a76c34f9426dbd02be6e63ec55d9556 100644 (file)
@@ -519,7 +519,7 @@ static void __init alloc_masks(struct sysinfo_15_1_x *info,
                nr_masks *= info->mag[TOPOLOGY_NR_MAG - offset - 1 - i];
        nr_masks = max(nr_masks, 1);
        for (i = 0; i < nr_masks; i++) {
-               mask->next = memblock_virt_alloc(sizeof(*mask->next), 8);
+               mask->next = memblock_alloc(sizeof(*mask->next), 8);
                mask = mask->next;
        }
 }
@@ -537,7 +537,7 @@ void __init topology_init_early(void)
        }
        if (!MACHINE_HAS_TOPOLOGY)
                goto out;
-       tl_info = memblock_virt_alloc(PAGE_SIZE, PAGE_SIZE);
+       tl_info = memblock_alloc(PAGE_SIZE, PAGE_SIZE);
        info = tl_info;
        store_topology(info);
        pr_info("The CPU configuration topology of the machine is: %d %d %d %d %d %d / %d\n",
index 83b222c576097b5a588cf65a77d210f128ad4a66..5a381fc8e9582d7f0742e6a01502b0ddddf54b3d 100644 (file)
@@ -313,7 +313,7 @@ static void __ref create_core_to_node_map(void)
 {
        int i;
 
-       emu_cores = memblock_virt_alloc(sizeof(*emu_cores), 8);
+       emu_cores = memblock_alloc(sizeof(*emu_cores), 8);
        for (i = 0; i < ARRAY_SIZE(emu_cores->to_node_id); i++)
                emu_cores->to_node_id[i] = NODE_ID_FREE;
 }
index 21d1e8a1546d061f829a83cd513a17b6a9d4ccc5..7f61cc3fd4d1665521d12b994a8674e046565e45 100644 (file)
@@ -34,7 +34,7 @@ struct toptree __ref *toptree_alloc(int level, int id)
        if (slab_is_available())
                res = kzalloc(sizeof(*res), GFP_KERNEL);
        else
-               res = memblock_virt_alloc(sizeof(*res), 8);
+               res = memblock_alloc(sizeof(*res), 8);
        if (!res)
                return res;
 
index e3e77527f8dff8e44bd560d4f62a11ee8cf90c26..77b857cb036f01f0dfd1f7f63b6a9a0718d24d09 100644 (file)
@@ -28,10 +28,10 @@ static p4d_t tmp_p4d_table[MAX_PTRS_PER_P4D] __initdata __aligned(PAGE_SIZE);
 static __init void *early_alloc(size_t size, int nid, bool panic)
 {
        if (panic)
-               return memblock_virt_alloc_try_nid(size, size,
+               return memblock_alloc_try_nid(size, size,
                        __pa(MAX_DMA_ADDRESS), BOOTMEM_ALLOC_ACCESSIBLE, nid);
        else
-               return memblock_virt_alloc_try_nid_nopanic(size, size,
+               return memblock_alloc_try_nid_nopanic(size, size,
                        __pa(MAX_DMA_ADDRESS), BOOTMEM_ALLOC_ACCESSIBLE, nid);
 }
 
index 6b532b6bd785e924f4b6e325e44c1e37b5ab2793..1a30a258ccd04d873ebe48faedd630bc870c87ea 100644 (file)
@@ -43,7 +43,7 @@ static void __init populate(void *start, void *end)
        unsigned long vaddr = (unsigned long)start;
        pgd_t *pgd = pgd_offset_k(vaddr);
        pmd_t *pmd = pmd_offset(pgd, vaddr);
-       pte_t *pte = memblock_virt_alloc(n_pages * sizeof(pte_t), PAGE_SIZE);
+       pte_t *pte = memblock_alloc(n_pages * sizeof(pte_t), PAGE_SIZE);
 
        pr_debug("%s: %p - %p\n", __func__, start, end);
 
index 7d22e1af224770d7084cd7d8ec29e24d3f87368f..5c54d3734daf96fbfca8415b83a5521cf5a6c20d 100644 (file)
@@ -342,7 +342,7 @@ void __init omap2_clk_legacy_provider_init(int index, void __iomem *mem)
 {
        struct clk_iomap *io;
 
-       io = memblock_virt_alloc(sizeof(*io), 0);
+       io = memblock_alloc(sizeof(*io), 0);
 
        io->mem = mem;
 
index 5de3ed29282c4aadfc164acb91384744686690ad..03cead6d5f9779fdf8413c01c888bd77a0bd5ce0 100644 (file)
@@ -333,7 +333,7 @@ int __init firmware_map_add_early(u64 start, u64 end, const char *type)
 {
        struct firmware_map_entry *entry;
 
-       entry = memblock_virt_alloc(sizeof(struct firmware_map_entry), 0);
+       entry = memblock_alloc(sizeof(struct firmware_map_entry), 0);
        if (WARN_ON(!entry))
                return -ENOMEM;
 
index 4f915cea6f755a1e3660d023f1521ec9b116177f..ffe62a7ae19b68055290ca57e90f06cf05b1ad2e 100644 (file)
@@ -1179,7 +1179,7 @@ int __init __weak early_init_dt_reserve_memory_arch(phys_addr_t base,
 
 static void * __init early_init_dt_alloc_memory_arch(u64 size, u64 align)
 {
-       return memblock_virt_alloc(size, align);
+       return memblock_alloc(size, align);
 }
 
 bool __init early_init_dt_verify(void *params)
index a3a6866765f25a00a97efb4ec6db25e0483b16fc..01e23b85e79824b9fddf397a518dc74b1b9a14c8 100644 (file)
@@ -2192,7 +2192,7 @@ static struct device_node *overlay_base_root;
 
 static void * __init dt_alloc_memory(u64 size, u64 align)
 {
-       return memblock_virt_alloc(size, align);
+       return memblock_alloc(size, align);
 }
 
 /*
index b74bafd110b90b1e6a39554d4a45a2265b442608..7d91f0f5ee44d9e4b19a97e6be748694d44db818 100644 (file)
@@ -95,78 +95,78 @@ extern void *__alloc_bootmem_low(unsigned long size,
 #define BOOTMEM_ALLOC_ANYWHERE         (~(phys_addr_t)0)
 
 /* FIXME: Move to memblock.h at a point where we remove nobootmem.c */
-void *memblock_virt_alloc_try_nid_raw(phys_addr_t size, phys_addr_t align,
+void *memblock_alloc_try_nid_raw(phys_addr_t size, phys_addr_t align,
                                      phys_addr_t min_addr,
                                      phys_addr_t max_addr, int nid);
-void *memblock_virt_alloc_try_nid_nopanic(phys_addr_t size,
+void *memblock_alloc_try_nid_nopanic(phys_addr_t size,
                phys_addr_t align, phys_addr_t min_addr,
                phys_addr_t max_addr, int nid);
-void *memblock_virt_alloc_try_nid(phys_addr_t size, phys_addr_t align,
+void *memblock_alloc_try_nid(phys_addr_t size, phys_addr_t align,
                phys_addr_t min_addr, phys_addr_t max_addr, int nid);
 void __memblock_free_early(phys_addr_t base, phys_addr_t size);
 void __memblock_free_late(phys_addr_t base, phys_addr_t size);
 
-static inline void * __init memblock_virt_alloc(
+static inline void * __init memblock_alloc(
                                        phys_addr_t size,  phys_addr_t align)
 {
-       return memblock_virt_alloc_try_nid(size, align, BOOTMEM_LOW_LIMIT,
+       return memblock_alloc_try_nid(size, align, BOOTMEM_LOW_LIMIT,
                                            BOOTMEM_ALLOC_ACCESSIBLE,
                                            NUMA_NO_NODE);
 }
 
-static inline void * __init memblock_virt_alloc_raw(
+static inline void * __init memblock_alloc_raw(
                                        phys_addr_t size,  phys_addr_t align)
 {
-       return memblock_virt_alloc_try_nid_raw(size, align, BOOTMEM_LOW_LIMIT,
+       return memblock_alloc_try_nid_raw(size, align, BOOTMEM_LOW_LIMIT,
                                            BOOTMEM_ALLOC_ACCESSIBLE,
                                            NUMA_NO_NODE);
 }
 
-static inline void * __init memblock_virt_alloc_nopanic(
+static inline void * __init memblock_alloc_nopanic(
                                        phys_addr_t size, phys_addr_t align)
 {
-       return memblock_virt_alloc_try_nid_nopanic(size, align,
+       return memblock_alloc_try_nid_nopanic(size, align,
                                                    BOOTMEM_LOW_LIMIT,
                                                    BOOTMEM_ALLOC_ACCESSIBLE,
                                                    NUMA_NO_NODE);
 }
 
-static inline void * __init memblock_virt_alloc_low(
+static inline void * __init memblock_alloc_low(
                                        phys_addr_t size, phys_addr_t align)
 {
-       return memblock_virt_alloc_try_nid(size, align,
+       return memblock_alloc_try_nid(size, align,
                                                   BOOTMEM_LOW_LIMIT,
                                                   ARCH_LOW_ADDRESS_LIMIT,
                                                   NUMA_NO_NODE);
 }
-static inline void * __init memblock_virt_alloc_low_nopanic(
+static inline void * __init memblock_alloc_low_nopanic(
                                        phys_addr_t size, phys_addr_t align)
 {
-       return memblock_virt_alloc_try_nid_nopanic(size, align,
+       return memblock_alloc_try_nid_nopanic(size, align,
                                                   BOOTMEM_LOW_LIMIT,
                                                   ARCH_LOW_ADDRESS_LIMIT,
                                                   NUMA_NO_NODE);
 }
 
-static inline void * __init memblock_virt_alloc_from_nopanic(
+static inline void * __init memblock_alloc_from_nopanic(
                phys_addr_t size, phys_addr_t align, phys_addr_t min_addr)
 {
-       return memblock_virt_alloc_try_nid_nopanic(size, align, min_addr,
+       return memblock_alloc_try_nid_nopanic(size, align, min_addr,
                                                    BOOTMEM_ALLOC_ACCESSIBLE,
                                                    NUMA_NO_NODE);
 }
 
-static inline void * __init memblock_virt_alloc_node(
+static inline void * __init memblock_alloc_node(
                                                phys_addr_t size, int nid)
 {
-       return memblock_virt_alloc_try_nid(size, 0, BOOTMEM_LOW_LIMIT,
+       return memblock_alloc_try_nid(size, 0, BOOTMEM_LOW_LIMIT,
                                            BOOTMEM_ALLOC_ACCESSIBLE, nid);
 }
 
-static inline void * __init memblock_virt_alloc_node_nopanic(
+static inline void * __init memblock_alloc_node_nopanic(
                                                phys_addr_t size, int nid)
 {
-       return memblock_virt_alloc_try_nid_nopanic(size, 0, BOOTMEM_LOW_LIMIT,
+       return memblock_alloc_try_nid_nopanic(size, 0, BOOTMEM_LOW_LIMIT,
                                                    BOOTMEM_ALLOC_ACCESSIBLE,
                                                    nid);
 }
index 1c3f902642809fe8a2e332bef30cdd8226c0e9ae..86b59cf3bec7c6c0b7231ce498c0bf77281768d3 100644 (file)
@@ -375,10 +375,10 @@ static inline void smp_prepare_cpus(unsigned int maxcpus) { }
 static void __init setup_command_line(char *command_line)
 {
        saved_command_line =
-               memblock_virt_alloc(strlen(boot_command_line) + 1, 0);
+               memblock_alloc(strlen(boot_command_line) + 1, 0);
        initcall_command_line =
-               memblock_virt_alloc(strlen(boot_command_line) + 1, 0);
-       static_command_line = memblock_virt_alloc(strlen(command_line) + 1, 0);
+               memblock_alloc(strlen(boot_command_line) + 1, 0);
+       static_command_line = memblock_alloc(strlen(command_line) + 1, 0);
        strcpy(saved_command_line, boot_command_line);
        strcpy(static_command_line, command_line);
 }
index ebecaf255ea29ed204586101e37d4baa9c626893..801da67e957bd18e301394fc9c87fffc1b0bd5ab 100644 (file)
@@ -204,10 +204,10 @@ int __init swiotlb_init_with_tbl(char *tlb, unsigned long nslabs, int verbose)
         * to find contiguous free memory regions of size up to IO_TLB_SEGSIZE
         * between io_tlb_start and io_tlb_end.
         */
-       io_tlb_list = memblock_virt_alloc(
+       io_tlb_list = memblock_alloc(
                                PAGE_ALIGN(io_tlb_nslabs * sizeof(int)),
                                PAGE_SIZE);
-       io_tlb_orig_addr = memblock_virt_alloc(
+       io_tlb_orig_addr = memblock_alloc(
                                PAGE_ALIGN(io_tlb_nslabs * sizeof(phys_addr_t)),
                                PAGE_SIZE);
        for (i = 0; i < io_tlb_nslabs; i++) {
@@ -242,7 +242,7 @@ swiotlb_init(int verbose)
        bytes = io_tlb_nslabs << IO_TLB_SHIFT;
 
        /* Get IO TLB memory from the low pages */
-       vstart = memblock_virt_alloc_low_nopanic(PAGE_ALIGN(bytes), PAGE_SIZE);
+       vstart = memblock_alloc_low_nopanic(PAGE_ALIGN(bytes), PAGE_SIZE);
        if (vstart && !swiotlb_init_with_tbl(vstart, io_tlb_nslabs, verbose))
                return;
 
index 3d37c279c09008b74c41a71abb850bfcdaa99e99..34116a6097bea4ff94f296449fb94184b157c5a2 100644 (file)
@@ -963,7 +963,7 @@ void __init __register_nosave_region(unsigned long start_pfn,
                BUG_ON(!region);
        } else {
                /* This allocation cannot fail */
-               region = memblock_virt_alloc(sizeof(struct nosave_region), 0);
+               region = memblock_alloc(sizeof(struct nosave_region), 0);
        }
        region->start_pfn = start_pfn;
        region->end_pfn = end_pfn;
index b77150ad1965a20b106e238f00c3c982b9eb3eef..429e4a3833cae3e15e98225372530ad7094ae7a5 100644 (file)
@@ -1111,9 +1111,9 @@ void __init setup_log_buf(int early)
 
        if (early) {
                new_log_buf =
-                       memblock_virt_alloc(new_log_buf_len, LOG_ALIGN);
+                       memblock_alloc(new_log_buf_len, LOG_ALIGN);
        } else {
-               new_log_buf = memblock_virt_alloc_nopanic(new_log_buf_len,
+               new_log_buf = memblock_alloc_nopanic(new_log_buf_len,
                                                          LOG_ALIGN);
        }
 
index beca6244671a4ea066569e817bdbd912507b25db..1405cb22e6bc1703aa7bd76d419c134d25652b42 100644 (file)
@@ -163,7 +163,7 @@ EXPORT_SYMBOL(zalloc_cpumask_var);
  */
 void __init alloc_bootmem_cpumask_var(cpumask_var_t *mask)
 {
-       *mask = memblock_virt_alloc(cpumask_size(), 0);
+       *mask = memblock_alloc(cpumask_size(), 0);
 }
 
 /**
index 7b5c0ad9a6bd03909885334877a33f363c007b80..51e9f17dbd5ceb890e7b0b1029fc6b69a5c2196d 100644 (file)
@@ -2100,7 +2100,7 @@ int __alloc_bootmem_huge_page(struct hstate *h)
        for_each_node_mask_to_alloc(h, nr_nodes, node, &node_states[N_MEMORY]) {
                void *addr;
 
-               addr = memblock_virt_alloc_try_nid_raw(
+               addr = memblock_alloc_try_nid_raw(
                                huge_page_size(h), huge_page_size(h),
                                0, BOOTMEM_ALLOC_ACCESSIBLE, node);
                if (addr) {
index 7a2a2f13f86f5b604de654a7a3487ddb534d3a93..24d734bdff6bc812fff3b981dfcbc056abc8ef9e 100644 (file)
@@ -83,7 +83,7 @@ static inline bool kasan_zero_page_entry(pte_t pte)
 
 static __init void *early_alloc(size_t size, int node)
 {
-       return memblock_virt_alloc_try_nid(size, size, __pa(MAX_DMA_ADDRESS),
+       return memblock_alloc_try_nid(size, size, __pa(MAX_DMA_ADDRESS),
                                        BOOTMEM_ALLOC_ACCESSIBLE, node);
 }
 
index 20358374e8a83446e4ae377536b10ae571ecc682..58340de3ebc66e6432bdf7d948dd61091885677b 100644 (file)
@@ -1319,7 +1319,7 @@ phys_addr_t __init memblock_phys_alloc_try_nid(phys_addr_t size, phys_addr_t ali
 }
 
 /**
- * memblock_virt_alloc_internal - allocate boot memory block
+ * memblock_alloc_internal - allocate boot memory block
  * @size: size of memory block to be allocated in bytes
  * @align: alignment of the region and block's size
  * @min_addr: the lower bound of the memory region to allocate (phys address)
@@ -1345,7 +1345,7 @@ phys_addr_t __init memblock_phys_alloc_try_nid(phys_addr_t size, phys_addr_t ali
  * Return:
  * Virtual address of allocated memory block on success, NULL on failure.
  */
-static void * __init memblock_virt_alloc_internal(
+static void * __init memblock_alloc_internal(
                                phys_addr_t size, phys_addr_t align,
                                phys_addr_t min_addr, phys_addr_t max_addr,
                                int nid)
@@ -1412,7 +1412,7 @@ done:
 }
 
 /**
- * memblock_virt_alloc_try_nid_raw - allocate boot memory block without zeroing
+ * memblock_alloc_try_nid_raw - allocate boot memory block without zeroing
  * memory and without panicking
  * @size: size of memory block to be allocated in bytes
  * @align: alignment of the region and block's size
@@ -1430,7 +1430,7 @@ done:
  * Return:
  * Virtual address of allocated memory block on success, NULL on failure.
  */
-void * __init memblock_virt_alloc_try_nid_raw(
+void * __init memblock_alloc_try_nid_raw(
                        phys_addr_t size, phys_addr_t align,
                        phys_addr_t min_addr, phys_addr_t max_addr,
                        int nid)
@@ -1441,7 +1441,7 @@ void * __init memblock_virt_alloc_try_nid_raw(
                     __func__, (u64)size, (u64)align, nid, &min_addr,
                     &max_addr, (void *)_RET_IP_);
 
-       ptr = memblock_virt_alloc_internal(size, align,
+       ptr = memblock_alloc_internal(size, align,
                                           min_addr, max_addr, nid);
        if (ptr && size > 0)
                page_init_poison(ptr, size);
@@ -1450,7 +1450,7 @@ void * __init memblock_virt_alloc_try_nid_raw(
 }
 
 /**
- * memblock_virt_alloc_try_nid_nopanic - allocate boot memory block
+ * memblock_alloc_try_nid_nopanic - allocate boot memory block
  * @size: size of memory block to be allocated in bytes
  * @align: alignment of the region and block's size
  * @min_addr: the lower bound of the memory region from where the allocation
@@ -1466,7 +1466,7 @@ void * __init memblock_virt_alloc_try_nid_raw(
  * Return:
  * Virtual address of allocated memory block on success, NULL on failure.
  */
-void * __init memblock_virt_alloc_try_nid_nopanic(
+void * __init memblock_alloc_try_nid_nopanic(
                                phys_addr_t size, phys_addr_t align,
                                phys_addr_t min_addr, phys_addr_t max_addr,
                                int nid)
@@ -1477,7 +1477,7 @@ void * __init memblock_virt_alloc_try_nid_nopanic(
                     __func__, (u64)size, (u64)align, nid, &min_addr,
                     &max_addr, (void *)_RET_IP_);
 
-       ptr = memblock_virt_alloc_internal(size, align,
+       ptr = memblock_alloc_internal(size, align,
                                           min_addr, max_addr, nid);
        if (ptr)
                memset(ptr, 0, size);
@@ -1485,7 +1485,7 @@ void * __init memblock_virt_alloc_try_nid_nopanic(
 }
 
 /**
- * memblock_virt_alloc_try_nid - allocate boot memory block with panicking
+ * memblock_alloc_try_nid - allocate boot memory block with panicking
  * @size: size of memory block to be allocated in bytes
  * @align: alignment of the region and block's size
  * @min_addr: the lower bound of the memory region from where the allocation
@@ -1495,14 +1495,14 @@ void * __init memblock_virt_alloc_try_nid_nopanic(
  *           allocate only from memory limited by memblock.current_limit value
  * @nid: nid of the free area to find, %NUMA_NO_NODE for any node
  *
- * Public panicking version of memblock_virt_alloc_try_nid_nopanic()
+ * Public panicking version of memblock_alloc_try_nid_nopanic()
  * which provides debug information (including caller info), if enabled,
  * and panics if the request can not be satisfied.
  *
  * Return:
  * Virtual address of allocated memory block on success, NULL on failure.
  */
-void * __init memblock_virt_alloc_try_nid(
+void * __init memblock_alloc_try_nid(
                        phys_addr_t size, phys_addr_t align,
                        phys_addr_t min_addr, phys_addr_t max_addr,
                        int nid)
@@ -1512,7 +1512,7 @@ void * __init memblock_virt_alloc_try_nid(
        memblock_dbg("%s: %llu bytes align=0x%llx nid=%d from=%pa max_addr=%pa %pF\n",
                     __func__, (u64)size, (u64)align, nid, &min_addr,
                     &max_addr, (void *)_RET_IP_);
-       ptr = memblock_virt_alloc_internal(size, align,
+       ptr = memblock_alloc_internal(size, align,
                                           min_addr, max_addr, nid);
        if (ptr) {
                memset(ptr, 0, size);
@@ -1529,7 +1529,7 @@ void * __init memblock_virt_alloc_try_nid(
  * @base: phys starting address of the  boot memory block
  * @size: size of the boot memory block in bytes
  *
- * Free boot memory block previously allocated by memblock_virt_alloc_xx() API.
+ * Free boot memory block previously allocated by memblock_alloc_xx() API.
  * The freeing memory will not be released to the buddy allocator.
  */
 void __init __memblock_free_early(phys_addr_t base, phys_addr_t size)
index 59d171f84445aea9783daab0c90630a80a30e50b..8ca6954fdcdccc45897f7753a8e175a3e6d8c6be 100644 (file)
@@ -6209,7 +6209,7 @@ static void __ref setup_usemap(struct pglist_data *pgdat,
        zone->pageblock_flags = NULL;
        if (usemapsize)
                zone->pageblock_flags =
-                       memblock_virt_alloc_node_nopanic(usemapsize,
+                       memblock_alloc_node_nopanic(usemapsize,
                                                         pgdat->node_id);
 }
 #else
@@ -6439,7 +6439,7 @@ static void __ref alloc_node_mem_map(struct pglist_data *pgdat)
                end = pgdat_end_pfn(pgdat);
                end = ALIGN(end, MAX_ORDER_NR_PAGES);
                size =  (end - start) * sizeof(struct page);
-               map = memblock_virt_alloc_node_nopanic(size, pgdat->node_id);
+               map = memblock_alloc_node_nopanic(size, pgdat->node_id);
                pgdat->node_mem_map = map + offset;
        }
        pr_debug("%s: node %d, pgdat %08lx, node_mem_map %08lx\n",
@@ -7711,9 +7711,9 @@ void *__init alloc_large_system_hash(const char *tablename,
                size = bucketsize << log2qty;
                if (flags & HASH_EARLY) {
                        if (flags & HASH_ZERO)
-                               table = memblock_virt_alloc_nopanic(size, 0);
+                               table = memblock_alloc_nopanic(size, 0);
                        else
-                               table = memblock_virt_alloc_raw(size, 0);
+                               table = memblock_alloc_raw(size, 0);
                } else if (hashdist) {
                        table = __vmalloc(size, gfp_flags, PAGE_KERNEL);
                } else {
index a9826da84ccb31c1c1be2c5e58f984886a1883b3..e77c0f031dd0ad487b90f1d7ebf746719d9f0280 100644 (file)
@@ -161,7 +161,7 @@ static int __init alloc_node_page_ext(int nid)
 
        table_size = get_entry_size() * nr_pages;
 
-       base = memblock_virt_alloc_try_nid_nopanic(
+       base = memblock_alloc_try_nid_nopanic(
                        table_size, PAGE_SIZE, __pa(MAX_DMA_ADDRESS),
                        BOOTMEM_ALLOC_ACCESSIBLE, nid);
        if (!base)
index 4b90682623e926b23a6fb675cac41b94db5a41b3..3050c1d37d374004a140912a65cee0821fce7802 100644 (file)
@@ -1101,7 +1101,7 @@ static struct pcpu_chunk * __init pcpu_alloc_first_chunk(unsigned long tmp_addr,
        region_size = ALIGN(start_offset + map_size, lcm_align);
 
        /* allocate chunk */
-       chunk = memblock_virt_alloc(sizeof(struct pcpu_chunk) +
+       chunk = memblock_alloc(sizeof(struct pcpu_chunk) +
                                    BITS_TO_LONGS(region_size >> PAGE_SHIFT),
                                    0);
 
@@ -1114,11 +1114,11 @@ static struct pcpu_chunk * __init pcpu_alloc_first_chunk(unsigned long tmp_addr,
        chunk->nr_pages = region_size >> PAGE_SHIFT;
        region_bits = pcpu_chunk_map_bits(chunk);
 
-       chunk->alloc_map = memblock_virt_alloc(BITS_TO_LONGS(region_bits) *
+       chunk->alloc_map = memblock_alloc(BITS_TO_LONGS(region_bits) *
                                               sizeof(chunk->alloc_map[0]), 0);
-       chunk->bound_map = memblock_virt_alloc(BITS_TO_LONGS(region_bits + 1) *
+       chunk->bound_map = memblock_alloc(BITS_TO_LONGS(region_bits + 1) *
                                               sizeof(chunk->bound_map[0]), 0);
-       chunk->md_blocks = memblock_virt_alloc(pcpu_chunk_nr_blocks(chunk) *
+       chunk->md_blocks = memblock_alloc(pcpu_chunk_nr_blocks(chunk) *
                                               sizeof(chunk->md_blocks[0]), 0);
        pcpu_init_md_blocks(chunk);
 
@@ -1888,7 +1888,7 @@ struct pcpu_alloc_info * __init pcpu_alloc_alloc_info(int nr_groups,
                          __alignof__(ai->groups[0].cpu_map[0]));
        ai_size = base_size + nr_units * sizeof(ai->groups[0].cpu_map[0]);
 
-       ptr = memblock_virt_alloc_nopanic(PFN_ALIGN(ai_size), PAGE_SIZE);
+       ptr = memblock_alloc_nopanic(PFN_ALIGN(ai_size), PAGE_SIZE);
        if (!ptr)
                return NULL;
        ai = ptr;
@@ -2075,12 +2075,12 @@ int __init pcpu_setup_first_chunk(const struct pcpu_alloc_info *ai,
        PCPU_SETUP_BUG_ON(pcpu_verify_alloc_info(ai) < 0);
 
        /* process group information and build config tables accordingly */
-       group_offsets = memblock_virt_alloc(ai->nr_groups *
+       group_offsets = memblock_alloc(ai->nr_groups *
                                             sizeof(group_offsets[0]), 0);
-       group_sizes = memblock_virt_alloc(ai->nr_groups *
+       group_sizes = memblock_alloc(ai->nr_groups *
                                           sizeof(group_sizes[0]), 0);
-       unit_map = memblock_virt_alloc(nr_cpu_ids * sizeof(unit_map[0]), 0);
-       unit_off = memblock_virt_alloc(nr_cpu_ids * sizeof(unit_off[0]), 0);
+       unit_map = memblock_alloc(nr_cpu_ids * sizeof(unit_map[0]), 0);
+       unit_off = memblock_alloc(nr_cpu_ids * sizeof(unit_off[0]), 0);
 
        for (cpu = 0; cpu < nr_cpu_ids; cpu++)
                unit_map[cpu] = UINT_MAX;
@@ -2144,7 +2144,7 @@ int __init pcpu_setup_first_chunk(const struct pcpu_alloc_info *ai,
         * empty chunks.
         */
        pcpu_nr_slots = __pcpu_size_to_slot(pcpu_unit_size) + 2;
-       pcpu_slot = memblock_virt_alloc(
+       pcpu_slot = memblock_alloc(
                        pcpu_nr_slots * sizeof(pcpu_slot[0]), 0);
        for (i = 0; i < pcpu_nr_slots; i++)
                INIT_LIST_HEAD(&pcpu_slot[i]);
@@ -2458,7 +2458,7 @@ int __init pcpu_embed_first_chunk(size_t reserved_size, size_t dyn_size,
        size_sum = ai->static_size + ai->reserved_size + ai->dyn_size;
        areas_size = PFN_ALIGN(ai->nr_groups * sizeof(void *));
 
-       areas = memblock_virt_alloc_nopanic(areas_size, 0);
+       areas = memblock_alloc_nopanic(areas_size, 0);
        if (!areas) {
                rc = -ENOMEM;
                goto out_free;
@@ -2599,7 +2599,7 @@ int __init pcpu_page_first_chunk(size_t reserved_size,
        /* unaligned allocations can't be freed, round up to page size */
        pages_size = PFN_ALIGN(unit_pages * num_possible_cpus() *
                               sizeof(pages[0]));
-       pages = memblock_virt_alloc(pages_size, 0);
+       pages = memblock_alloc(pages_size, 0);
 
        /* allocate pages */
        j = 0;
@@ -2688,7 +2688,7 @@ EXPORT_SYMBOL(__per_cpu_offset);
 static void * __init pcpu_dfl_fc_alloc(unsigned int cpu, size_t size,
                                       size_t align)
 {
-       return  memblock_virt_alloc_from_nopanic(
+       return  memblock_alloc_from_nopanic(
                        size, align, __pa(MAX_DMA_ADDRESS));
 }
 
@@ -2737,7 +2737,7 @@ void __init setup_per_cpu_areas(void)
        void *fc;
 
        ai = pcpu_alloc_alloc_info(1, 1);
-       fc = memblock_virt_alloc_from_nopanic(unit_size,
+       fc = memblock_alloc_from_nopanic(unit_size,
                                              PAGE_SIZE,
                                              __pa(MAX_DMA_ADDRESS));
        if (!ai || !fc)
index 8301293331a27963b8a83bb190a6a7a905bcb74d..91c2c3d25827fe7b05b358553d556790481d506d 100644 (file)
@@ -42,7 +42,7 @@ static void * __ref __earlyonly_bootmem_alloc(int node,
                                unsigned long align,
                                unsigned long goal)
 {
-       return memblock_virt_alloc_try_nid_raw(size, align, goal,
+       return memblock_alloc_try_nid_raw(size, align, goal,
                                               BOOTMEM_ALLOC_ACCESSIBLE, node);
 }
 
index 67ad061f7fb8b1b4a38af7a5f69913f6c4f39e70..cb900dda7fd2ab2597f2e5b806950dd500a28559 100644 (file)
@@ -68,7 +68,7 @@ static noinline struct mem_section __ref *sparse_index_alloc(int nid)
        if (slab_is_available())
                section = kzalloc_node(array_size, GFP_KERNEL, nid);
        else
-               section = memblock_virt_alloc_node(array_size, nid);
+               section = memblock_alloc_node(array_size, nid);
 
        return section;
 }
@@ -216,7 +216,7 @@ void __init memory_present(int nid, unsigned long start, unsigned long end)
 
                size = sizeof(struct mem_section*) * NR_SECTION_ROOTS;
                align = 1 << (INTERNODE_CACHE_SHIFT);
-               mem_section = memblock_virt_alloc(size, align);
+               mem_section = memblock_alloc(size, align);
        }
 #endif
 
@@ -306,7 +306,7 @@ sparse_early_usemaps_alloc_pgdat_section(struct pglist_data *pgdat,
        limit = goal + (1UL << PA_SECTION_SHIFT);
        nid = early_pfn_to_nid(goal >> PAGE_SHIFT);
 again:
-       p = memblock_virt_alloc_try_nid_nopanic(size,
+       p = memblock_alloc_try_nid_nopanic(size,
                                                SMP_CACHE_BYTES, goal, limit,
                                                nid);
        if (!p && limit) {
@@ -362,7 +362,7 @@ static unsigned long * __init
 sparse_early_usemaps_alloc_pgdat_section(struct pglist_data *pgdat,
                                         unsigned long size)
 {
-       return memblock_virt_alloc_node_nopanic(size, pgdat->node_id);
+       return memblock_alloc_node_nopanic(size, pgdat->node_id);
 }
 
 static void __init check_usemap_section_nr(int nid, unsigned long *usemap)
@@ -391,7 +391,7 @@ struct page __init *sparse_mem_map_populate(unsigned long pnum, int nid,
        if (map)
                return map;
 
-       map = memblock_virt_alloc_try_nid(size,
+       map = memblock_alloc_try_nid(size,
                                          PAGE_SIZE, __pa(MAX_DMA_ADDRESS),
                                          BOOTMEM_ALLOC_ACCESSIBLE, nid);
        return map;
@@ -405,7 +405,7 @@ static void __init sparse_buffer_init(unsigned long size, int nid)
 {
        WARN_ON(sparsemap_buf); /* forgot to call sparse_buffer_fini()? */
        sparsemap_buf =
-               memblock_virt_alloc_try_nid_raw(size, PAGE_SIZE,
+               memblock_alloc_try_nid_raw(size, PAGE_SIZE,
                                                __pa(MAX_DMA_ADDRESS),
                                                BOOTMEM_ALLOC_ACCESSIBLE, nid);
        sparsemap_buf_end = sparsemap_buf + size;