ARM64: mm: Restore memblock limit when map_mem finished.
authorSteve Capper <steve.capper@linaro.org>
Tue, 30 Apr 2013 10:00:33 +0000 (11:00 +0100)
committerMark Brown <broonie@linaro.org>
Thu, 15 May 2014 18:59:48 +0000 (19:59 +0100)
commitbf966f2702f43577b7f7b93db5c4ef2a0bc875a1
treec4a6e55775298344af739de4d899ad16309cb59e
parent6991fe93fc746ffe73d88e0fc47b674bf4dad4f9
ARM64: mm: Restore memblock limit when map_mem finished.

In paging_init the memblock limit is set to restrict any addresses
returned by early_alloc to fit within the initial direct kernel
mapping in swapper_pg_dir. This allows map_mem to allocate puds,
pmds and ptes from the initial direct kernel mapping.

The limit stays low after paging_init() though, meaning any
bootmem allocations will be from a restricted subset of memory.
Gigabyte huge pages, for instance, are normally allocated from
bootmem as their order (18) is too large for the default buddy
allocator (MAX_ORDER = 11).

This patch restores the memblock limit when map_mem has finished,
allowing gigabyte huge pages (and other objects) to be allocated
from all of bootmem.

Signed-off-by: Steve Capper <steve.capper@linaro.org>
Acked-by: Catalin Marinas <catalin.marinas@arm.com>
arch/arm64/mm/mmu.c