ARM64: mm: Restore memblock limit when map_mem finished.
authorSteve Capper <steve.capper@linaro.org>
Tue, 30 Apr 2013 10:00:33 +0000 (11:00 +0100)
committerSteve Capper <steve.capper@linaro.org>
Wed, 5 Mar 2014 07:03:13 +0000 (15:03 +0800)
commit4142fa151d8534e29b1d490567f45354976c6c61
tree57bcc5613c4d4736c12dde3a6675136d7f14c0a7
parent855b2b7fea77794f3bec69095785e94577447211
ARM64: mm: Restore memblock limit when map_mem finished.

In paging_init the memblock limit is set to restrict any addresses
returned by early_alloc to fit within the initial direct kernel
mapping in swapper_pg_dir. This allows map_mem to allocate puds,
pmds and ptes from the initial direct kernel mapping.

The limit stays low after paging_init() though, meaning any
bootmem allocations will be from a restricted subset of memory.
Gigabyte huge pages, for instance, are normally allocated from
bootmem as their order (18) is too large for the default buddy
allocator (MAX_ORDER = 11).

This patch restores the memblock limit when map_mem has finished,
allowing gigabyte huge pages (and other objects) to be allocated
from all of bootmem.

Signed-off-by: Steve Capper <steve.capper@linaro.org>
Acked-by: Catalin Marinas <catalin.marinas@arm.com>
arch/arm64/mm/mmu.c