Merge System into Support.
[oota-llvm.git] / lib / Support / Allocator.cpp
index f5a207844b859c86df1b67a83aa9bd144a1475a0..5e27df6628ebbb2524d70eb4f02b3d366fede742 100644 (file)
 //===----------------------------------------------------------------------===//
 
 #include "llvm/Support/Allocator.h"
-#include "llvm/Support/Recycler.h"
 #include "llvm/Support/DataTypes.h"
-#include "llvm/Support/Streams.h"
+#include "llvm/Support/Recycler.h"
+#include "llvm/Support/raw_ostream.h"
+#include "llvm/Support/Memory.h"
+#include <cstring>
 
 namespace llvm {
 
 BumpPtrAllocator::BumpPtrAllocator(size_t size, size_t threshold,
                                    SlabAllocator &allocator)
     : SlabSize(size), SizeThreshold(threshold), Allocator(allocator),
-      CurSlab(0), BytesAllocated(0) {
-  StartNewSlab();
-}
+      CurSlab(0), BytesAllocated(0) { }
 
 BumpPtrAllocator::~BumpPtrAllocator() {
   DeallocateSlabs(CurSlab);
@@ -44,11 +44,17 @@ char *BumpPtrAllocator::AlignPtr(char *Ptr, size_t Alignment) {
 /// StartNewSlab - Allocate a new slab and move the bump pointers over into
 /// the new slab.  Modifies CurPtr and End.
 void BumpPtrAllocator::StartNewSlab() {
+  // If we allocated a big number of slabs already it's likely that we're going
+  // to allocate more. Increase slab size to reduce mallocs and possibly memory
+  // overhead. The factors are chosen conservatively to avoid overallocation.
+  if (BytesAllocated >= SlabSize * 128)
+    SlabSize *= 2;
+
   MemSlab *NewSlab = Allocator.Allocate(SlabSize);
   NewSlab->NextPtr = CurSlab;
   CurSlab = NewSlab;
   CurPtr = (char*)(CurSlab + 1);
-  End = CurPtr + CurSlab->Size;
+  End = ((char*)CurSlab) + CurSlab->Size;
 }
 
 /// DeallocateSlabs - Deallocate all memory slabs after and including this
@@ -59,6 +65,7 @@ void BumpPtrAllocator::DeallocateSlabs(MemSlab *Slab) {
 #ifndef NDEBUG
     // Poison the memory so stale pointers crash sooner.  Note we must
     // preserve the Size and NextPtr fields at the beginning.
+    sys::Memory::setRangeWritable(Slab + 1, Slab->Size - sizeof(MemSlab));
     memset(Slab + 1, 0xCD, Slab->Size - sizeof(MemSlab));
 #endif
     Allocator.Deallocate(Slab);
@@ -69,15 +76,20 @@ void BumpPtrAllocator::DeallocateSlabs(MemSlab *Slab) {
 /// Reset - Deallocate all but the current slab and reset the current pointer
 /// to the beginning of it, freeing all memory allocated so far.
 void BumpPtrAllocator::Reset() {
+  if (!CurSlab)
+    return;
   DeallocateSlabs(CurSlab->NextPtr);
   CurSlab->NextPtr = 0;
   CurPtr = (char*)(CurSlab + 1);
-  End = CurPtr + CurSlab->Size;
+  End = ((char*)CurSlab) + CurSlab->Size;
 }
 
 /// Allocate - Allocate space at the specified alignment.
 ///
 void *BumpPtrAllocator::Allocate(size_t Size, size_t Alignment) {
+  if (!CurSlab) // Start a new slab if we haven't allocated one already.
+    StartNewSlab();
+
   // Keep track of how many bytes we've allocated.
   BytesAllocated += Size;
 
@@ -88,14 +100,14 @@ void *BumpPtrAllocator::Allocate(size_t Size, size_t Alignment) {
   char *Ptr = AlignPtr(CurPtr, Alignment);
 
   // Check if we can hold it.
-  if (Ptr + Size < End) {
+  if (Ptr + Size <= End) {
     CurPtr = Ptr + Size;
     return Ptr;
   }
 
   // If Size is really big, allocate a separate slab for it.
-  if (Size > SizeThreshold) {
-    size_t PaddedSize = Size + sizeof(MemSlab) + Alignment - 1;
+  size_t PaddedSize = Size + sizeof(MemSlab) + Alignment - 1;
+  if (PaddedSize > SizeThreshold) {
     MemSlab *NewSlab = Allocator.Allocate(PaddedSize);
 
     // Put the new slab after the current slab, since we are not allocating
@@ -104,7 +116,7 @@ void *BumpPtrAllocator::Allocate(size_t Size, size_t Alignment) {
     CurSlab->NextPtr = NewSlab;
 
     Ptr = AlignPtr((char*)(NewSlab + 1), Alignment);
-    assert((uintptr_t)Ptr + Size < (uintptr_t)NewSlab + NewSlab->Size);
+    assert((uintptr_t)Ptr + Size <= (uintptr_t)NewSlab + NewSlab->Size);
     return Ptr;
   }
 
@@ -112,7 +124,7 @@ void *BumpPtrAllocator::Allocate(size_t Size, size_t Alignment) {
   StartNewSlab();
   Ptr = AlignPtr(CurPtr, Alignment);
   CurPtr = Ptr + Size;
-  assert(CurPtr < End && "Unable to allocate memory!");
+  assert(CurPtr <= End && "Unable to allocate memory!");
   return Ptr;
 }
 
@@ -132,11 +144,11 @@ void BumpPtrAllocator::PrintStats() const {
     ++NumSlabs;
   }
 
-  cerr << "\nNumber of memory regions: " << NumSlabs << '\n'
-       << "Bytes used: " << BytesAllocated << '\n'
-       << "Bytes allocated: " << TotalMemory << '\n'
-       << "Bytes wasted: " << (TotalMemory - BytesAllocated)
-       << " (includes alignment, etc)\n";
+  errs() << "\nNumber of memory regions: " << NumSlabs << '\n'
+         << "Bytes used: " << BytesAllocated << '\n'
+         << "Bytes allocated: " << TotalMemory << '\n'
+         << "Bytes wasted: " << (TotalMemory - BytesAllocated)
+         << " (includes alignment, etc)\n";
 }
 
 MallocSlabAllocator BumpPtrAllocator::DefaultSlabAllocator =
@@ -160,9 +172,9 @@ void MallocSlabAllocator::Deallocate(MemSlab *Slab) {
 void PrintRecyclerStats(size_t Size,
                         size_t Align,
                         size_t FreeListSize) {
-  cerr << "Recycler element size: " << Size << '\n'
-       << "Recycler element alignment: " << Align << '\n'
-       << "Number of elements free for recycling: " << FreeListSize << '\n';
+  errs() << "Recycler element size: " << Size << '\n'
+         << "Recycler element alignment: " << Align << '\n'
+         << "Number of elements free for recycling: " << FreeListSize << '\n';
 }
 
 }