R600: Unconditionally unroll loops that contain GEPs with alloca pointers
[oota-llvm.git] / lib / Target / R600 / AMDGPUTargetTransformInfo.cpp
1 //===-- AMDGPUTargetTransformInfo.cpp - AMDGPU specific TTI pass ---------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // \file
11 // This file implements a TargetTransformInfo analysis pass specific to the
12 // AMDGPU target machine. It uses the target's detailed information to provide
13 // more precise answers to certain TTI queries, while letting the target
14 // independent and default TTI implementations handle the rest.
15 //
16 //===----------------------------------------------------------------------===//
17
18 #define DEBUG_TYPE "AMDGPUtti"
19 #include "AMDGPU.h"
20 #include "AMDGPUTargetMachine.h"
21 #include "llvm/Analysis/LoopInfo.h"
22 #include "llvm/Analysis/TargetTransformInfo.h"
23 #include "llvm/Analysis/ValueTracking.h"
24 #include "llvm/Support/Debug.h"
25 #include "llvm/Target/CostTable.h"
26 #include "llvm/Target/TargetLowering.h"
27 using namespace llvm;
28
29 // Declare the pass initialization routine locally as target-specific passes
30 // don't have a target-wide initialization entry point, and so we rely on the
31 // pass constructor initialization.
32 namespace llvm {
33 void initializeAMDGPUTTIPass(PassRegistry &);
34 }
35
36 namespace {
37
38 class AMDGPUTTI : public ImmutablePass, public TargetTransformInfo {
39   const AMDGPUTargetMachine *TM;
40   const AMDGPUSubtarget *ST;
41   const AMDGPUTargetLowering *TLI;
42
43   /// Estimate the overhead of scalarizing an instruction. Insert and Extract
44   /// are set if the result needs to be inserted and/or extracted from vectors.
45   unsigned getScalarizationOverhead(Type *Ty, bool Insert, bool Extract) const;
46
47 public:
48   AMDGPUTTI() : ImmutablePass(ID), TM(0), ST(0), TLI(0) {
49     llvm_unreachable("This pass cannot be directly constructed");
50   }
51
52   AMDGPUTTI(const AMDGPUTargetMachine *TM)
53       : ImmutablePass(ID), TM(TM), ST(TM->getSubtargetImpl()),
54         TLI(TM->getTargetLowering()) {
55     initializeAMDGPUTTIPass(*PassRegistry::getPassRegistry());
56   }
57
58   virtual void initializePass() { pushTTIStack(this); }
59
60   virtual void finalizePass() { popTTIStack(); }
61
62   virtual void getAnalysisUsage(AnalysisUsage &AU) const {
63     TargetTransformInfo::getAnalysisUsage(AU);
64   }
65
66   /// Pass identification.
67   static char ID;
68
69   /// Provide necessary pointer adjustments for the two base classes.
70   virtual void *getAdjustedAnalysisPointer(const void *ID) {
71     if (ID == &TargetTransformInfo::ID)
72       return (TargetTransformInfo *)this;
73     return this;
74   }
75
76   virtual bool hasBranchDivergence() const;
77
78   virtual void getUnrollingPreferences(Loop *L, UnrollingPreferences &UP) const;
79
80   /// @}
81 };
82
83 } // end anonymous namespace
84
85 INITIALIZE_AG_PASS(AMDGPUTTI, TargetTransformInfo, "AMDGPUtti",
86                    "AMDGPU Target Transform Info", true, true, false)
87 char AMDGPUTTI::ID = 0;
88
89 ImmutablePass *
90 llvm::createAMDGPUTargetTransformInfoPass(const AMDGPUTargetMachine *TM) {
91   return new AMDGPUTTI(TM);
92 }
93
94 bool AMDGPUTTI::hasBranchDivergence() const { return true; }
95
96 void AMDGPUTTI::getUnrollingPreferences(Loop *L,
97                                         UnrollingPreferences &UP) const {
98   for (Loop::block_iterator BI = L->block_begin(), BE = L->block_end();
99                                                   BI != BE; ++BI) {
100     BasicBlock *BB = *BI;
101     for (BasicBlock::const_iterator I = BB->begin(), E = BB->end();
102                                                       I != E; ++I) {
103       const GetElementPtrInst *GEP = dyn_cast<GetElementPtrInst>(I);
104       if (!GEP)
105         continue;
106       const Value *Ptr = GEP->getPointerOperand();
107       const AllocaInst *Alloca = dyn_cast<AllocaInst>(GetUnderlyingObject(Ptr));
108       if (Alloca) {
109         // We want to do whatever we can to limit the number of alloca
110         // instructions that make it through to the code generator.  allocas
111         // require us to use indirect addressing, which is slow and prone to
112         // compiler bugs.  If this loop does an address calculation on an
113         // alloca ptr, then we want to unconditionally unroll the loop.  In most
114         // cases, this will make it possible for SROA to eliminate these allocas.
115         UP.Threshold = UINT_MAX;
116       }
117     }
118   }
119 }