efc7bd76ce0270222411c5f941d96e4fbf387de2
[oota-llvm.git] / lib / CodeGen / MachineScheduler.cpp
1 //===- MachineScheduler.cpp - Machine Instruction Scheduler ---------------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // MachineScheduler schedules machine instructions after phi elimination. It
11 // preserves LiveIntervals so it can be invoked before register allocation.
12 //
13 //===----------------------------------------------------------------------===//
14
15 #define DEBUG_TYPE "misched"
16
17 #include "RegisterClassInfo.h"
18 #include "RegisterPressure.h"
19 #include "llvm/CodeGen/LiveIntervalAnalysis.h"
20 #include "llvm/CodeGen/MachineScheduler.h"
21 #include "llvm/CodeGen/Passes.h"
22 #include "llvm/CodeGen/ScheduleDAGInstrs.h"
23 #include "llvm/CodeGen/ScheduleHazardRecognizer.h"
24 #include "llvm/Analysis/AliasAnalysis.h"
25 #include "llvm/Target/TargetInstrInfo.h"
26 #include "llvm/Support/CommandLine.h"
27 #include "llvm/Support/Debug.h"
28 #include "llvm/Support/ErrorHandling.h"
29 #include "llvm/Support/raw_ostream.h"
30 #include "llvm/ADT/OwningPtr.h"
31 #include "llvm/ADT/PriorityQueue.h"
32
33 #include <queue>
34
35 using namespace llvm;
36
37 static cl::opt<bool> ForceTopDown("misched-topdown", cl::Hidden,
38                                   cl::desc("Force top-down list scheduling"));
39 static cl::opt<bool> ForceBottomUp("misched-bottomup", cl::Hidden,
40                                   cl::desc("Force bottom-up list scheduling"));
41
42 #ifndef NDEBUG
43 static cl::opt<bool> ViewMISchedDAGs("view-misched-dags", cl::Hidden,
44   cl::desc("Pop up a window to show MISched dags after they are processed"));
45
46 static cl::opt<unsigned> MISchedCutoff("misched-cutoff", cl::Hidden,
47   cl::desc("Stop scheduling after N instructions"), cl::init(~0U));
48 #else
49 static bool ViewMISchedDAGs = false;
50 #endif // NDEBUG
51
52 //===----------------------------------------------------------------------===//
53 // Machine Instruction Scheduling Pass and Registry
54 //===----------------------------------------------------------------------===//
55
56 MachineSchedContext::MachineSchedContext():
57     MF(0), MLI(0), MDT(0), PassConfig(0), AA(0), LIS(0) {
58   RegClassInfo = new RegisterClassInfo();
59 }
60
61 MachineSchedContext::~MachineSchedContext() {
62   delete RegClassInfo;
63 }
64
65 namespace {
66 /// MachineScheduler runs after coalescing and before register allocation.
67 class MachineScheduler : public MachineSchedContext,
68                          public MachineFunctionPass {
69 public:
70   MachineScheduler();
71
72   virtual void getAnalysisUsage(AnalysisUsage &AU) const;
73
74   virtual void releaseMemory() {}
75
76   virtual bool runOnMachineFunction(MachineFunction&);
77
78   virtual void print(raw_ostream &O, const Module* = 0) const;
79
80   static char ID; // Class identification, replacement for typeinfo
81 };
82 } // namespace
83
84 char MachineScheduler::ID = 0;
85
86 char &llvm::MachineSchedulerID = MachineScheduler::ID;
87
88 INITIALIZE_PASS_BEGIN(MachineScheduler, "misched",
89                       "Machine Instruction Scheduler", false, false)
90 INITIALIZE_AG_DEPENDENCY(AliasAnalysis)
91 INITIALIZE_PASS_DEPENDENCY(SlotIndexes)
92 INITIALIZE_PASS_DEPENDENCY(LiveIntervals)
93 INITIALIZE_PASS_END(MachineScheduler, "misched",
94                     "Machine Instruction Scheduler", false, false)
95
96 MachineScheduler::MachineScheduler()
97 : MachineFunctionPass(ID) {
98   initializeMachineSchedulerPass(*PassRegistry::getPassRegistry());
99 }
100
101 void MachineScheduler::getAnalysisUsage(AnalysisUsage &AU) const {
102   AU.setPreservesCFG();
103   AU.addRequiredID(MachineDominatorsID);
104   AU.addRequired<MachineLoopInfo>();
105   AU.addRequired<AliasAnalysis>();
106   AU.addRequired<TargetPassConfig>();
107   AU.addRequired<SlotIndexes>();
108   AU.addPreserved<SlotIndexes>();
109   AU.addRequired<LiveIntervals>();
110   AU.addPreserved<LiveIntervals>();
111   MachineFunctionPass::getAnalysisUsage(AU);
112 }
113
114 MachinePassRegistry MachineSchedRegistry::Registry;
115
116 /// A dummy default scheduler factory indicates whether the scheduler
117 /// is overridden on the command line.
118 static ScheduleDAGInstrs *useDefaultMachineSched(MachineSchedContext *C) {
119   return 0;
120 }
121
122 /// MachineSchedOpt allows command line selection of the scheduler.
123 static cl::opt<MachineSchedRegistry::ScheduleDAGCtor, false,
124                RegisterPassParser<MachineSchedRegistry> >
125 MachineSchedOpt("misched",
126                 cl::init(&useDefaultMachineSched), cl::Hidden,
127                 cl::desc("Machine instruction scheduler to use"));
128
129 static MachineSchedRegistry
130 DefaultSchedRegistry("default", "Use the target's default scheduler choice.",
131                      useDefaultMachineSched);
132
133 /// Forward declare the standard machine scheduler. This will be used as the
134 /// default scheduler if the target does not set a default.
135 static ScheduleDAGInstrs *createConvergingSched(MachineSchedContext *C);
136
137
138 /// Decrement this iterator until reaching the top or a non-debug instr.
139 static MachineBasicBlock::iterator
140 priorNonDebug(MachineBasicBlock::iterator I, MachineBasicBlock::iterator Beg) {
141   assert(I != Beg && "reached the top of the region, cannot decrement");
142   while (--I != Beg) {
143     if (!I->isDebugValue())
144       break;
145   }
146   return I;
147 }
148
149 /// If this iterator is a debug value, increment until reaching the End or a
150 /// non-debug instruction.
151 static MachineBasicBlock::iterator
152 nextIfDebug(MachineBasicBlock::iterator I, MachineBasicBlock::iterator End) {
153   for(; I != End; ++I) {
154     if (!I->isDebugValue())
155       break;
156   }
157   return I;
158 }
159
160 /// Top-level MachineScheduler pass driver.
161 ///
162 /// Visit blocks in function order. Divide each block into scheduling regions
163 /// and visit them bottom-up. Visiting regions bottom-up is not required, but is
164 /// consistent with the DAG builder, which traverses the interior of the
165 /// scheduling regions bottom-up.
166 ///
167 /// This design avoids exposing scheduling boundaries to the DAG builder,
168 /// simplifying the DAG builder's support for "special" target instructions.
169 /// At the same time the design allows target schedulers to operate across
170 /// scheduling boundaries, for example to bundle the boudary instructions
171 /// without reordering them. This creates complexity, because the target
172 /// scheduler must update the RegionBegin and RegionEnd positions cached by
173 /// ScheduleDAGInstrs whenever adding or removing instructions. A much simpler
174 /// design would be to split blocks at scheduling boundaries, but LLVM has a
175 /// general bias against block splitting purely for implementation simplicity.
176 bool MachineScheduler::runOnMachineFunction(MachineFunction &mf) {
177   DEBUG(dbgs() << "Before MISsched:\n"; mf.print(dbgs()));
178
179   // Initialize the context of the pass.
180   MF = &mf;
181   MLI = &getAnalysis<MachineLoopInfo>();
182   MDT = &getAnalysis<MachineDominatorTree>();
183   PassConfig = &getAnalysis<TargetPassConfig>();
184   AA = &getAnalysis<AliasAnalysis>();
185
186   LIS = &getAnalysis<LiveIntervals>();
187   const TargetInstrInfo *TII = MF->getTarget().getInstrInfo();
188
189   RegClassInfo->runOnMachineFunction(*MF);
190
191   // Select the scheduler, or set the default.
192   MachineSchedRegistry::ScheduleDAGCtor Ctor = MachineSchedOpt;
193   if (Ctor == useDefaultMachineSched) {
194     // Get the default scheduler set by the target.
195     Ctor = MachineSchedRegistry::getDefault();
196     if (!Ctor) {
197       Ctor = createConvergingSched;
198       MachineSchedRegistry::setDefault(Ctor);
199     }
200   }
201   // Instantiate the selected scheduler.
202   OwningPtr<ScheduleDAGInstrs> Scheduler(Ctor(this));
203
204   // Visit all machine basic blocks.
205   //
206   // TODO: Visit blocks in global postorder or postorder within the bottom-up
207   // loop tree. Then we can optionally compute global RegPressure.
208   for (MachineFunction::iterator MBB = MF->begin(), MBBEnd = MF->end();
209        MBB != MBBEnd; ++MBB) {
210
211     Scheduler->startBlock(MBB);
212
213     // Break the block into scheduling regions [I, RegionEnd), and schedule each
214     // region as soon as it is discovered. RegionEnd points the the scheduling
215     // boundary at the bottom of the region. The DAG does not include RegionEnd,
216     // but the region does (i.e. the next RegionEnd is above the previous
217     // RegionBegin). If the current block has no terminator then RegionEnd ==
218     // MBB->end() for the bottom region.
219     //
220     // The Scheduler may insert instructions during either schedule() or
221     // exitRegion(), even for empty regions. So the local iterators 'I' and
222     // 'RegionEnd' are invalid across these calls.
223     unsigned RemainingCount = MBB->size();
224     for(MachineBasicBlock::iterator RegionEnd = MBB->end();
225         RegionEnd != MBB->begin(); RegionEnd = Scheduler->begin()) {
226
227       // Avoid decrementing RegionEnd for blocks with no terminator.
228       if (RegionEnd != MBB->end()
229           || TII->isSchedulingBoundary(llvm::prior(RegionEnd), MBB, *MF)) {
230         --RegionEnd;
231         // Count the boundary instruction.
232         --RemainingCount;
233       }
234
235       // The next region starts above the previous region. Look backward in the
236       // instruction stream until we find the nearest boundary.
237       MachineBasicBlock::iterator I = RegionEnd;
238       for(;I != MBB->begin(); --I, --RemainingCount) {
239         if (TII->isSchedulingBoundary(llvm::prior(I), MBB, *MF))
240           break;
241       }
242       // Notify the scheduler of the region, even if we may skip scheduling
243       // it. Perhaps it still needs to be bundled.
244       Scheduler->enterRegion(MBB, I, RegionEnd, RemainingCount);
245
246       // Skip empty scheduling regions (0 or 1 schedulable instructions).
247       if (I == RegionEnd || I == llvm::prior(RegionEnd)) {
248         // Close the current region. Bundle the terminator if needed.
249         // This invalidates 'RegionEnd' and 'I'.
250         Scheduler->exitRegion();
251         continue;
252       }
253       DEBUG(dbgs() << "MachineScheduling " << MF->getFunction()->getName()
254             << ":BB#" << MBB->getNumber() << "\n  From: " << *I << "    To: ";
255             if (RegionEnd != MBB->end()) dbgs() << *RegionEnd;
256             else dbgs() << "End";
257             dbgs() << " Remaining: " << RemainingCount << "\n");
258
259       // Schedule a region: possibly reorder instructions.
260       // This invalidates 'RegionEnd' and 'I'.
261       Scheduler->schedule();
262
263       // Close the current region.
264       Scheduler->exitRegion();
265
266       // Scheduling has invalidated the current iterator 'I'. Ask the
267       // scheduler for the top of it's scheduled region.
268       RegionEnd = Scheduler->begin();
269     }
270     assert(RemainingCount == 0 && "Instruction count mismatch!");
271     Scheduler->finishBlock();
272   }
273   Scheduler->finalizeSchedule();
274   DEBUG(LIS->print(dbgs()));
275   return true;
276 }
277
278 void MachineScheduler::print(raw_ostream &O, const Module* m) const {
279   // unimplemented
280 }
281
282 //===----------------------------------------------------------------------===//
283 // MachineSchedStrategy - Interface to a machine scheduling algorithm.
284 //===----------------------------------------------------------------------===//
285
286 namespace {
287 class ScheduleDAGMI;
288
289 /// MachineSchedStrategy - Interface used by ScheduleDAGMI to drive the selected
290 /// scheduling algorithm.
291 ///
292 /// If this works well and targets wish to reuse ScheduleDAGMI, we may expose it
293 /// in ScheduleDAGInstrs.h
294 class MachineSchedStrategy {
295 public:
296   virtual ~MachineSchedStrategy() {}
297
298   /// Initialize the strategy after building the DAG for a new region.
299   virtual void initialize(ScheduleDAGMI *DAG) = 0;
300
301   /// Pick the next node to schedule, or return NULL. Set IsTopNode to true to
302   /// schedule the node at the top of the unscheduled region. Otherwise it will
303   /// be scheduled at the bottom.
304   virtual SUnit *pickNode(bool &IsTopNode) = 0;
305
306   /// Notify MachineSchedStrategy that ScheduleDAGMI has scheduled a node.
307   virtual void schedNode(SUnit *SU, bool IsTopNode) = 0;
308
309   /// When all predecessor dependencies have been resolved, free this node for
310   /// top-down scheduling.
311   virtual void releaseTopNode(SUnit *SU) = 0;
312   /// When all successor dependencies have been resolved, free this node for
313   /// bottom-up scheduling.
314   virtual void releaseBottomNode(SUnit *SU) = 0;
315 };
316 } // namespace
317
318 //===----------------------------------------------------------------------===//
319 // ScheduleDAGMI - Base class for MachineInstr scheduling with LiveIntervals
320 // preservation.
321 //===----------------------------------------------------------------------===//
322
323 namespace {
324 /// ScheduleDAGMI is an implementation of ScheduleDAGInstrs that schedules
325 /// machine instructions while updating LiveIntervals.
326 class ScheduleDAGMI : public ScheduleDAGInstrs {
327   AliasAnalysis *AA;
328   RegisterClassInfo *RegClassInfo;
329   MachineSchedStrategy *SchedImpl;
330
331   MachineBasicBlock::iterator LiveRegionEnd;
332
333   /// Register pressure in this region computed by buildSchedGraph.
334   IntervalPressure RegPressure;
335   RegPressureTracker RPTracker;
336
337   /// List of pressure sets that exceed the target's pressure limit before
338   /// scheduling, listed in increasing set ID order. Each pressure set is paired
339   /// with its max pressure in the currently scheduled regions.
340   std::vector<PressureElement> RegionCriticalPSets;
341
342   /// The top of the unscheduled zone.
343   MachineBasicBlock::iterator CurrentTop;
344   IntervalPressure TopPressure;
345   RegPressureTracker TopRPTracker;
346
347   /// The bottom of the unscheduled zone.
348   MachineBasicBlock::iterator CurrentBottom;
349   IntervalPressure BotPressure;
350   RegPressureTracker BotRPTracker;
351
352   /// The number of instructions scheduled so far. Used to cut off the
353   /// scheduler at the point determined by misched-cutoff.
354   unsigned NumInstrsScheduled;
355 public:
356   ScheduleDAGMI(MachineSchedContext *C, MachineSchedStrategy *S):
357     ScheduleDAGInstrs(*C->MF, *C->MLI, *C->MDT, /*IsPostRA=*/false, C->LIS),
358     AA(C->AA), RegClassInfo(C->RegClassInfo), SchedImpl(S),
359     RPTracker(RegPressure), CurrentTop(), TopRPTracker(TopPressure),
360     CurrentBottom(), BotRPTracker(BotPressure), NumInstrsScheduled(0) {}
361
362   ~ScheduleDAGMI() {
363     delete SchedImpl;
364   }
365
366   MachineBasicBlock::iterator top() const { return CurrentTop; }
367   MachineBasicBlock::iterator bottom() const { return CurrentBottom; }
368
369   /// Implement the ScheduleDAGInstrs interface for handling the next scheduling
370   /// region. This covers all instructions in a block, while schedule() may only
371   /// cover a subset.
372   void enterRegion(MachineBasicBlock *bb,
373                    MachineBasicBlock::iterator begin,
374                    MachineBasicBlock::iterator end,
375                    unsigned endcount);
376
377   /// Implement ScheduleDAGInstrs interface for scheduling a sequence of
378   /// reorderable instructions.
379   void schedule();
380
381   /// Get current register pressure for the top scheduled instructions.
382   const IntervalPressure &getTopPressure() const { return TopPressure; }
383   const RegPressureTracker &getTopRPTracker() const { return TopRPTracker; }
384
385   /// Get current register pressure for the bottom scheduled instructions.
386   const IntervalPressure &getBotPressure() const { return BotPressure; }
387   const RegPressureTracker &getBotRPTracker() const { return BotRPTracker; }
388
389   /// Get register pressure for the entire scheduling region before scheduling.
390   const IntervalPressure &getRegPressure() const { return RegPressure; }
391
392   const std::vector<PressureElement> &getRegionCriticalPSets() const {
393     return RegionCriticalPSets;
394   }
395
396 protected:
397   void initRegPressure();
398   void updateScheduledPressure(std::vector<unsigned> NewMaxPressure);
399
400   void moveInstruction(MachineInstr *MI, MachineBasicBlock::iterator InsertPos);
401   bool checkSchedLimit();
402
403   void releaseRoots();
404
405   void releaseSucc(SUnit *SU, SDep *SuccEdge);
406   void releaseSuccessors(SUnit *SU);
407   void releasePred(SUnit *SU, SDep *PredEdge);
408   void releasePredecessors(SUnit *SU);
409
410   void placeDebugValues();
411 };
412 } // namespace
413
414 /// ReleaseSucc - Decrement the NumPredsLeft count of a successor. When
415 /// NumPredsLeft reaches zero, release the successor node.
416 ///
417 /// FIXME: Adjust SuccSU height based on MinLatency.
418 void ScheduleDAGMI::releaseSucc(SUnit *SU, SDep *SuccEdge) {
419   SUnit *SuccSU = SuccEdge->getSUnit();
420
421 #ifndef NDEBUG
422   if (SuccSU->NumPredsLeft == 0) {
423     dbgs() << "*** Scheduling failed! ***\n";
424     SuccSU->dump(this);
425     dbgs() << " has been released too many times!\n";
426     llvm_unreachable(0);
427   }
428 #endif
429   --SuccSU->NumPredsLeft;
430   if (SuccSU->NumPredsLeft == 0 && SuccSU != &ExitSU)
431     SchedImpl->releaseTopNode(SuccSU);
432 }
433
434 /// releaseSuccessors - Call releaseSucc on each of SU's successors.
435 void ScheduleDAGMI::releaseSuccessors(SUnit *SU) {
436   for (SUnit::succ_iterator I = SU->Succs.begin(), E = SU->Succs.end();
437        I != E; ++I) {
438     releaseSucc(SU, &*I);
439   }
440 }
441
442 /// ReleasePred - Decrement the NumSuccsLeft count of a predecessor. When
443 /// NumSuccsLeft reaches zero, release the predecessor node.
444 ///
445 /// FIXME: Adjust PredSU height based on MinLatency.
446 void ScheduleDAGMI::releasePred(SUnit *SU, SDep *PredEdge) {
447   SUnit *PredSU = PredEdge->getSUnit();
448
449 #ifndef NDEBUG
450   if (PredSU->NumSuccsLeft == 0) {
451     dbgs() << "*** Scheduling failed! ***\n";
452     PredSU->dump(this);
453     dbgs() << " has been released too many times!\n";
454     llvm_unreachable(0);
455   }
456 #endif
457   --PredSU->NumSuccsLeft;
458   if (PredSU->NumSuccsLeft == 0 && PredSU != &EntrySU)
459     SchedImpl->releaseBottomNode(PredSU);
460 }
461
462 /// releasePredecessors - Call releasePred on each of SU's predecessors.
463 void ScheduleDAGMI::releasePredecessors(SUnit *SU) {
464   for (SUnit::pred_iterator I = SU->Preds.begin(), E = SU->Preds.end();
465        I != E; ++I) {
466     releasePred(SU, &*I);
467   }
468 }
469
470 void ScheduleDAGMI::moveInstruction(MachineInstr *MI,
471                                     MachineBasicBlock::iterator InsertPos) {
472   // Advance RegionBegin if the first instruction moves down.
473   if (&*RegionBegin == MI)
474     ++RegionBegin;
475
476   // Update the instruction stream.
477   BB->splice(InsertPos, BB, MI);
478
479   // Update LiveIntervals
480   LIS->handleMove(MI);
481
482   // Recede RegionBegin if an instruction moves above the first.
483   if (RegionBegin == InsertPos)
484     RegionBegin = MI;
485 }
486
487 bool ScheduleDAGMI::checkSchedLimit() {
488 #ifndef NDEBUG
489   if (NumInstrsScheduled == MISchedCutoff && MISchedCutoff != ~0U) {
490     CurrentTop = CurrentBottom;
491     return false;
492   }
493   ++NumInstrsScheduled;
494 #endif
495   return true;
496 }
497
498 /// enterRegion - Called back from MachineScheduler::runOnMachineFunction after
499 /// crossing a scheduling boundary. [begin, end) includes all instructions in
500 /// the region, including the boundary itself and single-instruction regions
501 /// that don't get scheduled.
502 void ScheduleDAGMI::enterRegion(MachineBasicBlock *bb,
503                                 MachineBasicBlock::iterator begin,
504                                 MachineBasicBlock::iterator end,
505                                 unsigned endcount)
506 {
507   ScheduleDAGInstrs::enterRegion(bb, begin, end, endcount);
508
509   // For convenience remember the end of the liveness region.
510   LiveRegionEnd =
511     (RegionEnd == bb->end()) ? RegionEnd : llvm::next(RegionEnd);
512 }
513
514 // Setup the register pressure trackers for the top scheduled top and bottom
515 // scheduled regions.
516 void ScheduleDAGMI::initRegPressure() {
517   TopRPTracker.init(&MF, RegClassInfo, LIS, BB, RegionBegin);
518   BotRPTracker.init(&MF, RegClassInfo, LIS, BB, LiveRegionEnd);
519
520   // Close the RPTracker to finalize live ins.
521   RPTracker.closeRegion();
522
523   // Initialize the live ins and live outs.
524   TopRPTracker.addLiveRegs(RPTracker.getPressure().LiveInRegs);
525   BotRPTracker.addLiveRegs(RPTracker.getPressure().LiveOutRegs);
526
527   // Close one end of the tracker so we can call
528   // getMaxUpward/DownwardPressureDelta before advancing across any
529   // instructions. This converts currently live regs into live ins/outs.
530   TopRPTracker.closeTop();
531   BotRPTracker.closeBottom();
532
533   // Account for liveness generated by the region boundary.
534   if (LiveRegionEnd != RegionEnd)
535     BotRPTracker.recede();
536
537   assert(BotRPTracker.getPos() == RegionEnd && "Can't find the region bottom");
538
539   // Cache the list of excess pressure sets in this region. This will also track
540   // the max pressure in the scheduled code for these sets.
541   RegionCriticalPSets.clear();
542   std::vector<unsigned> RegionPressure = RPTracker.getPressure().MaxSetPressure;
543   for (unsigned i = 0, e = RegionPressure.size(); i < e; ++i) {
544     unsigned Limit = TRI->getRegPressureSetLimit(i);
545     if (RegionPressure[i] > Limit)
546       RegionCriticalPSets.push_back(PressureElement(i, 0));
547   }
548   DEBUG(dbgs() << "Excess PSets: ";
549         for (unsigned i = 0, e = RegionCriticalPSets.size(); i != e; ++i)
550           dbgs() << TRI->getRegPressureSetName(
551             RegionCriticalPSets[i].PSetID) << " ";
552         dbgs() << "\n");
553 }
554
555 // FIXME: When the pressure tracker deals in pressure differences then we won't
556 // iterate over all RegionCriticalPSets[i].
557 void ScheduleDAGMI::
558 updateScheduledPressure(std::vector<unsigned> NewMaxPressure) {
559   for (unsigned i = 0, e = RegionCriticalPSets.size(); i < e; ++i) {
560     unsigned ID = RegionCriticalPSets[i].PSetID;
561     int &MaxUnits = RegionCriticalPSets[i].UnitIncrease;
562     if ((int)NewMaxPressure[ID] > MaxUnits)
563       MaxUnits = NewMaxPressure[ID];
564   }
565 }
566
567 // Release all DAG roots for scheduling.
568 void ScheduleDAGMI::releaseRoots() {
569   SmallVector<SUnit*, 16> BotRoots;
570
571   for (std::vector<SUnit>::iterator
572          I = SUnits.begin(), E = SUnits.end(); I != E; ++I) {
573     // A SUnit is ready to top schedule if it has no predecessors.
574     if (I->Preds.empty())
575       SchedImpl->releaseTopNode(&(*I));
576     // A SUnit is ready to bottom schedule if it has no successors.
577     if (I->Succs.empty())
578       BotRoots.push_back(&(*I));
579   }
580   // Release bottom roots in reverse order so the higher priority nodes appear
581   // first. This is more natural and slightly more efficient.
582   for (SmallVectorImpl<SUnit*>::const_reverse_iterator
583          I = BotRoots.rbegin(), E = BotRoots.rend(); I != E; ++I)
584     SchedImpl->releaseBottomNode(*I);
585 }
586
587 /// schedule - Called back from MachineScheduler::runOnMachineFunction
588 /// after setting up the current scheduling region. [RegionBegin, RegionEnd)
589 /// only includes instructions that have DAG nodes, not scheduling boundaries.
590 void ScheduleDAGMI::schedule() {
591   // Initialize the register pressure tracker used by buildSchedGraph.
592   RPTracker.init(&MF, RegClassInfo, LIS, BB, LiveRegionEnd);
593
594   // Account for liveness generate by the region boundary.
595   if (LiveRegionEnd != RegionEnd)
596     RPTracker.recede();
597
598   // Build the DAG, and compute current register pressure.
599   buildSchedGraph(AA, &RPTracker);
600
601   // Initialize top/bottom trackers after computing region pressure.
602   initRegPressure();
603
604   DEBUG(dbgs() << "********** MI Scheduling **********\n");
605   DEBUG(for (unsigned su = 0, e = SUnits.size(); su != e; ++su)
606           SUnits[su].dumpAll(this));
607
608   if (ViewMISchedDAGs) viewGraph();
609
610   SchedImpl->initialize(this);
611
612   // Release edges from the special Entry node or to the special Exit node.
613   releaseSuccessors(&EntrySU);
614   releasePredecessors(&ExitSU);
615
616   // Release all DAG roots for scheduling.
617   releaseRoots();
618
619   CurrentTop = nextIfDebug(RegionBegin, RegionEnd);
620   CurrentBottom = RegionEnd;
621   bool IsTopNode = false;
622   while (SUnit *SU = SchedImpl->pickNode(IsTopNode)) {
623     DEBUG(dbgs() << "*** " << (IsTopNode ? "Top" : "Bottom")
624           << " Scheduling Instruction");
625     if (!checkSchedLimit())
626       break;
627
628     // Move the instruction to its new location in the instruction stream.
629     MachineInstr *MI = SU->getInstr();
630
631     if (IsTopNode) {
632       assert(SU->isTopReady() && "node still has unscheduled dependencies");
633       if (&*CurrentTop == MI)
634         CurrentTop = nextIfDebug(++CurrentTop, CurrentBottom);
635       else {
636         moveInstruction(MI, CurrentTop);
637         TopRPTracker.setPos(MI);
638       }
639
640       // Update top scheduled pressure.
641       TopRPTracker.advance();
642       assert(TopRPTracker.getPos() == CurrentTop && "out of sync");
643       updateScheduledPressure(TopRPTracker.getPressure().MaxSetPressure);
644
645       // Release dependent instructions for scheduling.
646       releaseSuccessors(SU);
647     }
648     else {
649       assert(SU->isBottomReady() && "node still has unscheduled dependencies");
650       MachineBasicBlock::iterator priorII =
651         priorNonDebug(CurrentBottom, CurrentTop);
652       if (&*priorII == MI)
653         CurrentBottom = priorII;
654       else {
655         if (&*CurrentTop == MI) {
656           CurrentTop = nextIfDebug(++CurrentTop, priorII);
657           TopRPTracker.setPos(CurrentTop);
658         }
659         moveInstruction(MI, CurrentBottom);
660         CurrentBottom = MI;
661       }
662       // Update bottom scheduled pressure.
663       BotRPTracker.recede();
664       assert(BotRPTracker.getPos() == CurrentBottom && "out of sync");
665       updateScheduledPressure(BotRPTracker.getPressure().MaxSetPressure);
666
667       // Release dependent instructions for scheduling.
668       releasePredecessors(SU);
669     }
670     SU->isScheduled = true;
671     SchedImpl->schedNode(SU, IsTopNode);
672     DEBUG(SU->dump(this));
673   }
674   assert(CurrentTop == CurrentBottom && "Nonempty unscheduled zone.");
675
676   placeDebugValues();
677 }
678
679 /// Reinsert any remaining debug_values, just like the PostRA scheduler.
680 void ScheduleDAGMI::placeDebugValues() {
681   // If first instruction was a DBG_VALUE then put it back.
682   if (FirstDbgValue) {
683     BB->splice(RegionBegin, BB, FirstDbgValue);
684     RegionBegin = FirstDbgValue;
685   }
686
687   for (std::vector<std::pair<MachineInstr *, MachineInstr *> >::iterator
688          DI = DbgValues.end(), DE = DbgValues.begin(); DI != DE; --DI) {
689     std::pair<MachineInstr *, MachineInstr *> P = *prior(DI);
690     MachineInstr *DbgValue = P.first;
691     MachineBasicBlock::iterator OrigPrevMI = P.second;
692     BB->splice(++OrigPrevMI, BB, DbgValue);
693     if (OrigPrevMI == llvm::prior(RegionEnd))
694       RegionEnd = DbgValue;
695   }
696   DbgValues.clear();
697   FirstDbgValue = NULL;
698 }
699
700 //===----------------------------------------------------------------------===//
701 // ConvergingScheduler - Implementation of the standard MachineSchedStrategy.
702 //===----------------------------------------------------------------------===//
703
704 namespace {
705 /// Wrapper around a vector of SUnits with some basic convenience methods.
706 struct ReadyQueue {
707   typedef std::vector<SUnit*>::iterator iterator;
708
709   unsigned ID;
710   std::vector<SUnit*> Queue;
711
712   ReadyQueue(unsigned id): ID(id) {}
713
714   bool isInQueue(SUnit *SU) const {
715     return SU->NodeQueueId & ID;
716   }
717
718   bool empty() const { return Queue.empty(); }
719
720   unsigned size() const { return Queue.size(); }
721
722   iterator begin() { return Queue.begin(); }
723
724   iterator end() { return Queue.end(); }
725
726   iterator find(SUnit *SU) {
727     return std::find(Queue.begin(), Queue.end(), SU);
728   }
729
730   void push(SUnit *SU) {
731     Queue.push_back(SU);
732     SU->NodeQueueId |= ID;
733   }
734
735   void remove(iterator I) {
736     (*I)->NodeQueueId &= ~ID;
737     *I = Queue.back();
738     Queue.pop_back();
739   }
740
741   void dump(const char* Name) {
742     dbgs() << Name << ": ";
743     for (unsigned i = 0, e = Queue.size(); i < e; ++i)
744       dbgs() << Queue[i]->NodeNum << " ";
745     dbgs() << "\n";
746   }
747 };
748
749 /// ConvergingScheduler shrinks the unscheduled zone using heuristics to balance
750 /// the schedule.
751 class ConvergingScheduler : public MachineSchedStrategy {
752
753   /// Store the state used by ConvergingScheduler heuristics, required for the
754   /// lifetime of one invocation of pickNode().
755   struct SchedCandidate {
756     // The best SUnit candidate.
757     SUnit *SU;
758
759     // Register pressure values for the best candidate.
760     RegPressureDelta RPDelta;
761
762     SchedCandidate(): SU(NULL) {}
763   };
764   /// Represent the type of SchedCandidate found within a single queue.
765   enum CandResult {
766     NoCand, NodeOrder, SingleExcess, SingleCritical, SingleMax, MultiPressure };
767
768   struct SchedBoundary {
769     ReadyQueue Available;
770     ReadyQueue Pending;
771     bool CheckPending;
772
773     ScheduleHazardRecognizer *HazardRec;
774
775     unsigned CurrCycle;
776     unsigned IssueCount;
777
778     /// MinReadyCycle - Cycle of the soonest available instruction.
779     unsigned MinReadyCycle;
780
781     /// Pending queues extend the ready queues with the same ID.
782     SchedBoundary(unsigned ID):
783       Available(ID), Pending(ID), CheckPending(false), HazardRec(0),
784       CurrCycle(0), IssueCount(0), MinReadyCycle(UINT_MAX) {}
785
786     ~SchedBoundary() { delete HazardRec; }
787
788     bool isTop() const { return Available.ID == ConvergingScheduler::TopQID; }
789
790     void releaseNode(SUnit *SU, unsigned ReadyCycle);
791
792     void bumpCycle();
793
794     void releasePending();
795
796     void removeReady(SUnit *SU);
797
798     SUnit *pickOnlyChoice();
799   };
800
801   ScheduleDAGMI *DAG;
802   const TargetRegisterInfo *TRI;
803
804   // State of the top and bottom scheduled instruction boundaries.
805   SchedBoundary Top;
806   SchedBoundary Bot;
807
808 public:
809   /// SUnit::NodeQueueId = 0 (none), = 1 (top), = 2 (bottom), = 3 (both)
810   enum {
811     TopQID = 1,
812     BotQID = 2
813   };
814
815   ConvergingScheduler(): DAG(0), TRI(0), Top(TopQID), Bot(BotQID) {}
816
817   static const char *getQName(unsigned ID) {
818     switch(ID) {
819     default: return "NoQ";
820     case TopQID: return "TopQ";
821     case BotQID: return "BotQ";
822     };
823   }
824
825   virtual void initialize(ScheduleDAGMI *dag);
826
827   virtual SUnit *pickNode(bool &IsTopNode);
828
829   virtual void schedNode(SUnit *SU, bool IsTopNode);
830
831   virtual void releaseTopNode(SUnit *SU);
832
833   virtual void releaseBottomNode(SUnit *SU);
834
835 protected:
836   SUnit *pickNodeBidrectional(bool &IsTopNode);
837
838   CandResult pickNodeFromQueue(ReadyQueue &Q,
839                                const RegPressureTracker &RPTracker,
840                                SchedCandidate &Candidate);
841 #ifndef NDEBUG
842   void traceCandidate(const char *Label, unsigned QID, SUnit *SU,
843                       PressureElement P = PressureElement());
844 #endif
845 };
846 } // namespace
847
848 void ConvergingScheduler::initialize(ScheduleDAGMI *dag) {
849   DAG = dag;
850   TRI = DAG->TRI;
851
852   // Initialize the HazardRecognizers.
853   const TargetMachine &TM = DAG->MF.getTarget();
854   const InstrItineraryData *Itin = TM.getInstrItineraryData();
855   Top.HazardRec = TM.getInstrInfo()->CreateTargetMIHazardRecognizer(Itin, DAG);
856   Bot.HazardRec = TM.getInstrInfo()->CreateTargetMIHazardRecognizer(Itin, DAG);
857
858   assert((!ForceTopDown || !ForceBottomUp) &&
859          "-misched-topdown incompatible with -misched-bottomup");
860 }
861
862 void ConvergingScheduler::releaseTopNode(SUnit *SU) {
863   Top.releaseNode(SU, SU->getDepth());
864 }
865
866 void ConvergingScheduler::releaseBottomNode(SUnit *SU) {
867   Bot.releaseNode(SU, SU->getHeight());
868 }
869
870 void ConvergingScheduler::SchedBoundary::releaseNode(SUnit *SU,
871                                                      unsigned ReadyCycle) {
872   if (SU->isScheduled)
873     return;
874
875   if (ReadyCycle < MinReadyCycle)
876     MinReadyCycle = ReadyCycle;
877
878   // Check for interlocks first. For the purpose of other heuristics, an
879   // instruction that cannot issue appears as if it's not in the ReadyQueue.
880   if (HazardRec->isEnabled()
881       && HazardRec->getHazardType(SU) != ScheduleHazardRecognizer::NoHazard)
882     Pending.push(SU);
883   else
884     Available.push(SU);
885 }
886
887 /// Move the boundary of scheduled code by one cycle.
888 void ConvergingScheduler::SchedBoundary::bumpCycle() {
889   IssueCount = 0;
890
891   assert(MinReadyCycle < UINT_MAX && "MinReadyCycle uninitialized");
892   unsigned NextCycle = std::max(CurrCycle + 1, MinReadyCycle);
893
894   if (!HazardRec->isEnabled()) {
895     // Bypass lots of virtual calls in case of long latency.
896     CurrCycle = NextCycle;
897   }
898   else {
899     for (; CurrCycle != NextCycle; ++CurrCycle) {
900       if (isTop())
901         HazardRec->AdvanceCycle();
902       else
903         HazardRec->RecedeCycle();
904     }
905   }
906   CheckPending = true;
907
908   DEBUG(dbgs() << "*** " << getQName(Available.ID) << " cycle "
909         << CurrCycle << '\n');
910 }
911
912 /// Release pending ready nodes in to the available queue. This makes them
913 /// visible to heuristics.
914 void ConvergingScheduler::SchedBoundary::releasePending() {
915   // If the available queue is empty, it is safe to reset MinReadyCycle.
916   if (Available.empty())
917     MinReadyCycle = UINT_MAX;
918
919   // Check to see if any of the pending instructions are ready to issue.  If
920   // so, add them to the available queue.
921   for (unsigned i = 0, e = Pending.size(); i != e; ++i) {
922     SUnit *SU = *(Pending.begin()+i);
923     unsigned ReadyCycle = isTop() ? SU->getHeight() : SU->getDepth();
924
925     if (ReadyCycle < MinReadyCycle)
926       MinReadyCycle = ReadyCycle;
927
928     if (ReadyCycle > CurrCycle)
929       continue;
930
931     if (HazardRec->isEnabled()
932         && HazardRec->getHazardType(SU) != ScheduleHazardRecognizer::NoHazard)
933       continue;
934
935     Available.push(SU);
936     Pending.remove(Pending.begin()+i);
937     --i; --e;
938   }
939   CheckPending = false;
940 }
941
942 /// Remove SU from the ready set for this boundary.
943 void ConvergingScheduler::SchedBoundary::removeReady(SUnit *SU) {
944   if (Available.isInQueue(SU))
945     Available.remove(Available.find(SU));
946   else {
947     assert(Pending.isInQueue(SU) && "bad ready count");
948     Pending.remove(Pending.find(SU));
949   }
950 }
951
952 /// If this queue only has one ready candidate, return it. As a side effect,
953 /// advance the cycle until at least one node is ready. If multiple instructions
954 /// are ready, return NULL.
955 SUnit *ConvergingScheduler::SchedBoundary::pickOnlyChoice() {
956   if (CheckPending)
957     releasePending();
958
959   for (unsigned i = 0; Available.empty(); ++i) {
960     assert(i <= HazardRec->getMaxLookAhead() && "permanent hazard"); (void)i;
961     bumpCycle();
962     releasePending();
963   }
964   if (Available.size() == 1)
965     return *Available.begin();
966   return NULL;
967 }
968
969 #ifndef NDEBUG
970 void ConvergingScheduler::traceCandidate(const char *Label, unsigned QID,
971                                          SUnit *SU, PressureElement P) {
972   dbgs() << Label << " " << getQName(QID) << " ";
973   if (P.isValid())
974     dbgs() << TRI->getRegPressureSetName(P.PSetID) << ":" << P.UnitIncrease
975            << " ";
976   else
977     dbgs() << "     ";
978   SU->dump(DAG);
979 }
980 #endif
981
982 /// pickNodeFromQueue helper that returns true if the LHS reg pressure effect is
983 /// more desirable than RHS from scheduling standpoint.
984 static bool compareRPDelta(const RegPressureDelta &LHS,
985                            const RegPressureDelta &RHS) {
986   // Compare each component of pressure in decreasing order of importance
987   // without checking if any are valid. Invalid PressureElements are assumed to
988   // have UnitIncrease==0, so are neutral.
989
990   // Avoid increasing the max critical pressure in the scheduled region.
991   if (LHS.Excess.UnitIncrease != RHS.Excess.UnitIncrease)
992     return LHS.Excess.UnitIncrease < RHS.Excess.UnitIncrease;
993
994   // Avoid increasing the max critical pressure in the scheduled region.
995   if (LHS.CriticalMax.UnitIncrease != RHS.CriticalMax.UnitIncrease)
996     return LHS.CriticalMax.UnitIncrease < RHS.CriticalMax.UnitIncrease;
997
998   // Avoid increasing the max pressure of the entire region.
999   if (LHS.CurrentMax.UnitIncrease != RHS.CurrentMax.UnitIncrease)
1000     return LHS.CurrentMax.UnitIncrease < RHS.CurrentMax.UnitIncrease;
1001
1002   return false;
1003 }
1004
1005 /// Pick the best candidate from the top queue.
1006 ///
1007 /// TODO: getMaxPressureDelta results can be mostly cached for each SUnit during
1008 /// DAG building. To adjust for the current scheduling location we need to
1009 /// maintain the number of vreg uses remaining to be top-scheduled.
1010 ConvergingScheduler::CandResult ConvergingScheduler::
1011 pickNodeFromQueue(ReadyQueue &Q, const RegPressureTracker &RPTracker,
1012                   SchedCandidate &Candidate) {
1013   DEBUG(Q.dump(getQName(Q.ID)));
1014
1015   // getMaxPressureDelta temporarily modifies the tracker.
1016   RegPressureTracker &TempTracker = const_cast<RegPressureTracker&>(RPTracker);
1017
1018   // BestSU remains NULL if no top candidates beat the best existing candidate.
1019   CandResult FoundCandidate = NoCand;
1020   for (ReadyQueue::iterator I = Q.begin(), E = Q.end(); I != E; ++I) {
1021     RegPressureDelta RPDelta;
1022     TempTracker.getMaxPressureDelta((*I)->getInstr(), RPDelta,
1023                                     DAG->getRegionCriticalPSets(),
1024                                     DAG->getRegPressure().MaxSetPressure);
1025
1026     // Initialize the candidate if needed.
1027     if (!Candidate.SU) {
1028       Candidate.SU = *I;
1029       Candidate.RPDelta = RPDelta;
1030       FoundCandidate = NodeOrder;
1031       continue;
1032     }
1033     // Avoid exceeding the target's limit.
1034     if (RPDelta.Excess.UnitIncrease < Candidate.RPDelta.Excess.UnitIncrease) {
1035       DEBUG(traceCandidate("ECAND", Q.ID, *I, RPDelta.Excess));
1036       Candidate.SU = *I;
1037       Candidate.RPDelta = RPDelta;
1038       FoundCandidate = SingleExcess;
1039       continue;
1040     }
1041     if (RPDelta.Excess.UnitIncrease > Candidate.RPDelta.Excess.UnitIncrease)
1042       continue;
1043     if (FoundCandidate == SingleExcess)
1044       FoundCandidate = MultiPressure;
1045
1046     // Avoid increasing the max critical pressure in the scheduled region.
1047     if (RPDelta.CriticalMax.UnitIncrease
1048         < Candidate.RPDelta.CriticalMax.UnitIncrease) {
1049       DEBUG(traceCandidate("PCAND", Q.ID, *I, RPDelta.CriticalMax));
1050       Candidate.SU = *I;
1051       Candidate.RPDelta = RPDelta;
1052       FoundCandidate = SingleCritical;
1053       continue;
1054     }
1055     if (RPDelta.CriticalMax.UnitIncrease
1056         > Candidate.RPDelta.CriticalMax.UnitIncrease)
1057       continue;
1058     if (FoundCandidate == SingleCritical)
1059       FoundCandidate = MultiPressure;
1060
1061     // Avoid increasing the max pressure of the entire region.
1062     if (RPDelta.CurrentMax.UnitIncrease
1063         < Candidate.RPDelta.CurrentMax.UnitIncrease) {
1064       DEBUG(traceCandidate("MCAND", Q.ID, *I, RPDelta.CurrentMax));
1065       Candidate.SU = *I;
1066       Candidate.RPDelta = RPDelta;
1067       FoundCandidate = SingleMax;
1068       continue;
1069     }
1070     if (RPDelta.CurrentMax.UnitIncrease
1071         > Candidate.RPDelta.CurrentMax.UnitIncrease)
1072       continue;
1073     if (FoundCandidate == SingleMax)
1074       FoundCandidate = MultiPressure;
1075
1076     // Fall through to original instruction order.
1077     // Only consider node order if Candidate was chosen from this Q.
1078     if (FoundCandidate == NoCand)
1079       continue;
1080
1081     if ((Q.ID == TopQID && (*I)->NodeNum < Candidate.SU->NodeNum)
1082         || (Q.ID == BotQID && (*I)->NodeNum > Candidate.SU->NodeNum)) {
1083       DEBUG(traceCandidate("NCAND", Q.ID, *I));
1084       Candidate.SU = *I;
1085       Candidate.RPDelta = RPDelta;
1086       FoundCandidate = NodeOrder;
1087     }
1088   }
1089   return FoundCandidate;
1090 }
1091
1092 /// Pick the best candidate node from either the top or bottom queue.
1093 SUnit *ConvergingScheduler::pickNodeBidrectional(bool &IsTopNode) {
1094   // Schedule as far as possible in the direction of no choice. This is most
1095   // efficient, but also provides the best heuristics for CriticalPSets.
1096   if (SUnit *SU = Bot.pickOnlyChoice()) {
1097     IsTopNode = false;
1098     return SU;
1099   }
1100   if (SUnit *SU = Top.pickOnlyChoice()) {
1101     IsTopNode = true;
1102     return SU;
1103   }
1104   SchedCandidate BotCand;
1105   // Prefer bottom scheduling when heuristics are silent.
1106   CandResult BotResult = pickNodeFromQueue(Bot.Available,
1107                                            DAG->getBotRPTracker(), BotCand);
1108   assert(BotResult != NoCand && "failed to find the first candidate");
1109
1110   // If either Q has a single candidate that provides the least increase in
1111   // Excess pressure, we can immediately schedule from that Q.
1112   //
1113   // RegionCriticalPSets summarizes the pressure within the scheduled region and
1114   // affects picking from either Q. If scheduling in one direction must
1115   // increase pressure for one of the excess PSets, then schedule in that
1116   // direction first to provide more freedom in the other direction.
1117   if (BotResult == SingleExcess || BotResult == SingleCritical) {
1118     IsTopNode = false;
1119     return BotCand.SU;
1120   }
1121   // Check if the top Q has a better candidate.
1122   SchedCandidate TopCand;
1123   CandResult TopResult = pickNodeFromQueue(Top.Available,
1124                                            DAG->getTopRPTracker(), TopCand);
1125   assert(TopResult != NoCand && "failed to find the first candidate");
1126
1127   if (TopResult == SingleExcess || TopResult == SingleCritical) {
1128     IsTopNode = true;
1129     return TopCand.SU;
1130   }
1131   // If either Q has a single candidate that minimizes pressure above the
1132   // original region's pressure pick it.
1133   if (BotResult == SingleMax) {
1134     IsTopNode = false;
1135     return BotCand.SU;
1136   }
1137   if (TopResult == SingleMax) {
1138     IsTopNode = true;
1139     return TopCand.SU;
1140   }
1141   // Check for a salient pressure difference and pick the best from either side.
1142   if (compareRPDelta(TopCand.RPDelta, BotCand.RPDelta)) {
1143     IsTopNode = true;
1144     return TopCand.SU;
1145   }
1146   // Otherwise prefer the bottom candidate in node order.
1147   IsTopNode = false;
1148   return BotCand.SU;
1149 }
1150
1151 /// Pick the best node to balance the schedule. Implements MachineSchedStrategy.
1152 SUnit *ConvergingScheduler::pickNode(bool &IsTopNode) {
1153   if (DAG->top() == DAG->bottom()) {
1154     assert(Top.Available.empty() && Top.Pending.empty() &&
1155            Bot.Available.empty() && Bot.Pending.empty() && "ReadyQ garbage");
1156     return NULL;
1157   }
1158   SUnit *SU;
1159   if (ForceTopDown) {
1160     SU = DAG->getSUnit(DAG->top());
1161     IsTopNode = true;
1162   }
1163   else if (ForceBottomUp) {
1164     SU = DAG->getSUnit(priorNonDebug(DAG->bottom(), DAG->top()));
1165     IsTopNode = false;
1166   }
1167   else {
1168     SU = pickNodeBidrectional(IsTopNode);
1169   }
1170   if (SU->isTopReady())
1171     Top.removeReady(SU);
1172   if (SU->isBottomReady())
1173     Bot.removeReady(SU);
1174   return SU;
1175 }
1176
1177 /// Update the scheduler's state after scheduling a node. This is the same node
1178 /// that was just returned by pickNode(). However, ScheduleDAGMI needs to update
1179 /// it's state based on the current cycle before MachineSchedStrategy.
1180 void ConvergingScheduler::schedNode(SUnit *SU, bool IsTopNode) {
1181   DEBUG(dbgs() << " in cycle " << (IsTopNode ? Top.CurrCycle : Bot.CurrCycle)
1182         << '\n');
1183
1184   // Update the reservation table.
1185   if (IsTopNode && Top.HazardRec->isEnabled()) {
1186     Top.HazardRec->EmitInstruction(SU);
1187     if (Top.HazardRec->atIssueLimit()) {
1188       DEBUG(dbgs() << "*** Max instrs at cycle " << Top.CurrCycle << '\n');
1189       Top.bumpCycle();
1190     }
1191   }
1192   else if (Bot.HazardRec->isEnabled()) {
1193     if (SU->isCall) {
1194       // Calls are scheduled with their preceding instructions. For bottom-up
1195       // scheduling, clear the pipeline state before emitting.
1196       Bot.HazardRec->Reset();
1197     }
1198     Bot.HazardRec->EmitInstruction(SU);
1199     if (Bot.HazardRec->atIssueLimit()) {
1200       DEBUG(dbgs() << "*** Max instrs at cycle " << Bot.CurrCycle << '\n');
1201       Bot.bumpCycle();
1202     }
1203   }
1204 }
1205
1206 /// Create the standard converging machine scheduler. This will be used as the
1207 /// default scheduler if the target does not set a default.
1208 static ScheduleDAGInstrs *createConvergingSched(MachineSchedContext *C) {
1209   assert((!ForceTopDown || !ForceBottomUp) &&
1210          "-misched-topdown incompatible with -misched-bottomup");
1211   return new ScheduleDAGMI(C, new ConvergingScheduler());
1212 }
1213 static MachineSchedRegistry
1214 ConvergingSchedRegistry("converge", "Standard converging scheduler.",
1215                         createConvergingSched);
1216
1217 //===----------------------------------------------------------------------===//
1218 // Machine Instruction Shuffler for Correctness Testing
1219 //===----------------------------------------------------------------------===//
1220
1221 #ifndef NDEBUG
1222 namespace {
1223 /// Apply a less-than relation on the node order, which corresponds to the
1224 /// instruction order prior to scheduling. IsReverse implements greater-than.
1225 template<bool IsReverse>
1226 struct SUnitOrder {
1227   bool operator()(SUnit *A, SUnit *B) const {
1228     if (IsReverse)
1229       return A->NodeNum > B->NodeNum;
1230     else
1231       return A->NodeNum < B->NodeNum;
1232   }
1233 };
1234
1235 /// Reorder instructions as much as possible.
1236 class InstructionShuffler : public MachineSchedStrategy {
1237   bool IsAlternating;
1238   bool IsTopDown;
1239
1240   // Using a less-than relation (SUnitOrder<false>) for the TopQ priority
1241   // gives nodes with a higher number higher priority causing the latest
1242   // instructions to be scheduled first.
1243   PriorityQueue<SUnit*, std::vector<SUnit*>, SUnitOrder<false> >
1244     TopQ;
1245   // When scheduling bottom-up, use greater-than as the queue priority.
1246   PriorityQueue<SUnit*, std::vector<SUnit*>, SUnitOrder<true> >
1247     BottomQ;
1248 public:
1249   InstructionShuffler(bool alternate, bool topdown)
1250     : IsAlternating(alternate), IsTopDown(topdown) {}
1251
1252   virtual void initialize(ScheduleDAGMI *) {
1253     TopQ.clear();
1254     BottomQ.clear();
1255   }
1256
1257   /// Implement MachineSchedStrategy interface.
1258   /// -----------------------------------------
1259
1260   virtual SUnit *pickNode(bool &IsTopNode) {
1261     SUnit *SU;
1262     if (IsTopDown) {
1263       do {
1264         if (TopQ.empty()) return NULL;
1265         SU = TopQ.top();
1266         TopQ.pop();
1267       } while (SU->isScheduled);
1268       IsTopNode = true;
1269     }
1270     else {
1271       do {
1272         if (BottomQ.empty()) return NULL;
1273         SU = BottomQ.top();
1274         BottomQ.pop();
1275       } while (SU->isScheduled);
1276       IsTopNode = false;
1277     }
1278     if (IsAlternating)
1279       IsTopDown = !IsTopDown;
1280     return SU;
1281   }
1282
1283   virtual void schedNode(SUnit *SU, bool IsTopNode) {}
1284
1285   virtual void releaseTopNode(SUnit *SU) {
1286     TopQ.push(SU);
1287   }
1288   virtual void releaseBottomNode(SUnit *SU) {
1289     BottomQ.push(SU);
1290   }
1291 };
1292 } // namespace
1293
1294 static ScheduleDAGInstrs *createInstructionShuffler(MachineSchedContext *C) {
1295   bool Alternate = !ForceTopDown && !ForceBottomUp;
1296   bool TopDown = !ForceBottomUp;
1297   assert((TopDown || !ForceTopDown) &&
1298          "-misched-topdown incompatible with -misched-bottomup");
1299   return new ScheduleDAGMI(C, new InstructionShuffler(Alternate, TopDown));
1300 }
1301 static MachineSchedRegistry ShufflerRegistry(
1302   "shuffle", "Shuffle machine instructions alternating directions",
1303   createInstructionShuffler);
1304 #endif // !NDEBUG