58a0aa577c2082dd84253663c32f36b3d7d02bec
[oota-llvm.git] / lib / Analysis / DataStructure / DataStructure.cpp
1 //===- DataStructure.cpp - Implement the core data structure analysis -----===//
2 // 
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file was developed by the LLVM research group and is distributed under
6 // the University of Illinois Open Source License. See LICENSE.TXT for details.
7 // 
8 //===----------------------------------------------------------------------===//
9 //
10 // This file implements the core data structure functionality.
11 //
12 //===----------------------------------------------------------------------===//
13
14 #include "llvm/Analysis/DataStructure/DSGraphTraits.h"
15 #include "llvm/Function.h"
16 #include "llvm/GlobalVariable.h"
17 #include "llvm/Instructions.h"
18 #include "llvm/DerivedTypes.h"
19 #include "llvm/Target/TargetData.h"
20 #include "llvm/Assembly/Writer.h"
21 #include "llvm/Support/CommandLine.h"
22 #include "llvm/Support/Debug.h"
23 #include "llvm/ADT/DepthFirstIterator.h"
24 #include "llvm/ADT/STLExtras.h"
25 #include "llvm/ADT/Statistic.h"
26 #include "llvm/Support/Timer.h"
27 #include <algorithm>
28 using namespace llvm;
29
30 #define COLLAPSE_ARRAYS_AGGRESSIVELY 0
31
32 namespace {
33   Statistic<> NumFolds          ("dsa", "Number of nodes completely folded");
34   Statistic<> NumCallNodesMerged("dsa", "Number of call nodes merged");
35   Statistic<> NumNodeAllocated  ("dsa", "Number of nodes allocated");
36   Statistic<> NumDNE            ("dsa", "Number of nodes removed by reachability");
37   Statistic<> NumTrivialDNE     ("dsa", "Number of nodes trivially removed");
38   Statistic<> NumTrivialGlobalDNE("dsa", "Number of globals trivially removed");
39 };
40
41 #if 1
42 #define TIME_REGION(VARNAME, DESC) \
43    NamedRegionTimer VARNAME(DESC)
44 #else
45 #define TIME_REGION(VARNAME, DESC)
46 #endif
47
48 using namespace DS;
49
50 /// isForwarding - Return true if this NodeHandle is forwarding to another
51 /// one.
52 bool DSNodeHandle::isForwarding() const {
53   return N && N->isForwarding();
54 }
55
56 DSNode *DSNodeHandle::HandleForwarding() const {
57   assert(N->isForwarding() && "Can only be invoked if forwarding!");
58
59   // Handle node forwarding here!
60   DSNode *Next = N->ForwardNH.getNode();  // Cause recursive shrinkage
61   Offset += N->ForwardNH.getOffset();
62
63   if (--N->NumReferrers == 0) {
64     // Removing the last referrer to the node, sever the forwarding link
65     N->stopForwarding();
66   }
67
68   N = Next;
69   N->NumReferrers++;
70   if (N->Size <= Offset) {
71     assert(N->Size <= 1 && "Forwarded to shrunk but not collapsed node?");
72     Offset = 0;
73   }
74   return N;
75 }
76
77 //===----------------------------------------------------------------------===//
78 // DSNode Implementation
79 //===----------------------------------------------------------------------===//
80
81 DSNode::DSNode(const Type *T, DSGraph *G)
82   : NumReferrers(0), Size(0), ParentGraph(G), Ty(Type::VoidTy), NodeType(0) {
83   // Add the type entry if it is specified...
84   if (T) mergeTypeInfo(T, 0);
85   if (G) G->addNode(this);
86   ++NumNodeAllocated;
87 }
88
89 // DSNode copy constructor... do not copy over the referrers list!
90 DSNode::DSNode(const DSNode &N, DSGraph *G, bool NullLinks)
91   : NumReferrers(0), Size(N.Size), ParentGraph(G),
92     Ty(N.Ty), NodeType(N.NodeType) {
93   if (!NullLinks) {
94     Links = N.Links;
95     Globals = N.Globals;
96   } else
97     Links.resize(N.Links.size()); // Create the appropriate number of null links
98   G->addNode(this);
99   ++NumNodeAllocated;
100 }
101
102 /// getTargetData - Get the target data object used to construct this node.
103 ///
104 const TargetData &DSNode::getTargetData() const {
105   return ParentGraph->getTargetData();
106 }
107
108 void DSNode::assertOK() const {
109   assert((Ty != Type::VoidTy ||
110           Ty == Type::VoidTy && (Size == 0 ||
111                                  (NodeType & DSNode::Array))) &&
112          "Node not OK!");
113
114   assert(ParentGraph && "Node has no parent?");
115   const DSScalarMap &SM = ParentGraph->getScalarMap();
116   for (unsigned i = 0, e = Globals.size(); i != e; ++i) {
117     assert(SM.count(Globals[i]));
118     assert(SM.find(Globals[i])->second.getNode() == this);
119   }
120 }
121
122 /// forwardNode - Mark this node as being obsolete, and all references to it
123 /// should be forwarded to the specified node and offset.
124 ///
125 void DSNode::forwardNode(DSNode *To, unsigned Offset) {
126   assert(this != To && "Cannot forward a node to itself!");
127   assert(ForwardNH.isNull() && "Already forwarding from this node!");
128   if (To->Size <= 1) Offset = 0;
129   assert((Offset < To->Size || (Offset == To->Size && Offset == 0)) &&
130          "Forwarded offset is wrong!");
131   ForwardNH.setTo(To, Offset);
132   NodeType = DEAD;
133   Size = 0;
134   Ty = Type::VoidTy;
135
136   // Remove this node from the parent graph's Nodes list.
137   ParentGraph->unlinkNode(this);  
138   ParentGraph = 0;
139 }
140
141 // addGlobal - Add an entry for a global value to the Globals list.  This also
142 // marks the node with the 'G' flag if it does not already have it.
143 //
144 void DSNode::addGlobal(GlobalValue *GV) {
145   // Keep the list sorted.
146   std::vector<GlobalValue*>::iterator I =
147     std::lower_bound(Globals.begin(), Globals.end(), GV);
148
149   if (I == Globals.end() || *I != GV) {
150     Globals.insert(I, GV);
151     NodeType |= GlobalNode;
152   }
153 }
154
155 /// foldNodeCompletely - If we determine that this node has some funny
156 /// behavior happening to it that we cannot represent, we fold it down to a
157 /// single, completely pessimistic, node.  This node is represented as a
158 /// single byte with a single TypeEntry of "void".
159 ///
160 void DSNode::foldNodeCompletely() {
161   if (isNodeCompletelyFolded()) return;  // If this node is already folded...
162
163   ++NumFolds;
164
165   // If this node has a size that is <= 1, we don't need to create a forwarding
166   // node.
167   if (getSize() <= 1) {
168     NodeType |= DSNode::Array;
169     Ty = Type::VoidTy;
170     Size = 1;
171     assert(Links.size() <= 1 && "Size is 1, but has more links?");
172     Links.resize(1);
173   } else {
174     // Create the node we are going to forward to.  This is required because
175     // some referrers may have an offset that is > 0.  By forcing them to
176     // forward, the forwarder has the opportunity to correct the offset.
177     DSNode *DestNode = new DSNode(0, ParentGraph);
178     DestNode->NodeType = NodeType|DSNode::Array;
179     DestNode->Ty = Type::VoidTy;
180     DestNode->Size = 1;
181     DestNode->Globals.swap(Globals);
182     
183     // Start forwarding to the destination node...
184     forwardNode(DestNode, 0);
185     
186     if (!Links.empty()) {
187       DestNode->Links.reserve(1);
188       
189       DSNodeHandle NH(DestNode);
190       DestNode->Links.push_back(Links[0]);
191       
192       // If we have links, merge all of our outgoing links together...
193       for (unsigned i = Links.size()-1; i != 0; --i)
194         NH.getNode()->Links[0].mergeWith(Links[i]);
195       Links.clear();
196     } else {
197       DestNode->Links.resize(1);
198     }
199   }
200 }
201
202 /// isNodeCompletelyFolded - Return true if this node has been completely
203 /// folded down to something that can never be expanded, effectively losing
204 /// all of the field sensitivity that may be present in the node.
205 ///
206 bool DSNode::isNodeCompletelyFolded() const {
207   return getSize() == 1 && Ty == Type::VoidTy && isArray();
208 }
209
210 namespace {
211   /// TypeElementWalker Class - Used for implementation of physical subtyping...
212   ///
213   class TypeElementWalker {
214     struct StackState {
215       const Type *Ty;
216       unsigned Offset;
217       unsigned Idx;
218       StackState(const Type *T, unsigned Off = 0)
219         : Ty(T), Offset(Off), Idx(0) {}
220     };
221
222     std::vector<StackState> Stack;
223     const TargetData &TD;
224   public:
225     TypeElementWalker(const Type *T, const TargetData &td) : TD(td) {
226       Stack.push_back(T);
227       StepToLeaf();
228     }
229
230     bool isDone() const { return Stack.empty(); }
231     const Type *getCurrentType()   const { return Stack.back().Ty;     }
232     unsigned    getCurrentOffset() const { return Stack.back().Offset; }
233
234     void StepToNextType() {
235       PopStackAndAdvance();
236       StepToLeaf();
237     }
238
239   private:
240     /// PopStackAndAdvance - Pop the current element off of the stack and
241     /// advance the underlying element to the next contained member.
242     void PopStackAndAdvance() {
243       assert(!Stack.empty() && "Cannot pop an empty stack!");
244       Stack.pop_back();
245       while (!Stack.empty()) {
246         StackState &SS = Stack.back();
247         if (const StructType *ST = dyn_cast<StructType>(SS.Ty)) {
248           ++SS.Idx;
249           if (SS.Idx != ST->getNumElements()) {
250             const StructLayout *SL = TD.getStructLayout(ST);
251             SS.Offset += 
252                unsigned(SL->MemberOffsets[SS.Idx]-SL->MemberOffsets[SS.Idx-1]);
253             return;
254           }
255           Stack.pop_back();  // At the end of the structure
256         } else {
257           const ArrayType *AT = cast<ArrayType>(SS.Ty);
258           ++SS.Idx;
259           if (SS.Idx != AT->getNumElements()) {
260             SS.Offset += unsigned(TD.getTypeSize(AT->getElementType()));
261             return;
262           }
263           Stack.pop_back();  // At the end of the array
264         }
265       }
266     }
267
268     /// StepToLeaf - Used by physical subtyping to move to the first leaf node
269     /// on the type stack.
270     void StepToLeaf() {
271       if (Stack.empty()) return;
272       while (!Stack.empty() && !Stack.back().Ty->isFirstClassType()) {
273         StackState &SS = Stack.back();
274         if (const StructType *ST = dyn_cast<StructType>(SS.Ty)) {
275           if (ST->getNumElements() == 0) {
276             assert(SS.Idx == 0);
277             PopStackAndAdvance();
278           } else {
279             // Step into the structure...
280             assert(SS.Idx < ST->getNumElements());
281             const StructLayout *SL = TD.getStructLayout(ST);
282             Stack.push_back(StackState(ST->getElementType(SS.Idx),
283                             SS.Offset+unsigned(SL->MemberOffsets[SS.Idx])));
284           }
285         } else {
286           const ArrayType *AT = cast<ArrayType>(SS.Ty);
287           if (AT->getNumElements() == 0) {
288             assert(SS.Idx == 0);
289             PopStackAndAdvance();
290           } else {
291             // Step into the array...
292             assert(SS.Idx < AT->getNumElements());
293             Stack.push_back(StackState(AT->getElementType(),
294                                        SS.Offset+SS.Idx*
295                              unsigned(TD.getTypeSize(AT->getElementType()))));
296           }
297         }
298       }
299     }
300   };
301 } // end anonymous namespace
302
303 /// ElementTypesAreCompatible - Check to see if the specified types are
304 /// "physically" compatible.  If so, return true, else return false.  We only
305 /// have to check the fields in T1: T2 may be larger than T1.  If AllowLargerT1
306 /// is true, then we also allow a larger T1.
307 ///
308 static bool ElementTypesAreCompatible(const Type *T1, const Type *T2,
309                                       bool AllowLargerT1, const TargetData &TD){
310   TypeElementWalker T1W(T1, TD), T2W(T2, TD);
311   
312   while (!T1W.isDone() && !T2W.isDone()) {
313     if (T1W.getCurrentOffset() != T2W.getCurrentOffset())
314       return false;
315
316     const Type *T1 = T1W.getCurrentType();
317     const Type *T2 = T2W.getCurrentType();
318     if (T1 != T2 && !T1->isLosslesslyConvertibleTo(T2))
319       return false;
320     
321     T1W.StepToNextType();
322     T2W.StepToNextType();
323   }
324   
325   return AllowLargerT1 || T1W.isDone();
326 }
327
328
329 /// mergeTypeInfo - This method merges the specified type into the current node
330 /// at the specified offset.  This may update the current node's type record if
331 /// this gives more information to the node, it may do nothing to the node if
332 /// this information is already known, or it may merge the node completely (and
333 /// return true) if the information is incompatible with what is already known.
334 ///
335 /// This method returns true if the node is completely folded, otherwise false.
336 ///
337 bool DSNode::mergeTypeInfo(const Type *NewTy, unsigned Offset,
338                            bool FoldIfIncompatible) {
339   const TargetData &TD = getTargetData();
340   // Check to make sure the Size member is up-to-date.  Size can be one of the
341   // following:
342   //  Size = 0, Ty = Void: Nothing is known about this node.
343   //  Size = 0, Ty = FnTy: FunctionPtr doesn't have a size, so we use zero
344   //  Size = 1, Ty = Void, Array = 1: The node is collapsed
345   //  Otherwise, sizeof(Ty) = Size
346   //
347   assert(((Size == 0 && Ty == Type::VoidTy && !isArray()) ||
348           (Size == 0 && !Ty->isSized() && !isArray()) ||
349           (Size == 1 && Ty == Type::VoidTy && isArray()) ||
350           (Size == 0 && !Ty->isSized() && !isArray()) ||
351           (TD.getTypeSize(Ty) == Size)) &&
352          "Size member of DSNode doesn't match the type structure!");
353   assert(NewTy != Type::VoidTy && "Cannot merge void type into DSNode!");
354
355   if (Offset == 0 && NewTy == Ty)
356     return false;  // This should be a common case, handle it efficiently
357
358   // Return true immediately if the node is completely folded.
359   if (isNodeCompletelyFolded()) return true;
360
361   // If this is an array type, eliminate the outside arrays because they won't
362   // be used anyway.  This greatly reduces the size of large static arrays used
363   // as global variables, for example.
364   //
365   bool WillBeArray = false;
366   while (const ArrayType *AT = dyn_cast<ArrayType>(NewTy)) {
367     // FIXME: we might want to keep small arrays, but must be careful about
368     // things like: [2 x [10000 x int*]]
369     NewTy = AT->getElementType();
370     WillBeArray = true;
371   }
372
373   // Figure out how big the new type we're merging in is...
374   unsigned NewTySize = NewTy->isSized() ? (unsigned)TD.getTypeSize(NewTy) : 0;
375
376   // Otherwise check to see if we can fold this type into the current node.  If
377   // we can't, we fold the node completely, if we can, we potentially update our
378   // internal state.
379   //
380   if (Ty == Type::VoidTy) {
381     // If this is the first type that this node has seen, just accept it without
382     // question....
383     assert(Offset == 0 && !isArray() &&
384            "Cannot have an offset into a void node!");
385     Ty = NewTy;
386     NodeType &= ~Array;
387     if (WillBeArray) NodeType |= Array;
388     Size = NewTySize;
389
390     // Calculate the number of outgoing links from this node.
391     Links.resize((Size+DS::PointerSize-1) >> DS::PointerShift);
392     return false;
393   }
394
395   // Handle node expansion case here...
396   if (Offset+NewTySize > Size) {
397     // It is illegal to grow this node if we have treated it as an array of
398     // objects...
399     if (isArray()) {
400       if (FoldIfIncompatible) foldNodeCompletely();
401       return true;
402     }
403
404     if (Offset) {  // We could handle this case, but we don't for now...
405       std::cerr << "UNIMP: Trying to merge a growth type into "
406                 << "offset != 0: Collapsing!\n";
407       if (FoldIfIncompatible) foldNodeCompletely();
408       return true;
409     }
410
411     // Okay, the situation is nice and simple, we are trying to merge a type in
412     // at offset 0 that is bigger than our current type.  Implement this by
413     // switching to the new type and then merge in the smaller one, which should
414     // hit the other code path here.  If the other code path decides it's not
415     // ok, it will collapse the node as appropriate.
416     //
417     const Type *OldTy = Ty;
418     Ty = NewTy;
419     NodeType &= ~Array;
420     if (WillBeArray) NodeType |= Array;
421     Size = NewTySize;
422
423     // Must grow links to be the appropriate size...
424     Links.resize((Size+DS::PointerSize-1) >> DS::PointerShift);
425
426     // Merge in the old type now... which is guaranteed to be smaller than the
427     // "current" type.
428     return mergeTypeInfo(OldTy, 0);
429   }
430
431   assert(Offset <= Size &&
432          "Cannot merge something into a part of our type that doesn't exist!");
433
434   // Find the section of Ty that NewTy overlaps with... first we find the
435   // type that starts at offset Offset.
436   //
437   unsigned O = 0;
438   const Type *SubType = Ty;
439   while (O < Offset) {
440     assert(Offset-O < TD.getTypeSize(SubType) && "Offset out of range!");
441
442     switch (SubType->getTypeID()) {
443     case Type::StructTyID: {
444       const StructType *STy = cast<StructType>(SubType);
445       const StructLayout &SL = *TD.getStructLayout(STy);
446       unsigned i = SL.getElementContainingOffset(Offset-O);
447
448       // The offset we are looking for must be in the i'th element...
449       SubType = STy->getElementType(i);
450       O += (unsigned)SL.MemberOffsets[i];
451       break;
452     }
453     case Type::ArrayTyID: {
454       SubType = cast<ArrayType>(SubType)->getElementType();
455       unsigned ElSize = (unsigned)TD.getTypeSize(SubType);
456       unsigned Remainder = (Offset-O) % ElSize;
457       O = Offset-Remainder;
458       break;
459     }
460     default:
461       if (FoldIfIncompatible) foldNodeCompletely();
462       return true;
463     }
464   }
465
466   assert(O == Offset && "Could not achieve the correct offset!");
467
468   // If we found our type exactly, early exit
469   if (SubType == NewTy) return false;
470
471   // Differing function types don't require us to merge.  They are not values
472   // anyway.
473   if (isa<FunctionType>(SubType) &&
474       isa<FunctionType>(NewTy)) return false;
475
476   unsigned SubTypeSize = SubType->isSized() ? 
477        (unsigned)TD.getTypeSize(SubType) : 0;
478
479   // Ok, we are getting desperate now.  Check for physical subtyping, where we
480   // just require each element in the node to be compatible.
481   if (NewTySize <= SubTypeSize && NewTySize && NewTySize < 256 &&
482       SubTypeSize && SubTypeSize < 256 && 
483       ElementTypesAreCompatible(NewTy, SubType, !isArray(), TD))
484     return false;
485
486   // Okay, so we found the leader type at the offset requested.  Search the list
487   // of types that starts at this offset.  If SubType is currently an array or
488   // structure, the type desired may actually be the first element of the
489   // composite type...
490   //
491   unsigned PadSize = SubTypeSize; // Size, including pad memory which is ignored
492   while (SubType != NewTy) {
493     const Type *NextSubType = 0;
494     unsigned NextSubTypeSize = 0;
495     unsigned NextPadSize = 0;
496     switch (SubType->getTypeID()) {
497     case Type::StructTyID: {
498       const StructType *STy = cast<StructType>(SubType);
499       const StructLayout &SL = *TD.getStructLayout(STy);
500       if (SL.MemberOffsets.size() > 1)
501         NextPadSize = (unsigned)SL.MemberOffsets[1];
502       else
503         NextPadSize = SubTypeSize;
504       NextSubType = STy->getElementType(0);
505       NextSubTypeSize = (unsigned)TD.getTypeSize(NextSubType);
506       break;
507     }
508     case Type::ArrayTyID:
509       NextSubType = cast<ArrayType>(SubType)->getElementType();
510       NextSubTypeSize = (unsigned)TD.getTypeSize(NextSubType);
511       NextPadSize = NextSubTypeSize;
512       break;
513     default: ;
514       // fall out 
515     }
516
517     if (NextSubType == 0)
518       break;   // In the default case, break out of the loop
519
520     if (NextPadSize < NewTySize)
521       break;   // Don't allow shrinking to a smaller type than NewTySize
522     SubType = NextSubType;
523     SubTypeSize = NextSubTypeSize;
524     PadSize = NextPadSize;
525   }
526
527   // If we found the type exactly, return it...
528   if (SubType == NewTy)
529     return false;
530
531   // Check to see if we have a compatible, but different type...
532   if (NewTySize == SubTypeSize) {
533     // Check to see if this type is obviously convertible... int -> uint f.e.
534     if (NewTy->isLosslesslyConvertibleTo(SubType))
535       return false;
536
537     // Check to see if we have a pointer & integer mismatch going on here,
538     // loading a pointer as a long, for example.
539     //
540     if (SubType->isInteger() && isa<PointerType>(NewTy) ||
541         NewTy->isInteger() && isa<PointerType>(SubType))
542       return false;
543   } else if (NewTySize > SubTypeSize && NewTySize <= PadSize) {
544     // We are accessing the field, plus some structure padding.  Ignore the
545     // structure padding.
546     return false;
547   }
548
549   Module *M = 0;
550   if (getParentGraph()->getReturnNodes().size())
551     M = getParentGraph()->getReturnNodes().begin()->first->getParent();
552   DEBUG(std::cerr << "MergeTypeInfo Folding OrigTy: ";
553         WriteTypeSymbolic(std::cerr, Ty, M) << "\n due to:";
554         WriteTypeSymbolic(std::cerr, NewTy, M) << " @ " << Offset << "!\n"
555                   << "SubType: ";
556         WriteTypeSymbolic(std::cerr, SubType, M) << "\n\n");
557
558   if (FoldIfIncompatible) foldNodeCompletely();
559   return true;
560 }
561
562
563
564 /// addEdgeTo - Add an edge from the current node to the specified node.  This
565 /// can cause merging of nodes in the graph.
566 ///
567 void DSNode::addEdgeTo(unsigned Offset, const DSNodeHandle &NH) {
568   if (NH.isNull()) return;       // Nothing to do
569
570   DSNodeHandle &ExistingEdge = getLink(Offset);
571   if (!ExistingEdge.isNull()) {
572     // Merge the two nodes...
573     ExistingEdge.mergeWith(NH);
574   } else {                             // No merging to perform...
575     setLink(Offset, NH);               // Just force a link in there...
576   }
577 }
578
579
580 /// MergeSortedVectors - Efficiently merge a vector into another vector where
581 /// duplicates are not allowed and both are sorted.  This assumes that 'T's are
582 /// efficiently copyable and have sane comparison semantics.
583 ///
584 static void MergeSortedVectors(std::vector<GlobalValue*> &Dest,
585                                const std::vector<GlobalValue*> &Src) {
586   // By far, the most common cases will be the simple ones.  In these cases,
587   // avoid having to allocate a temporary vector...
588   //
589   if (Src.empty()) {             // Nothing to merge in...
590     return;
591   } else if (Dest.empty()) {     // Just copy the result in...
592     Dest = Src;
593   } else if (Src.size() == 1) {  // Insert a single element...
594     const GlobalValue *V = Src[0];
595     std::vector<GlobalValue*>::iterator I =
596       std::lower_bound(Dest.begin(), Dest.end(), V);
597     if (I == Dest.end() || *I != Src[0])  // If not already contained...
598       Dest.insert(I, Src[0]);
599   } else if (Dest.size() == 1) {
600     GlobalValue *Tmp = Dest[0];           // Save value in temporary...
601     Dest = Src;                           // Copy over list...
602     std::vector<GlobalValue*>::iterator I =
603       std::lower_bound(Dest.begin(), Dest.end(), Tmp);
604     if (I == Dest.end() || *I != Tmp)     // If not already contained...
605       Dest.insert(I, Tmp);
606
607   } else {
608     // Make a copy to the side of Dest...
609     std::vector<GlobalValue*> Old(Dest);
610     
611     // Make space for all of the type entries now...
612     Dest.resize(Dest.size()+Src.size());
613     
614     // Merge the two sorted ranges together... into Dest.
615     std::merge(Old.begin(), Old.end(), Src.begin(), Src.end(), Dest.begin());
616     
617     // Now erase any duplicate entries that may have accumulated into the 
618     // vectors (because they were in both of the input sets)
619     Dest.erase(std::unique(Dest.begin(), Dest.end()), Dest.end());
620   }
621 }
622
623 void DSNode::mergeGlobals(const std::vector<GlobalValue*> &RHS) {
624   MergeSortedVectors(Globals, RHS);
625 }
626
627 // MergeNodes - Helper function for DSNode::mergeWith().
628 // This function does the hard work of merging two nodes, CurNodeH
629 // and NH after filtering out trivial cases and making sure that
630 // CurNodeH.offset >= NH.offset.
631 // 
632 // ***WARNING***
633 // Since merging may cause either node to go away, we must always
634 // use the node-handles to refer to the nodes.  These node handles are
635 // automatically updated during merging, so will always provide access
636 // to the correct node after a merge.
637 //
638 void DSNode::MergeNodes(DSNodeHandle& CurNodeH, DSNodeHandle& NH) {
639   assert(CurNodeH.getOffset() >= NH.getOffset() &&
640          "This should have been enforced in the caller.");
641   assert(CurNodeH.getNode()->getParentGraph()==NH.getNode()->getParentGraph() &&
642          "Cannot merge two nodes that are not in the same graph!");
643
644   // Now we know that Offset >= NH.Offset, so convert it so our "Offset" (with
645   // respect to NH.Offset) is now zero.  NOffset is the distance from the base
646   // of our object that N starts from.
647   //
648   unsigned NOffset = CurNodeH.getOffset()-NH.getOffset();
649   unsigned NSize = NH.getNode()->getSize();
650
651   // If the two nodes are of different size, and the smaller node has the array
652   // bit set, collapse!
653   if (NSize != CurNodeH.getNode()->getSize()) {
654 #if COLLAPSE_ARRAYS_AGGRESSIVELY
655     if (NSize < CurNodeH.getNode()->getSize()) {
656       if (NH.getNode()->isArray())
657         NH.getNode()->foldNodeCompletely();
658     } else if (CurNodeH.getNode()->isArray()) {
659       NH.getNode()->foldNodeCompletely();
660     }
661 #endif
662   }
663
664   // Merge the type entries of the two nodes together...    
665   if (NH.getNode()->Ty != Type::VoidTy)
666     CurNodeH.getNode()->mergeTypeInfo(NH.getNode()->Ty, NOffset);
667   assert(!CurNodeH.getNode()->isDeadNode());
668
669   // If we are merging a node with a completely folded node, then both nodes are
670   // now completely folded.
671   //
672   if (CurNodeH.getNode()->isNodeCompletelyFolded()) {
673     if (!NH.getNode()->isNodeCompletelyFolded()) {
674       NH.getNode()->foldNodeCompletely();
675       assert(NH.getNode() && NH.getOffset() == 0 &&
676              "folding did not make offset 0?");
677       NOffset = NH.getOffset();
678       NSize = NH.getNode()->getSize();
679       assert(NOffset == 0 && NSize == 1);
680     }
681   } else if (NH.getNode()->isNodeCompletelyFolded()) {
682     CurNodeH.getNode()->foldNodeCompletely();
683     assert(CurNodeH.getNode() && CurNodeH.getOffset() == 0 &&
684            "folding did not make offset 0?");
685     NSize = NH.getNode()->getSize();
686     NOffset = NH.getOffset();
687     assert(NOffset == 0 && NSize == 1);
688   }
689
690   DSNode *N = NH.getNode();
691   if (CurNodeH.getNode() == N || N == 0) return;
692   assert(!CurNodeH.getNode()->isDeadNode());
693
694   // Merge the NodeType information.
695   CurNodeH.getNode()->NodeType |= N->NodeType;
696
697   // Start forwarding to the new node!
698   N->forwardNode(CurNodeH.getNode(), NOffset);
699   assert(!CurNodeH.getNode()->isDeadNode());
700
701   // Make all of the outgoing links of N now be outgoing links of CurNodeH.
702   //
703   for (unsigned i = 0; i < N->getNumLinks(); ++i) {
704     DSNodeHandle &Link = N->getLink(i << DS::PointerShift);
705     if (Link.getNode()) {
706       // Compute the offset into the current node at which to
707       // merge this link.  In the common case, this is a linear
708       // relation to the offset in the original node (with
709       // wrapping), but if the current node gets collapsed due to
710       // recursive merging, we must make sure to merge in all remaining
711       // links at offset zero.
712       unsigned MergeOffset = 0;
713       DSNode *CN = CurNodeH.getNode();
714       if (CN->Size != 1)
715         MergeOffset = ((i << DS::PointerShift)+NOffset) % CN->getSize();
716       CN->addEdgeTo(MergeOffset, Link);
717     }
718   }
719
720   // Now that there are no outgoing edges, all of the Links are dead.
721   N->Links.clear();
722
723   // Merge the globals list...
724   if (!N->Globals.empty()) {
725     CurNodeH.getNode()->mergeGlobals(N->Globals);
726
727     // Delete the globals from the old node...
728     std::vector<GlobalValue*>().swap(N->Globals);
729   }
730 }
731
732
733 /// mergeWith - Merge this node and the specified node, moving all links to and
734 /// from the argument node into the current node, deleting the node argument.
735 /// Offset indicates what offset the specified node is to be merged into the
736 /// current node.
737 ///
738 /// The specified node may be a null pointer (in which case, we update it to
739 /// point to this node).
740 ///
741 void DSNode::mergeWith(const DSNodeHandle &NH, unsigned Offset) {
742   DSNode *N = NH.getNode();
743   if (N == this && NH.getOffset() == Offset)
744     return;  // Noop
745
746   // If the RHS is a null node, make it point to this node!
747   if (N == 0) {
748     NH.mergeWith(DSNodeHandle(this, Offset));
749     return;
750   }
751
752   assert(!N->isDeadNode() && !isDeadNode());
753   assert(!hasNoReferrers() && "Should not try to fold a useless node!");
754
755   if (N == this) {
756     // We cannot merge two pieces of the same node together, collapse the node
757     // completely.
758     DEBUG(std::cerr << "Attempting to merge two chunks of"
759                     << " the same node together!\n");
760     foldNodeCompletely();
761     return;
762   }
763
764   // If both nodes are not at offset 0, make sure that we are merging the node
765   // at an later offset into the node with the zero offset.
766   //
767   if (Offset < NH.getOffset()) {
768     N->mergeWith(DSNodeHandle(this, Offset), NH.getOffset());
769     return;
770   } else if (Offset == NH.getOffset() && getSize() < N->getSize()) {
771     // If the offsets are the same, merge the smaller node into the bigger node
772     N->mergeWith(DSNodeHandle(this, Offset), NH.getOffset());
773     return;
774   }
775
776   // Ok, now we can merge the two nodes.  Use a static helper that works with
777   // two node handles, since "this" may get merged away at intermediate steps.
778   DSNodeHandle CurNodeH(this, Offset);
779   DSNodeHandle NHCopy(NH);
780   DSNode::MergeNodes(CurNodeH, NHCopy);
781 }
782
783
784 //===----------------------------------------------------------------------===//
785 // ReachabilityCloner Implementation
786 //===----------------------------------------------------------------------===//
787
788 DSNodeHandle ReachabilityCloner::getClonedNH(const DSNodeHandle &SrcNH) {
789   if (SrcNH.isNull()) return DSNodeHandle();
790   const DSNode *SN = SrcNH.getNode();
791
792   DSNodeHandle &NH = NodeMap[SN];
793   if (!NH.isNull()) {   // Node already mapped?
794     DSNode *NHN = NH.getNode();
795     return DSNodeHandle(NHN, NH.getOffset()+SrcNH.getOffset());
796   }
797
798   // If SrcNH has globals and the destination graph has one of the same globals,
799   // merge this node with the destination node, which is much more efficient.
800   if (SN->global_begin() != SN->global_end()) {
801     DSScalarMap &DestSM = Dest.getScalarMap();
802     for (DSNode::global_iterator I = SN->global_begin(), E = SN->global_end();
803          I != E; ++I) {
804       GlobalValue *GV = *I;
805       DSScalarMap::iterator GI = DestSM.find(GV);
806       if (GI != DestSM.end() && !GI->second.isNull()) {
807         // We found one, use merge instead!
808         merge(GI->second, Src.getNodeForValue(GV));
809         assert(!NH.isNull() && "Didn't merge node!");
810         DSNode *NHN = NH.getNode();
811         return DSNodeHandle(NHN, NH.getOffset()+SrcNH.getOffset());
812       }
813     }
814   }
815
816   DSNode *DN = new DSNode(*SN, &Dest, true /* Null out all links */);
817   DN->maskNodeTypes(BitsToKeep);
818   NH = DN;
819   
820   // Next, recursively clone all outgoing links as necessary.  Note that
821   // adding these links can cause the node to collapse itself at any time, and
822   // the current node may be merged with arbitrary other nodes.  For this
823   // reason, we must always go through NH.
824   DN = 0;
825   for (unsigned i = 0, e = SN->getNumLinks(); i != e; ++i) {
826     const DSNodeHandle &SrcEdge = SN->getLink(i << DS::PointerShift);
827     if (!SrcEdge.isNull()) {
828       const DSNodeHandle &DestEdge = getClonedNH(SrcEdge);
829       // Compute the offset into the current node at which to
830       // merge this link.  In the common case, this is a linear
831       // relation to the offset in the original node (with
832       // wrapping), but if the current node gets collapsed due to
833       // recursive merging, we must make sure to merge in all remaining
834       // links at offset zero.
835       unsigned MergeOffset = 0;
836       DSNode *CN = NH.getNode();
837       if (CN->getSize() != 1)
838         MergeOffset = ((i << DS::PointerShift)+NH.getOffset()) % CN->getSize();
839       CN->addEdgeTo(MergeOffset, DestEdge);
840     }
841   }
842   
843   // If this node contains any globals, make sure they end up in the scalar
844   // map with the correct offset.
845   for (DSNode::global_iterator I = SN->global_begin(), E = SN->global_end();
846        I != E; ++I) {
847     GlobalValue *GV = *I;
848     const DSNodeHandle &SrcGNH = Src.getNodeForValue(GV);
849     DSNodeHandle &DestGNH = NodeMap[SrcGNH.getNode()];
850     assert(DestGNH.getNode() == NH.getNode() &&"Global mapping inconsistent");
851     Dest.getNodeForValue(GV).mergeWith(DSNodeHandle(DestGNH.getNode(),
852                                        DestGNH.getOffset()+SrcGNH.getOffset()));
853     
854     if (CloneFlags & DSGraph::UpdateInlinedGlobals)
855       Dest.getInlinedGlobals().insert(GV);
856   }
857   NH.getNode()->mergeGlobals(SN->getGlobals());
858
859   return DSNodeHandle(NH.getNode(), NH.getOffset()+SrcNH.getOffset());
860 }
861
862 void ReachabilityCloner::merge(const DSNodeHandle &NH,
863                                const DSNodeHandle &SrcNH) {
864   if (SrcNH.isNull()) return;  // Noop
865   if (NH.isNull()) {
866     // If there is no destination node, just clone the source and assign the
867     // destination node to be it.
868     NH.mergeWith(getClonedNH(SrcNH));
869     return;
870   }
871
872   // Okay, at this point, we know that we have both a destination and a source
873   // node that need to be merged.  Check to see if the source node has already
874   // been cloned.
875   const DSNode *SN = SrcNH.getNode();
876   DSNodeHandle &SCNH = NodeMap[SN];  // SourceClonedNodeHandle
877   if (!SCNH.isNull()) {   // Node already cloned?
878     DSNode *SCNHN = SCNH.getNode();
879     NH.mergeWith(DSNodeHandle(SCNHN,
880                               SCNH.getOffset()+SrcNH.getOffset()));
881     return;  // Nothing to do!
882   }
883   
884   // Okay, so the source node has not already been cloned.  Instead of creating
885   // a new DSNode, only to merge it into the one we already have, try to perform
886   // the merge in-place.  The only case we cannot handle here is when the offset
887   // into the existing node is less than the offset into the virtual node we are
888   // merging in.  In this case, we have to extend the existing node, which
889   // requires an allocation anyway.
890   DSNode *DN = NH.getNode();   // Make sure the Offset is up-to-date
891   if (NH.getOffset() >= SrcNH.getOffset()) {
892     if (!DN->isNodeCompletelyFolded()) {
893       // Make sure the destination node is folded if the source node is folded.
894       if (SN->isNodeCompletelyFolded()) {
895         DN->foldNodeCompletely();
896         DN = NH.getNode();
897       } else if (SN->getSize() != DN->getSize()) {
898         // If the two nodes are of different size, and the smaller node has the
899         // array bit set, collapse!
900 #if COLLAPSE_ARRAYS_AGGRESSIVELY
901         if (SN->getSize() < DN->getSize()) {
902           if (SN->isArray()) {
903             DN->foldNodeCompletely();
904             DN = NH.getNode();
905           }
906         } else if (DN->isArray()) {
907           DN->foldNodeCompletely();
908           DN = NH.getNode();
909         }
910 #endif
911       }
912     
913       // Merge the type entries of the two nodes together...    
914       if (SN->getType() != Type::VoidTy && !DN->isNodeCompletelyFolded()) {
915         DN->mergeTypeInfo(SN->getType(), NH.getOffset()-SrcNH.getOffset());
916         DN = NH.getNode();
917       }
918     }
919
920     assert(!DN->isDeadNode());
921     
922     // Merge the NodeType information.
923     DN->mergeNodeFlags(SN->getNodeFlags() & BitsToKeep);
924
925     // Before we start merging outgoing links and updating the scalar map, make
926     // sure it is known that this is the representative node for the src node.
927     SCNH = DSNodeHandle(DN, NH.getOffset()-SrcNH.getOffset());
928
929     // If the source node contains any globals, make sure they end up in the
930     // scalar map with the correct offset.
931     if (SN->global_begin() != SN->global_end()) {
932       // Update the globals in the destination node itself.
933       DN->mergeGlobals(SN->getGlobals());
934
935       // Update the scalar map for the graph we are merging the source node
936       // into.
937       for (DSNode::global_iterator I = SN->global_begin(), E = SN->global_end();
938            I != E; ++I) {
939         GlobalValue *GV = *I;
940         const DSNodeHandle &SrcGNH = Src.getNodeForValue(GV);
941         DSNodeHandle &DestGNH = NodeMap[SrcGNH.getNode()];
942         assert(DestGNH.getNode()==NH.getNode() &&"Global mapping inconsistent");
943         Dest.getNodeForValue(GV).mergeWith(DSNodeHandle(DestGNH.getNode(),
944                                       DestGNH.getOffset()+SrcGNH.getOffset()));
945         
946         if (CloneFlags & DSGraph::UpdateInlinedGlobals)
947           Dest.getInlinedGlobals().insert(GV);
948       }
949       NH.getNode()->mergeGlobals(SN->getGlobals());
950     }
951   } else {
952     // We cannot handle this case without allocating a temporary node.  Fall
953     // back on being simple.
954     DSNode *NewDN = new DSNode(*SN, &Dest, true /* Null out all links */);
955     NewDN->maskNodeTypes(BitsToKeep);
956
957     unsigned NHOffset = NH.getOffset();
958     NH.mergeWith(DSNodeHandle(NewDN, SrcNH.getOffset()));
959
960     assert(NH.getNode() &&
961            (NH.getOffset() > NHOffset ||
962             (NH.getOffset() == 0 && NH.getNode()->isNodeCompletelyFolded())) &&
963            "Merging did not adjust the offset!");
964
965     // Before we start merging outgoing links and updating the scalar map, make
966     // sure it is known that this is the representative node for the src node.
967     SCNH = DSNodeHandle(NH.getNode(), NH.getOffset()-SrcNH.getOffset());
968
969     // If the source node contained any globals, make sure to create entries 
970     // in the scalar map for them!
971     for (DSNode::global_iterator I = SN->global_begin(), E = SN->global_end();
972          I != E; ++I) {
973       GlobalValue *GV = *I;
974       const DSNodeHandle &SrcGNH = Src.getNodeForValue(GV);
975       DSNodeHandle &DestGNH = NodeMap[SrcGNH.getNode()];
976       assert(DestGNH.getNode()==NH.getNode() &&"Global mapping inconsistent");
977       assert(SrcGNH.getNode() == SN && "Global mapping inconsistent");
978       Dest.getNodeForValue(GV).mergeWith(DSNodeHandle(DestGNH.getNode(),
979                                     DestGNH.getOffset()+SrcGNH.getOffset()));
980       
981       if (CloneFlags & DSGraph::UpdateInlinedGlobals)
982         Dest.getInlinedGlobals().insert(GV);
983     }
984   }
985
986
987   // Next, recursively merge all outgoing links as necessary.  Note that
988   // adding these links can cause the destination node to collapse itself at
989   // any time, and the current node may be merged with arbitrary other nodes.
990   // For this reason, we must always go through NH.
991   DN = 0;
992   for (unsigned i = 0, e = SN->getNumLinks(); i != e; ++i) {
993     const DSNodeHandle &SrcEdge = SN->getLink(i << DS::PointerShift);
994     if (!SrcEdge.isNull()) {
995       // Compute the offset into the current node at which to
996       // merge this link.  In the common case, this is a linear
997       // relation to the offset in the original node (with
998       // wrapping), but if the current node gets collapsed due to
999       // recursive merging, we must make sure to merge in all remaining
1000       // links at offset zero.
1001       DSNode *CN = SCNH.getNode();
1002       unsigned MergeOffset =
1003         ((i << DS::PointerShift)+SCNH.getOffset()) % CN->getSize();
1004       
1005       DSNodeHandle Tmp = CN->getLink(MergeOffset);
1006       if (!Tmp.isNull()) {
1007         // Perform the recursive merging.  Make sure to create a temporary NH,
1008         // because the Link can disappear in the process of recursive merging.
1009         merge(Tmp, SrcEdge);
1010       } else {
1011         Tmp.mergeWith(getClonedNH(SrcEdge));
1012         // Merging this could cause all kinds of recursive things to happen,
1013         // culminating in the current node being eliminated.  Since this is
1014         // possible, make sure to reaquire the link from 'CN'.
1015
1016         unsigned MergeOffset = 0;
1017         CN = SCNH.getNode();
1018         MergeOffset = ((i << DS::PointerShift)+SCNH.getOffset()) %CN->getSize();
1019         CN->getLink(MergeOffset).mergeWith(Tmp);
1020       }
1021     }
1022   }
1023 }
1024
1025 /// mergeCallSite - Merge the nodes reachable from the specified src call
1026 /// site into the nodes reachable from DestCS.
1027 void ReachabilityCloner::mergeCallSite(const DSCallSite &DestCS,
1028                                        const DSCallSite &SrcCS) {
1029   merge(DestCS.getRetVal(), SrcCS.getRetVal());
1030   unsigned MinArgs = DestCS.getNumPtrArgs();
1031   if (SrcCS.getNumPtrArgs() < MinArgs) MinArgs = SrcCS.getNumPtrArgs();
1032   
1033   for (unsigned a = 0; a != MinArgs; ++a)
1034     merge(DestCS.getPtrArg(a), SrcCS.getPtrArg(a));
1035 }
1036
1037
1038 //===----------------------------------------------------------------------===//
1039 // DSCallSite Implementation
1040 //===----------------------------------------------------------------------===//
1041
1042 // Define here to avoid including iOther.h and BasicBlock.h in DSGraph.h
1043 Function &DSCallSite::getCaller() const {
1044   return *Site.getInstruction()->getParent()->getParent();
1045 }
1046
1047 void DSCallSite::InitNH(DSNodeHandle &NH, const DSNodeHandle &Src,
1048                         ReachabilityCloner &RC) {
1049   NH = RC.getClonedNH(Src);
1050 }
1051
1052 //===----------------------------------------------------------------------===//
1053 // DSGraph Implementation
1054 //===----------------------------------------------------------------------===//
1055
1056 /// getFunctionNames - Return a space separated list of the name of the
1057 /// functions in this graph (if any)
1058 std::string DSGraph::getFunctionNames() const {
1059   switch (getReturnNodes().size()) {
1060   case 0: return "Globals graph";
1061   case 1: return getReturnNodes().begin()->first->getName();
1062   default:
1063     std::string Return;
1064     for (DSGraph::ReturnNodesTy::const_iterator I = getReturnNodes().begin();
1065          I != getReturnNodes().end(); ++I)
1066       Return += I->first->getName() + " ";
1067     Return.erase(Return.end()-1, Return.end());   // Remove last space character
1068     return Return;
1069   }
1070 }
1071
1072
1073 DSGraph::DSGraph(const DSGraph &G) : GlobalsGraph(0), TD(G.TD) {
1074   PrintAuxCalls = false;
1075   NodeMapTy NodeMap;
1076   cloneInto(G, ScalarMap, ReturnNodes, NodeMap);
1077 }
1078
1079 DSGraph::DSGraph(const DSGraph &G, NodeMapTy &NodeMap)
1080   : GlobalsGraph(0), TD(G.TD) {
1081   PrintAuxCalls = false;
1082   cloneInto(G, ScalarMap, ReturnNodes, NodeMap);
1083 }
1084
1085 DSGraph::~DSGraph() {
1086   FunctionCalls.clear();
1087   AuxFunctionCalls.clear();
1088   InlinedGlobals.clear();
1089   ScalarMap.clear();
1090   ReturnNodes.clear();
1091
1092   // Drop all intra-node references, so that assertions don't fail...
1093   for (node_iterator NI = node_begin(), E = node_end(); NI != E; ++NI)
1094     (*NI)->dropAllReferences();
1095
1096   // Free all of the nodes.
1097   Nodes.clear();
1098 }
1099
1100 // dump - Allow inspection of graph in a debugger.
1101 void DSGraph::dump() const { print(std::cerr); }
1102
1103
1104 /// remapLinks - Change all of the Links in the current node according to the
1105 /// specified mapping.
1106 ///
1107 void DSNode::remapLinks(DSGraph::NodeMapTy &OldNodeMap) {
1108   for (unsigned i = 0, e = Links.size(); i != e; ++i)
1109     if (DSNode *N = Links[i].getNode()) {
1110       DSGraph::NodeMapTy::const_iterator ONMI = OldNodeMap.find(N);
1111       if (ONMI != OldNodeMap.end()) {
1112         DSNode *ONMIN = ONMI->second.getNode();
1113         Links[i].setTo(ONMIN, Links[i].getOffset()+ONMI->second.getOffset());
1114       }
1115     }
1116 }
1117
1118 /// updateFromGlobalGraph - This function rematerializes global nodes and
1119 /// nodes reachable from them from the globals graph into the current graph.
1120 /// It uses the vector InlinedGlobals to avoid cloning and merging globals that
1121 /// are already up-to-date in the current graph.  In practice, in the TD pass,
1122 /// this is likely to be a large fraction of the live global nodes in each
1123 /// function (since most live nodes are likely to have been brought up-to-date
1124 /// in at _some_ caller or callee).
1125 /// 
1126 void DSGraph::updateFromGlobalGraph() {
1127   TIME_REGION(X, "updateFromGlobalGraph");
1128   ReachabilityCloner RC(*this, *GlobalsGraph, 0);
1129
1130   // Clone the non-up-to-date global nodes into this graph.
1131   for (DSScalarMap::global_iterator I = getScalarMap().global_begin(),
1132          E = getScalarMap().global_end(); I != E; ++I)
1133     if (InlinedGlobals.count(*I) == 0) { // GNode is not up-to-date
1134       DSScalarMap::iterator It = GlobalsGraph->ScalarMap.find(*I);
1135       if (It != GlobalsGraph->ScalarMap.end())
1136         RC.merge(getNodeForValue(*I), It->second);
1137     }
1138 }
1139
1140 /// addObjectToGraph - This method can be used to add global, stack, and heap
1141 /// objects to the graph.  This can be used when updating DSGraphs due to the
1142 /// introduction of new temporary objects.  The new object is not pointed to
1143 /// and does not point to any other objects in the graph.
1144 DSNode *DSGraph::addObjectToGraph(Value *Ptr, bool UseDeclaredType) {
1145   assert(isa<PointerType>(Ptr->getType()) && "Ptr is not a pointer!");
1146   const Type *Ty = cast<PointerType>(Ptr->getType())->getElementType();
1147   DSNode *N = new DSNode(UseDeclaredType ? Ty : 0, this);
1148   assert(ScalarMap[Ptr].isNull() && "Object already in this graph!");
1149   ScalarMap[Ptr] = N;
1150
1151   if (GlobalValue *GV = dyn_cast<GlobalValue>(Ptr)) {
1152     N->addGlobal(GV);
1153   } else if (MallocInst *MI = dyn_cast<MallocInst>(Ptr)) {
1154     N->setHeapNodeMarker();
1155   } else if (AllocaInst *AI = dyn_cast<AllocaInst>(Ptr)) {
1156     N->setAllocaNodeMarker();
1157   } else {
1158     assert(0 && "Illegal memory object input!");
1159   }
1160   return N;
1161 }
1162
1163
1164 /// cloneInto - Clone the specified DSGraph into the current graph.  The
1165 /// translated ScalarMap for the old function is filled into the OldValMap
1166 /// member, and the translated ReturnNodes map is returned into ReturnNodes.
1167 ///
1168 /// The CloneFlags member controls various aspects of the cloning process.
1169 ///
1170 void DSGraph::cloneInto(const DSGraph &G, DSScalarMap &OldValMap,
1171                         ReturnNodesTy &OldReturnNodes, NodeMapTy &OldNodeMap,
1172                         unsigned CloneFlags) {
1173   TIME_REGION(X, "cloneInto");
1174   assert(OldNodeMap.empty() && "Returned OldNodeMap should be empty!");
1175   assert(&G != this && "Cannot clone graph into itself!");
1176
1177   // Remove alloca or mod/ref bits as specified...
1178   unsigned BitsToClear = ((CloneFlags & StripAllocaBit)? DSNode::AllocaNode : 0)
1179     | ((CloneFlags & StripModRefBits)? (DSNode::Modified | DSNode::Read) : 0)
1180     | ((CloneFlags & StripIncompleteBit)? DSNode::Incomplete : 0);
1181   BitsToClear |= DSNode::DEAD;  // Clear dead flag...
1182
1183   for (node_iterator I = G.node_begin(), E = G.node_end(); I != E; ++I) {
1184     assert(!(*I)->isForwarding() &&
1185            "Forward nodes shouldn't be in node list!");
1186     DSNode *New = new DSNode(**I, this);
1187     New->maskNodeTypes(~BitsToClear);
1188     OldNodeMap[*I] = New;
1189   }
1190   
1191 #ifndef NDEBUG
1192   Timer::addPeakMemoryMeasurement();
1193 #endif
1194   
1195   // Rewrite the links in the new nodes to point into the current graph now.
1196   // Note that we don't loop over the node's list to do this.  The problem is
1197   // that remaping links can cause recursive merging to happen, which means
1198   // that node_iterator's can get easily invalidated!  Because of this, we
1199   // loop over the OldNodeMap, which contains all of the new nodes as the
1200   // .second element of the map elements.  Also note that if we remap a node
1201   // more than once, we won't break anything.
1202   for (NodeMapTy::iterator I = OldNodeMap.begin(), E = OldNodeMap.end();
1203        I != E; ++I)
1204     I->second.getNode()->remapLinks(OldNodeMap);
1205
1206   // Copy the scalar map... merging all of the global nodes...
1207   for (DSScalarMap::const_iterator I = G.ScalarMap.begin(),
1208          E = G.ScalarMap.end(); I != E; ++I) {
1209     DSNodeHandle &MappedNode = OldNodeMap[I->second.getNode()];
1210     DSNodeHandle &H = OldValMap[I->first];
1211     DSNode *MappedNodeN = MappedNode.getNode();
1212     H.mergeWith(DSNodeHandle(MappedNodeN,
1213                              I->second.getOffset()+MappedNode.getOffset()));
1214
1215     // If this is a global, add the global to this fn or merge if already exists
1216     if (GlobalValue* GV = dyn_cast<GlobalValue>(I->first)) {
1217       ScalarMap[GV].mergeWith(H);
1218       if (CloneFlags & DSGraph::UpdateInlinedGlobals)
1219         InlinedGlobals.insert(GV);
1220     }
1221   }
1222
1223   if (!(CloneFlags & DontCloneCallNodes)) {
1224     // Copy the function calls list.
1225     for (fc_iterator I = G.fc_begin(), E = G.fc_end(); I != E; ++I)
1226       FunctionCalls.push_back(DSCallSite(*I, OldNodeMap));
1227   }
1228
1229   if (!(CloneFlags & DontCloneAuxCallNodes)) {
1230     // Copy the auxiliary function calls list.
1231     for (afc_iterator I = G.afc_begin(), E = G.afc_end(); I != E; ++I)
1232       AuxFunctionCalls.push_back(DSCallSite(*I, OldNodeMap));
1233   }
1234
1235   // Map the return node pointers over...
1236   for (ReturnNodesTy::const_iterator I = G.getReturnNodes().begin(),
1237          E = G.getReturnNodes().end(); I != E; ++I) {
1238     const DSNodeHandle &Ret = I->second;
1239     DSNodeHandle &MappedRet = OldNodeMap[Ret.getNode()];
1240     DSNode *MappedRetN = MappedRet.getNode();
1241     OldReturnNodes.insert(std::make_pair(I->first,
1242                           DSNodeHandle(MappedRetN,
1243                                        MappedRet.getOffset()+Ret.getOffset())));
1244   }
1245 }
1246
1247 static bool PathExistsToClonedNode(const DSNode *N, ReachabilityCloner &RC) {
1248   if (N)
1249     for (df_iterator<const DSNode*> I = df_begin(N), E = df_end(N); I != E; ++I)
1250       if (RC.hasClonedNode(*I))
1251         return true;
1252   return false;
1253 }
1254
1255 static bool PathExistsToClonedNode(const DSCallSite &CS,
1256                                    ReachabilityCloner &RC) {
1257   if (PathExistsToClonedNode(CS.getRetVal().getNode(), RC))
1258     return true;
1259   for (unsigned i = 0, e = CS.getNumPtrArgs(); i != e; ++i)
1260     if (PathExistsToClonedNode(CS.getPtrArg(i).getNode(), RC))
1261       return true;
1262   return false;
1263 }
1264
1265 /// getFunctionArgumentsForCall - Given a function that is currently in this
1266 /// graph, return the DSNodeHandles that correspond to the pointer-compatible
1267 /// function arguments.  The vector is filled in with the return value (or
1268 /// null if it is not pointer compatible), followed by all of the
1269 /// pointer-compatible arguments.
1270 void DSGraph::getFunctionArgumentsForCall(Function *F,
1271                                        std::vector<DSNodeHandle> &Args) const {
1272   Args.push_back(getReturnNodeFor(*F));
1273   for (Function::aiterator AI = F->abegin(), E = F->aend(); AI != E; ++AI)
1274     if (isPointerType(AI->getType())) {
1275       Args.push_back(getNodeForValue(AI));
1276       assert(!Args.back().isNull() && "Pointer argument w/o scalarmap entry!?");
1277     }
1278 }
1279
1280 /// mergeInCallFromOtherGraph - This graph merges in the minimal number of
1281 /// nodes from G2 into 'this' graph, merging the bindings specified by the
1282 /// call site (in this graph) with the bindings specified by the vector in G2.
1283 /// The two DSGraphs must be different.
1284 ///
1285 void DSGraph::mergeInGraph(const DSCallSite &CS, 
1286                            std::vector<DSNodeHandle> &Args,
1287                            const DSGraph &Graph, unsigned CloneFlags) {
1288   TIME_REGION(X, "mergeInGraph");
1289
1290   // If this is not a recursive call, clone the graph into this graph...
1291   if (&Graph != this) {
1292     // Clone the callee's graph into the current graph, keeping track of where
1293     // scalars in the old graph _used_ to point, and of the new nodes matching
1294     // nodes of the old graph.
1295     ReachabilityCloner RC(*this, Graph, CloneFlags);
1296     
1297     // Map the return node pointer over.
1298     if (!CS.getRetVal().isNull())
1299       RC.merge(CS.getRetVal(), Args[0]);
1300
1301     // Map over all of the arguments.
1302     for (unsigned i = 0, e = CS.getNumPtrArgs(); i != e; ++i) {
1303       if (i == Args.size()-1)
1304         break;
1305       
1306       // Add the link from the argument scalar to the provided value.
1307       RC.merge(CS.getPtrArg(i), Args[i+1]);
1308     }
1309     
1310     // If requested, copy all of the calls.
1311     if (!(CloneFlags & DontCloneCallNodes)) {
1312       // Copy the function calls list.
1313       for (fc_iterator I = Graph.fc_begin(), E = Graph.fc_end(); I != E; ++I)
1314         FunctionCalls.push_back(DSCallSite(*I, RC));
1315     }
1316
1317     // If the user has us copying aux calls (the normal case), set up a data
1318     // structure to keep track of which ones we've copied over.
1319     std::set<const DSCallSite*> CopiedAuxCall;
1320     
1321     // Clone over all globals that appear in the caller and callee graphs.
1322     hash_set<GlobalVariable*> NonCopiedGlobals;
1323     for (DSScalarMap::global_iterator GI = Graph.getScalarMap().global_begin(),
1324            E = Graph.getScalarMap().global_end(); GI != E; ++GI)
1325       if (GlobalVariable *GV = dyn_cast<GlobalVariable>(*GI))
1326         if (ScalarMap.count(GV))
1327           RC.merge(ScalarMap[GV], Graph.getNodeForValue(GV));
1328         else
1329           NonCopiedGlobals.insert(GV);
1330     
1331     // If the global does not appear in the callers graph we generally don't
1332     // want to copy the node.  However, if there is a path from the node global
1333     // node to a node that we did copy in the graph, we *must* copy it to
1334     // maintain the connection information.  Every time we decide to include a
1335     // new global, this might make other globals live, so we must iterate
1336     // unfortunately.
1337     bool MadeChange = true;
1338     while (MadeChange) {
1339       MadeChange = false;
1340       for (hash_set<GlobalVariable*>::iterator I = NonCopiedGlobals.begin();
1341            I != NonCopiedGlobals.end();) {
1342         DSNode *GlobalNode = Graph.getNodeForValue(*I).getNode();
1343         if (RC.hasClonedNode(GlobalNode)) {
1344           // Already cloned it, remove from set.
1345           NonCopiedGlobals.erase(I++);
1346           MadeChange = true;
1347         } else if (PathExistsToClonedNode(GlobalNode, RC)) {
1348           RC.getClonedNH(Graph.getNodeForValue(*I));
1349           NonCopiedGlobals.erase(I++);
1350           MadeChange = true;
1351         } else {
1352           ++I;
1353         }
1354       }
1355
1356       // If requested, copy any aux calls that can reach copied nodes.
1357       if (!(CloneFlags & DontCloneAuxCallNodes)) {
1358         for (afc_iterator I = Graph.afc_begin(), E = Graph.afc_end(); I!=E; ++I)
1359           if (CopiedAuxCall.insert(&*I).second &&
1360               PathExistsToClonedNode(*I, RC)) {
1361             AuxFunctionCalls.push_back(DSCallSite(*I, RC));
1362             MadeChange = true;
1363           }
1364       }
1365     }
1366     
1367   } else {
1368     // Merge the return value with the return value of the context.
1369     Args[0].mergeWith(CS.getRetVal());
1370     
1371     // Resolve all of the function arguments.
1372     for (unsigned i = 0, e = CS.getNumPtrArgs(); i != e; ++i) {
1373       if (i == Args.size()-1)
1374         break;
1375       
1376       // Add the link from the argument scalar to the provided value.
1377       Args[i+1].mergeWith(CS.getPtrArg(i));
1378     }
1379   }
1380 }
1381
1382
1383
1384 /// mergeInGraph - The method is used for merging graphs together.  If the
1385 /// argument graph is not *this, it makes a clone of the specified graph, then
1386 /// merges the nodes specified in the call site with the formal arguments in the
1387 /// graph.
1388 ///
1389 void DSGraph::mergeInGraph(const DSCallSite &CS, Function &F,
1390                            const DSGraph &Graph, unsigned CloneFlags) {
1391   // Fastpath for a noop inline.
1392   if (CS.getNumPtrArgs() == 0 && CS.getRetVal().isNull())
1393     return;
1394
1395   // Set up argument bindings.
1396   std::vector<DSNodeHandle> Args;
1397   Graph.getFunctionArgumentsForCall(&F, Args);
1398
1399   mergeInGraph(CS, Args, Graph, CloneFlags);
1400 }
1401
1402 /// getCallSiteForArguments - Get the arguments and return value bindings for
1403 /// the specified function in the current graph.
1404 ///
1405 DSCallSite DSGraph::getCallSiteForArguments(Function &F) const {
1406   std::vector<DSNodeHandle> Args;
1407
1408   for (Function::aiterator I = F.abegin(), E = F.aend(); I != E; ++I)
1409     if (isPointerType(I->getType()))
1410       Args.push_back(getNodeForValue(I));
1411
1412   return DSCallSite(CallSite(), getReturnNodeFor(F), &F, Args);
1413 }
1414
1415 /// getDSCallSiteForCallSite - Given an LLVM CallSite object that is live in
1416 /// the context of this graph, return the DSCallSite for it.
1417 DSCallSite DSGraph::getDSCallSiteForCallSite(CallSite CS) const {
1418   DSNodeHandle RetVal;
1419   Instruction *I = CS.getInstruction();
1420   if (isPointerType(I->getType()))
1421     RetVal = getNodeForValue(I);
1422
1423   std::vector<DSNodeHandle> Args;
1424   Args.reserve(CS.arg_end()-CS.arg_begin());
1425
1426   // Calculate the arguments vector...
1427   for (CallSite::arg_iterator I = CS.arg_begin(), E = CS.arg_end(); I != E; ++I)
1428     if (isPointerType((*I)->getType()))
1429       Args.push_back(getNodeForValue(*I));
1430
1431   // Add a new function call entry...
1432   if (Function *F = CS.getCalledFunction())
1433     return DSCallSite(CS, RetVal, F, Args);
1434   else
1435     return DSCallSite(CS, RetVal,
1436                       getNodeForValue(CS.getCalledValue()).getNode(), Args);
1437 }
1438
1439
1440
1441 // markIncompleteNodes - Mark the specified node as having contents that are not
1442 // known with the current analysis we have performed.  Because a node makes all
1443 // of the nodes it can reach incomplete if the node itself is incomplete, we
1444 // must recursively traverse the data structure graph, marking all reachable
1445 // nodes as incomplete.
1446 //
1447 static void markIncompleteNode(DSNode *N) {
1448   // Stop recursion if no node, or if node already marked...
1449   if (N == 0 || N->isIncomplete()) return;
1450
1451   // Actually mark the node
1452   N->setIncompleteMarker();
1453
1454   // Recursively process children...
1455   for (DSNode::edge_iterator I = N->edge_begin(),E = N->edge_end(); I != E; ++I)
1456     if (DSNode *DSN = I->getNode())
1457       markIncompleteNode(DSN);
1458 }
1459
1460 static void markIncomplete(DSCallSite &Call) {
1461   // Then the return value is certainly incomplete!
1462   markIncompleteNode(Call.getRetVal().getNode());
1463
1464   // All objects pointed to by function arguments are incomplete!
1465   for (unsigned i = 0, e = Call.getNumPtrArgs(); i != e; ++i)
1466     markIncompleteNode(Call.getPtrArg(i).getNode());
1467 }
1468
1469 // markIncompleteNodes - Traverse the graph, identifying nodes that may be
1470 // modified by other functions that have not been resolved yet.  This marks
1471 // nodes that are reachable through three sources of "unknownness":
1472 //
1473 //  Global Variables, Function Calls, and Incoming Arguments
1474 //
1475 // For any node that may have unknown components (because something outside the
1476 // scope of current analysis may have modified it), the 'Incomplete' flag is
1477 // added to the NodeType.
1478 //
1479 void DSGraph::markIncompleteNodes(unsigned Flags) {
1480   // Mark any incoming arguments as incomplete.
1481   if (Flags & DSGraph::MarkFormalArgs)
1482     for (ReturnNodesTy::iterator FI = ReturnNodes.begin(), E =ReturnNodes.end();
1483          FI != E; ++FI) {
1484       Function &F = *FI->first;
1485       if (F.getName() != "main")
1486         for (Function::aiterator I = F.abegin(), E = F.aend(); I != E; ++I)
1487           if (isPointerType(I->getType()))
1488             markIncompleteNode(getNodeForValue(I).getNode());
1489       markIncompleteNode(FI->second.getNode());
1490     }
1491
1492   // Mark stuff passed into functions calls as being incomplete.
1493   if (!shouldPrintAuxCalls())
1494     for (std::list<DSCallSite>::iterator I = FunctionCalls.begin(),
1495            E = FunctionCalls.end(); I != E; ++I)
1496       markIncomplete(*I);
1497   else
1498     for (std::list<DSCallSite>::iterator I = AuxFunctionCalls.begin(),
1499            E = AuxFunctionCalls.end(); I != E; ++I)
1500       markIncomplete(*I);
1501
1502   // Mark all global nodes as incomplete...
1503   if ((Flags & DSGraph::IgnoreGlobals) == 0)
1504     for (DSScalarMap::global_iterator I = ScalarMap.global_begin(),
1505            E = ScalarMap.global_end(); I != E; ++I)
1506       if (GlobalVariable *GV = dyn_cast<GlobalVariable>(*I))
1507         if (!GV->isConstant() || !GV->hasInitializer())
1508           markIncompleteNode(ScalarMap[GV].getNode());
1509 }
1510
1511 static inline void killIfUselessEdge(DSNodeHandle &Edge) {
1512   if (DSNode *N = Edge.getNode())  // Is there an edge?
1513     if (N->getNumReferrers() == 1)  // Does it point to a lonely node?
1514       // No interesting info?
1515       if ((N->getNodeFlags() & ~DSNode::Incomplete) == 0 &&
1516           N->getType() == Type::VoidTy && !N->isNodeCompletelyFolded())
1517         Edge.setTo(0, 0);  // Kill the edge!
1518 }
1519
1520 static inline bool nodeContainsExternalFunction(const DSNode *N) {
1521   const std::vector<GlobalValue*> &Globals = N->getGlobals();
1522   for (unsigned i = 0, e = Globals.size(); i != e; ++i)
1523     if (Globals[i]->isExternal() && isa<Function>(Globals[i]))
1524       return true;
1525   return false;
1526 }
1527
1528 static void removeIdenticalCalls(std::list<DSCallSite> &Calls) {
1529   // Remove trivially identical function calls
1530   Calls.sort();  // Sort by callee as primary key!
1531
1532   // Scan the call list cleaning it up as necessary...
1533   DSNode   *LastCalleeNode = 0;
1534   Function *LastCalleeFunc = 0;
1535   unsigned NumDuplicateCalls = 0;
1536   bool LastCalleeContainsExternalFunction = false;
1537
1538   unsigned NumDeleted = 0;
1539   for (std::list<DSCallSite>::iterator I = Calls.begin(), E = Calls.end();
1540        I != E;) {
1541     DSCallSite &CS = *I;
1542     std::list<DSCallSite>::iterator OldIt = I++;
1543
1544     // If the Callee is a useless edge, this must be an unreachable call site,
1545     // eliminate it.
1546     if (CS.isIndirectCall() && CS.getCalleeNode()->getNumReferrers() == 1 &&
1547         CS.getCalleeNode()->isComplete() &&
1548         CS.getCalleeNode()->getGlobals().empty()) {  // No useful info?
1549 #ifndef NDEBUG
1550       std::cerr << "WARNING: Useless call site found.\n";
1551 #endif
1552       Calls.erase(OldIt);
1553       ++NumDeleted;
1554       continue;
1555     }
1556
1557     // If the return value or any arguments point to a void node with no
1558     // information at all in it, and the call node is the only node to point
1559     // to it, remove the edge to the node (killing the node).
1560     //
1561     killIfUselessEdge(CS.getRetVal());
1562     for (unsigned a = 0, e = CS.getNumPtrArgs(); a != e; ++a)
1563       killIfUselessEdge(CS.getPtrArg(a));
1564     
1565 #if 0
1566     // If this call site calls the same function as the last call site, and if
1567     // the function pointer contains an external function, this node will
1568     // never be resolved.  Merge the arguments of the call node because no
1569     // information will be lost.
1570     //
1571     if ((CS.isDirectCall()   && CS.getCalleeFunc() == LastCalleeFunc) ||
1572         (CS.isIndirectCall() && CS.getCalleeNode() == LastCalleeNode)) {
1573       ++NumDuplicateCalls;
1574       if (NumDuplicateCalls == 1) {
1575         if (LastCalleeNode)
1576           LastCalleeContainsExternalFunction =
1577             nodeContainsExternalFunction(LastCalleeNode);
1578         else
1579           LastCalleeContainsExternalFunction = LastCalleeFunc->isExternal();
1580       }
1581       
1582       // It is not clear why, but enabling this code makes DSA really
1583       // sensitive to node forwarding.  Basically, with this enabled, DSA
1584       // performs different number of inlinings based on which nodes are
1585       // forwarding or not.  This is clearly a problem, so this code is
1586       // disabled until this can be resolved.
1587 #if 1
1588       if (LastCalleeContainsExternalFunction
1589 #if 0
1590           ||
1591           // This should be more than enough context sensitivity!
1592           // FIXME: Evaluate how many times this is tripped!
1593           NumDuplicateCalls > 20
1594 #endif
1595           ) {
1596         
1597         std::list<DSCallSite>::iterator PrevIt = OldIt;
1598         --PrevIt;
1599         PrevIt->mergeWith(CS);
1600         
1601         // No need to keep this call anymore.
1602         Calls.erase(OldIt);
1603         ++NumDeleted;
1604         continue;
1605       }
1606 #endif
1607     } else {
1608       if (CS.isDirectCall()) {
1609         LastCalleeFunc = CS.getCalleeFunc();
1610         LastCalleeNode = 0;
1611       } else {
1612         LastCalleeNode = CS.getCalleeNode();
1613         LastCalleeFunc = 0;
1614       }
1615       NumDuplicateCalls = 0;
1616     }
1617 #endif
1618
1619     if (I != Calls.end() && CS == *I) {
1620       Calls.erase(OldIt);
1621       ++NumDeleted;
1622       continue;
1623     }
1624   }
1625
1626   // Resort now that we simplified things.
1627   Calls.sort();
1628
1629   // Now that we are in sorted order, eliminate duplicates.
1630   std::list<DSCallSite>::iterator CI = Calls.begin(), CE = Calls.end();
1631   if (CI != CE)
1632     while (1) {
1633       std::list<DSCallSite>::iterator OldIt = CI++;
1634       if (CI == CE) break;
1635
1636       // If this call site is now the same as the previous one, we can delete it
1637       // as a duplicate.
1638       if (*OldIt == *CI) {
1639         Calls.erase(CI);
1640         CI = OldIt;
1641         ++NumDeleted;
1642       }
1643     }
1644
1645   //Calls.erase(std::unique(Calls.begin(), Calls.end()), Calls.end());
1646
1647   // Track the number of call nodes merged away...
1648   NumCallNodesMerged += NumDeleted;
1649
1650   DEBUG(if (NumDeleted)
1651           std::cerr << "Merged " << NumDeleted << " call nodes.\n";);
1652 }
1653
1654
1655 // removeTriviallyDeadNodes - After the graph has been constructed, this method
1656 // removes all unreachable nodes that are created because they got merged with
1657 // other nodes in the graph.  These nodes will all be trivially unreachable, so
1658 // we don't have to perform any non-trivial analysis here.
1659 //
1660 void DSGraph::removeTriviallyDeadNodes() {
1661   TIME_REGION(X, "removeTriviallyDeadNodes");
1662
1663 #if 0
1664   /// NOTE: This code is disabled.  This slows down DSA on 177.mesa
1665   /// substantially!
1666
1667   // Loop over all of the nodes in the graph, calling getNode on each field.
1668   // This will cause all nodes to update their forwarding edges, causing
1669   // forwarded nodes to be delete-able.
1670   { TIME_REGION(X, "removeTriviallyDeadNodes:node_iterate");
1671   for (node_iterator NI = node_begin(), E = node_end(); NI != E; ++NI) {
1672     DSNode *N = *NI;
1673     for (unsigned l = 0, e = N->getNumLinks(); l != e; ++l)
1674       N->getLink(l*N->getPointerSize()).getNode();
1675   }
1676   }
1677
1678   // NOTE: This code is disabled.  Though it should, in theory, allow us to
1679   // remove more nodes down below, the scan of the scalar map is incredibly
1680   // expensive for certain programs (with large SCCs).  In the future, if we can
1681   // make the scalar map scan more efficient, then we can reenable this.
1682   { TIME_REGION(X, "removeTriviallyDeadNodes:scalarmap");
1683
1684   // Likewise, forward any edges from the scalar nodes.  While we are at it,
1685   // clean house a bit.
1686   for (DSScalarMap::iterator I = ScalarMap.begin(),E = ScalarMap.end();I != E;){
1687     I->second.getNode();
1688     ++I;
1689   }
1690   }
1691 #endif
1692   bool isGlobalsGraph = !GlobalsGraph;
1693
1694   for (NodeListTy::iterator NI = Nodes.begin(), E = Nodes.end(); NI != E; ) {
1695     DSNode &Node = *NI;
1696
1697     // Do not remove *any* global nodes in the globals graph.
1698     // This is a special case because such nodes may not have I, M, R flags set.
1699     if (Node.isGlobalNode() && isGlobalsGraph) {
1700       ++NI;
1701       continue;
1702     }
1703
1704     if (Node.isComplete() && !Node.isModified() && !Node.isRead()) {
1705       // This is a useless node if it has no mod/ref info (checked above),
1706       // outgoing edges (which it cannot, as it is not modified in this
1707       // context), and it has no incoming edges.  If it is a global node it may
1708       // have all of these properties and still have incoming edges, due to the
1709       // scalar map, so we check those now.
1710       //
1711       if (Node.getNumReferrers() == Node.getGlobals().size()) {
1712         const std::vector<GlobalValue*> &Globals = Node.getGlobals();
1713
1714         // Loop through and make sure all of the globals are referring directly
1715         // to the node...
1716         for (unsigned j = 0, e = Globals.size(); j != e; ++j) {
1717           DSNode *N = getNodeForValue(Globals[j]).getNode();
1718           assert(N == &Node && "ScalarMap doesn't match globals list!");
1719         }
1720
1721         // Make sure NumReferrers still agrees, if so, the node is truly dead.
1722         if (Node.getNumReferrers() == Globals.size()) {
1723           for (unsigned j = 0, e = Globals.size(); j != e; ++j)
1724             ScalarMap.erase(Globals[j]);
1725           Node.makeNodeDead();
1726           ++NumTrivialGlobalDNE;
1727         }
1728       }
1729     }
1730
1731     if (Node.getNodeFlags() == 0 && Node.hasNoReferrers()) {
1732       // This node is dead!
1733       NI = Nodes.erase(NI);    // Erase & remove from node list.
1734       ++NumTrivialDNE;
1735     } else {
1736       ++NI;
1737     }
1738   }
1739
1740   removeIdenticalCalls(FunctionCalls);
1741   removeIdenticalCalls(AuxFunctionCalls);
1742 }
1743
1744
1745 /// markReachableNodes - This method recursively traverses the specified
1746 /// DSNodes, marking any nodes which are reachable.  All reachable nodes it adds
1747 /// to the set, which allows it to only traverse visited nodes once.
1748 ///
1749 void DSNode::markReachableNodes(hash_set<const DSNode*> &ReachableNodes) const {
1750   if (this == 0) return;
1751   assert(getForwardNode() == 0 && "Cannot mark a forwarded node!");
1752   if (ReachableNodes.insert(this).second)        // Is newly reachable?
1753     for (DSNode::const_edge_iterator I = edge_begin(), E = edge_end();
1754          I != E; ++I)
1755       I->getNode()->markReachableNodes(ReachableNodes);
1756 }
1757
1758 void DSCallSite::markReachableNodes(hash_set<const DSNode*> &Nodes) const {
1759   getRetVal().getNode()->markReachableNodes(Nodes);
1760   if (isIndirectCall()) getCalleeNode()->markReachableNodes(Nodes);
1761   
1762   for (unsigned i = 0, e = getNumPtrArgs(); i != e; ++i)
1763     getPtrArg(i).getNode()->markReachableNodes(Nodes);
1764 }
1765
1766 // CanReachAliveNodes - Simple graph walker that recursively traverses the graph
1767 // looking for a node that is marked alive.  If an alive node is found, return
1768 // true, otherwise return false.  If an alive node is reachable, this node is
1769 // marked as alive...
1770 //
1771 static bool CanReachAliveNodes(DSNode *N, hash_set<const DSNode*> &Alive,
1772                                hash_set<const DSNode*> &Visited,
1773                                bool IgnoreGlobals) {
1774   if (N == 0) return false;
1775   assert(N->getForwardNode() == 0 && "Cannot mark a forwarded node!");
1776
1777   // If this is a global node, it will end up in the globals graph anyway, so we
1778   // don't need to worry about it.
1779   if (IgnoreGlobals && N->isGlobalNode()) return false;
1780
1781   // If we know that this node is alive, return so!
1782   if (Alive.count(N)) return true;
1783
1784   // Otherwise, we don't think the node is alive yet, check for infinite
1785   // recursion.
1786   if (Visited.count(N)) return false;  // Found a cycle
1787   Visited.insert(N);   // No recursion, insert into Visited...
1788
1789   for (DSNode::edge_iterator I = N->edge_begin(),E = N->edge_end(); I != E; ++I)
1790     if (CanReachAliveNodes(I->getNode(), Alive, Visited, IgnoreGlobals)) {
1791       N->markReachableNodes(Alive);
1792       return true;
1793     }
1794   return false;
1795 }
1796
1797 // CallSiteUsesAliveArgs - Return true if the specified call site can reach any
1798 // alive nodes.
1799 //
1800 static bool CallSiteUsesAliveArgs(const DSCallSite &CS,
1801                                   hash_set<const DSNode*> &Alive,
1802                                   hash_set<const DSNode*> &Visited,
1803                                   bool IgnoreGlobals) {
1804   if (CanReachAliveNodes(CS.getRetVal().getNode(), Alive, Visited,
1805                          IgnoreGlobals))
1806     return true;
1807   if (CS.isIndirectCall() &&
1808       CanReachAliveNodes(CS.getCalleeNode(), Alive, Visited, IgnoreGlobals))
1809     return true;
1810   for (unsigned i = 0, e = CS.getNumPtrArgs(); i != e; ++i)
1811     if (CanReachAliveNodes(CS.getPtrArg(i).getNode(), Alive, Visited,
1812                            IgnoreGlobals))
1813       return true;
1814   return false;
1815 }
1816
1817 // removeDeadNodes - Use a more powerful reachability analysis to eliminate
1818 // subgraphs that are unreachable.  This often occurs because the data
1819 // structure doesn't "escape" into it's caller, and thus should be eliminated
1820 // from the caller's graph entirely.  This is only appropriate to use when
1821 // inlining graphs.
1822 //
1823 void DSGraph::removeDeadNodes(unsigned Flags) {
1824   DEBUG(AssertGraphOK(); if (GlobalsGraph) GlobalsGraph->AssertGraphOK());
1825
1826   // Reduce the amount of work we have to do... remove dummy nodes left over by
1827   // merging...
1828   removeTriviallyDeadNodes();
1829
1830   TIME_REGION(X, "removeDeadNodes");
1831
1832   // FIXME: Merge non-trivially identical call nodes...
1833
1834   // Alive - a set that holds all nodes found to be reachable/alive.
1835   hash_set<const DSNode*> Alive;
1836   std::vector<std::pair<Value*, DSNode*> > GlobalNodes;
1837
1838   // Copy and merge all information about globals to the GlobalsGraph if this is
1839   // not a final pass (where unreachable globals are removed).
1840   //
1841   // Strip all alloca bits since the current function is only for the BU pass.
1842   // Strip all incomplete bits since they are short-lived properties and they
1843   // will be correctly computed when rematerializing nodes into the functions.
1844   //
1845   ReachabilityCloner GGCloner(*GlobalsGraph, *this, DSGraph::StripAllocaBit |
1846                               DSGraph::StripIncompleteBit);
1847
1848   // Mark all nodes reachable by (non-global) scalar nodes as alive...
1849   { TIME_REGION(Y, "removeDeadNodes:scalarscan");
1850   for (DSScalarMap::iterator I = ScalarMap.begin(), E = ScalarMap.end(); I !=E;)
1851     if (isa<GlobalValue>(I->first)) {             // Keep track of global nodes
1852       assert(!I->second.isNull() && "Null global node?");
1853       assert(I->second.getNode()->isGlobalNode() && "Should be a global node!");
1854       GlobalNodes.push_back(std::make_pair(I->first, I->second.getNode()));
1855
1856       // Make sure that all globals are cloned over as roots.
1857       if (!(Flags & DSGraph::RemoveUnreachableGlobals)) {
1858         DSGraph::ScalarMapTy::iterator SMI = 
1859           GlobalsGraph->getScalarMap().find(I->first);
1860         if (SMI != GlobalsGraph->getScalarMap().end())
1861           GGCloner.merge(SMI->second, I->second);
1862         else
1863           GGCloner.getClonedNH(I->second);
1864       }
1865       ++I;
1866     } else {
1867       DSNode *N = I->second.getNode();
1868 #if 0
1869       // Check to see if this is a worthless node generated for non-pointer
1870       // values, such as integers.  Consider an addition of long types: A+B.
1871       // Assuming we can track all uses of the value in this context, and it is
1872       // NOT used as a pointer, we can delete the node.  We will be able to
1873       // detect this situation if the node pointed to ONLY has Unknown bit set
1874       // in the node.  In this case, the node is not incomplete, does not point
1875       // to any other nodes (no mod/ref bits set), and is therefore
1876       // uninteresting for data structure analysis.  If we run across one of
1877       // these, prune the scalar pointing to it.
1878       //
1879       if (N->getNodeFlags() == DSNode::UnknownNode && !isa<Argument>(I->first))
1880         ScalarMap.erase(I++);
1881       else {
1882 #endif
1883         N->markReachableNodes(Alive);
1884         ++I;
1885       //}
1886     }
1887   }
1888
1889   // The return values are alive as well.
1890   for (ReturnNodesTy::iterator I = ReturnNodes.begin(), E = ReturnNodes.end();
1891        I != E; ++I)
1892     I->second.getNode()->markReachableNodes(Alive);
1893
1894   // Mark any nodes reachable by primary calls as alive...
1895   for (fc_iterator I = fc_begin(), E = fc_end(); I != E; ++I)
1896     I->markReachableNodes(Alive);
1897
1898
1899   // Now find globals and aux call nodes that are already live or reach a live
1900   // value (which makes them live in turn), and continue till no more are found.
1901   // 
1902   bool Iterate;
1903   hash_set<const DSNode*> Visited;
1904   hash_set<const DSCallSite*> AuxFCallsAlive;
1905   do {
1906     Visited.clear();
1907     // If any global node points to a non-global that is "alive", the global is
1908     // "alive" as well...  Remove it from the GlobalNodes list so we only have
1909     // unreachable globals in the list.
1910     //
1911     Iterate = false;
1912     if (!(Flags & DSGraph::RemoveUnreachableGlobals))
1913       for (unsigned i = 0; i != GlobalNodes.size(); ++i)
1914         if (CanReachAliveNodes(GlobalNodes[i].second, Alive, Visited, 
1915                                Flags & DSGraph::RemoveUnreachableGlobals)) {
1916           std::swap(GlobalNodes[i--], GlobalNodes.back()); // Move to end to...
1917           GlobalNodes.pop_back();                          // erase efficiently
1918           Iterate = true;
1919         }
1920
1921     // Mark only unresolvable call nodes for moving to the GlobalsGraph since
1922     // call nodes that get resolved will be difficult to remove from that graph.
1923     // The final unresolved call nodes must be handled specially at the end of
1924     // the BU pass (i.e., in main or other roots of the call graph).
1925     for (afc_iterator CI = afc_begin(), E = afc_end(); CI != E; ++CI)
1926       if (!AuxFCallsAlive.count(&*CI) &&
1927           (CI->isIndirectCall()
1928            || CallSiteUsesAliveArgs(*CI, Alive, Visited,
1929                                   Flags & DSGraph::RemoveUnreachableGlobals))) {
1930         CI->markReachableNodes(Alive);
1931         AuxFCallsAlive.insert(&*CI);
1932         Iterate = true;
1933       }
1934   } while (Iterate);
1935
1936   // Move dead aux function calls to the end of the list
1937   unsigned CurIdx = 0;
1938   for (std::list<DSCallSite>::iterator CI = AuxFunctionCalls.begin(),
1939          E = AuxFunctionCalls.end(); CI != E; )
1940     if (AuxFCallsAlive.count(&*CI))
1941       ++CI;
1942     else {
1943       // Copy and merge global nodes and dead aux call nodes into the
1944       // GlobalsGraph, and all nodes reachable from those nodes.  Update their
1945       // target pointers using the GGCloner.
1946       // 
1947       if (!(Flags & DSGraph::RemoveUnreachableGlobals))
1948         GlobalsGraph->AuxFunctionCalls.push_back(DSCallSite(*CI, GGCloner));
1949
1950       AuxFunctionCalls.erase(CI++);
1951     }
1952
1953   // We are finally done with the GGCloner so we can destroy it.
1954   GGCloner.destroy();
1955
1956   // At this point, any nodes which are visited, but not alive, are nodes
1957   // which can be removed.  Loop over all nodes, eliminating completely
1958   // unreachable nodes.
1959   //
1960   std::vector<DSNode*> DeadNodes;
1961   DeadNodes.reserve(Nodes.size());
1962   for (NodeListTy::iterator NI = Nodes.begin(), E = Nodes.end(); NI != E;) {
1963     DSNode *N = NI++;
1964     assert(!N->isForwarding() && "Forwarded node in nodes list?");
1965
1966     if (!Alive.count(N)) {
1967       Nodes.remove(N);
1968       assert(!N->isForwarding() && "Cannot remove a forwarding node!");
1969       DeadNodes.push_back(N);
1970       N->dropAllReferences();
1971       ++NumDNE;
1972     }
1973   }
1974
1975   // Remove all unreachable globals from the ScalarMap.
1976   // If flag RemoveUnreachableGlobals is set, GlobalNodes has only dead nodes.
1977   // In either case, the dead nodes will not be in the set Alive.
1978   for (unsigned i = 0, e = GlobalNodes.size(); i != e; ++i)
1979     if (!Alive.count(GlobalNodes[i].second))
1980       ScalarMap.erase(GlobalNodes[i].first);
1981     else
1982       assert((Flags & DSGraph::RemoveUnreachableGlobals) && "non-dead global");
1983
1984   // Delete all dead nodes now since their referrer counts are zero.
1985   for (unsigned i = 0, e = DeadNodes.size(); i != e; ++i)
1986     delete DeadNodes[i];
1987
1988   DEBUG(AssertGraphOK(); GlobalsGraph->AssertGraphOK());
1989 }
1990
1991 void DSGraph::AssertNodeContainsGlobal(const DSNode *N, GlobalValue *GV) const {
1992   assert(std::find(N->getGlobals().begin(), N->getGlobals().end(), GV) !=
1993          N->getGlobals().end() && "Global value not in node!");
1994 }
1995
1996 void DSGraph::AssertCallSiteInGraph(const DSCallSite &CS) const {
1997   if (CS.isIndirectCall()) {
1998     AssertNodeInGraph(CS.getCalleeNode());
1999 #if 0
2000     if (CS.getNumPtrArgs() && CS.getCalleeNode() == CS.getPtrArg(0).getNode() &&
2001         CS.getCalleeNode() && CS.getCalleeNode()->getGlobals().empty())
2002       std::cerr << "WARNING: WEIRD CALL SITE FOUND!\n";      
2003 #endif
2004   }
2005   AssertNodeInGraph(CS.getRetVal().getNode());
2006   for (unsigned j = 0, e = CS.getNumPtrArgs(); j != e; ++j)
2007     AssertNodeInGraph(CS.getPtrArg(j).getNode());
2008 }
2009
2010 void DSGraph::AssertCallNodesInGraph() const {
2011   for (fc_iterator I = fc_begin(), E = fc_end(); I != E; ++I)
2012     AssertCallSiteInGraph(*I);
2013 }
2014 void DSGraph::AssertAuxCallNodesInGraph() const {
2015   for (afc_iterator I = afc_begin(), E = afc_end(); I != E; ++I)
2016     AssertCallSiteInGraph(*I);
2017 }
2018
2019 void DSGraph::AssertGraphOK() const {
2020   for (node_iterator NI = node_begin(), E = node_end(); NI != E; ++NI)
2021     (*NI)->assertOK();
2022
2023   for (ScalarMapTy::const_iterator I = ScalarMap.begin(),
2024          E = ScalarMap.end(); I != E; ++I) {
2025     assert(!I->second.isNull() && "Null node in scalarmap!");
2026     AssertNodeInGraph(I->second.getNode());
2027     if (GlobalValue *GV = dyn_cast<GlobalValue>(I->first)) {
2028       assert(I->second.getNode()->isGlobalNode() &&
2029              "Global points to node, but node isn't global?");
2030       AssertNodeContainsGlobal(I->second.getNode(), GV);
2031     }
2032   }
2033   AssertCallNodesInGraph();
2034   AssertAuxCallNodesInGraph();
2035
2036   // Check that all pointer arguments to any functions in this graph have
2037   // destinations.
2038   for (ReturnNodesTy::const_iterator RI = ReturnNodes.begin(),
2039          E = ReturnNodes.end();
2040        RI != E; ++RI) {
2041     Function &F = *RI->first;
2042     for (Function::aiterator AI = F.abegin(); AI != F.aend(); ++AI)
2043       if (isPointerType(AI->getType()))
2044         assert(!getNodeForValue(AI).isNull() &&
2045                "Pointer argument must be in the scalar map!");
2046   }
2047 }
2048
2049 /// computeNodeMapping - Given roots in two different DSGraphs, traverse the
2050 /// nodes reachable from the two graphs, computing the mapping of nodes from the
2051 /// first to the second graph.  This mapping may be many-to-one (i.e. the first
2052 /// graph may have multiple nodes representing one node in the second graph),
2053 /// but it will not work if there is a one-to-many or many-to-many mapping.
2054 ///
2055 void DSGraph::computeNodeMapping(const DSNodeHandle &NH1,
2056                                  const DSNodeHandle &NH2, NodeMapTy &NodeMap,
2057                                  bool StrictChecking) {
2058   DSNode *N1 = NH1.getNode(), *N2 = NH2.getNode();
2059   if (N1 == 0 || N2 == 0) return;
2060
2061   DSNodeHandle &Entry = NodeMap[N1];
2062   if (!Entry.isNull()) {
2063     // Termination of recursion!
2064     if (StrictChecking) {
2065       assert(Entry.getNode() == N2 && "Inconsistent mapping detected!");
2066       assert((Entry.getOffset() == (NH2.getOffset()-NH1.getOffset()) ||
2067               Entry.getNode()->isNodeCompletelyFolded()) &&
2068              "Inconsistent mapping detected!");
2069     }
2070     return;
2071   }
2072   
2073   Entry.setTo(N2, NH2.getOffset()-NH1.getOffset());
2074
2075   // Loop over all of the fields that N1 and N2 have in common, recursively
2076   // mapping the edges together now.
2077   int N2Idx = NH2.getOffset()-NH1.getOffset();
2078   unsigned N2Size = N2->getSize();
2079   for (unsigned i = 0, e = N1->getSize(); i < e; i += DS::PointerSize)
2080     if (unsigned(N2Idx)+i < N2Size)
2081       computeNodeMapping(N1->getLink(i), N2->getLink(N2Idx+i), NodeMap);
2082     else
2083       computeNodeMapping(N1->getLink(i),
2084                          N2->getLink(unsigned(N2Idx+i) % N2Size), NodeMap);
2085 }