Implement cast bool to X
[oota-llvm.git] / lib / Target / X86 / InstSelectSimple.cpp
index a6016604132f2b21c757307f29836057c36c6267..a8ed6f69c0e6d74e329d4d51a954a47ab38ce472 100644 (file)
@@ -14,6 +14,7 @@
 #include "llvm/iPHINode.h"
 #include "llvm/iMemory.h"
 #include "llvm/Type.h"
+#include "llvm/DerivedTypes.h"
 #include "llvm/Constants.h"
 #include "llvm/Pass.h"
 #include "llvm/CodeGen/MachineFunction.h"
 
 using namespace MOTy;  // Get Use, Def, UseAndDef
 
+
+/// BMI - A special BuildMI variant that takes an iterator to insert the
+/// instruction at as well as a basic block.
+/// this is the version for when you have a destination register in mind.
+inline static MachineInstrBuilder BMI(MachineBasicBlock *MBB,
+                                      MachineBasicBlock::iterator &I,
+                                      MachineOpCode Opcode,
+                                      unsigned NumOperands,
+                                      unsigned DestReg) {
+  MachineInstr *MI = new MachineInstr(Opcode, NumOperands+1, true, true);
+  I = ++MBB->insert(I, MI);
+  return MachineInstrBuilder(MI).addReg(DestReg, MOTy::Def);
+}
+
+/// BMI - A special BuildMI variant that takes an iterator to insert the
+/// instruction at as well as a basic block.
+inline static MachineInstrBuilder BMI(MachineBasicBlock *MBB,
+                                      MachineBasicBlock::iterator &I,
+                                      MachineOpCode Opcode,
+                                      unsigned NumOperands) {
+  MachineInstr *MI = new MachineInstr(Opcode, NumOperands, true, true);
+  I = ++MBB->insert(I, MI);
+  return MachineInstrBuilder(MI);
+}
+
+
 namespace {
   struct ISel : public FunctionPass, InstVisitor<ISel> {
     TargetMachine &TM;
@@ -34,6 +61,9 @@ namespace {
     unsigned CurReg;
     std::map<Value*, unsigned> RegMap;  // Mapping between Val's and SSA Regs
 
+    // MBBMap - Mapping between LLVM BB -> Machine BB
+    std::map<const BasicBlock*, MachineBasicBlock*> MBBMap;
+
     ISel(TargetMachine &tm)
       : TM(tm), F(0), BB(0), CurReg(MRegisterInfo::FirstVirtualRegister) {}
 
@@ -42,8 +72,18 @@ namespace {
     ///
     bool runOnFunction(Function &Fn) {
       F = &MachineFunction::construct(&Fn, TM);
+
+      for (Function::iterator I = Fn.begin(), E = Fn.end(); I != E; ++I)
+        F->getBasicBlockList().push_back(MBBMap[I] = new MachineBasicBlock(I));
+
+      // Instruction select everything except PHI nodes
       visit(Fn);
+
+      // Select the PHI nodes
+      SelectPHINodes();
+
       RegMap.clear();
+      MBBMap.clear();
       CurReg = MRegisterInfo::FirstVirtualRegister;
       F = 0;
       return false;  // We never modify the LLVM itself.
@@ -55,11 +95,16 @@ namespace {
     /// instructions will be invoked for all instructions in the basic block.
     ///
     void visitBasicBlock(BasicBlock &LLVM_BB) {
-      BB = new MachineBasicBlock(&LLVM_BB);
-      // FIXME: Use the auto-insert form when it's available
-      F->getBasicBlockList().push_back(BB);
+      BB = MBBMap[&LLVM_BB];
     }
 
+
+    /// SelectPHINodes - Insert machine code to generate phis.  This is tricky
+    /// because we have to generate our sources into the source basic blocks,
+    /// not the current one.
+    ///
+    void SelectPHINodes();
+
     // Visitation methods for various instructions.  These methods simply emit
     // fixed X86 code for each instruction.
     //
@@ -73,6 +118,10 @@ namespace {
     void visitSimpleBinary(BinaryOperator &B, unsigned OpcodeClass);
     void visitAdd(BinaryOperator &B) { visitSimpleBinary(B, 0); }
     void visitSub(BinaryOperator &B) { visitSimpleBinary(B, 1); }
+    void doMultiply(unsigned destReg, const Type *resultType,
+                   unsigned op0Reg, unsigned op1Reg,
+                    MachineBasicBlock *MBB,
+                    MachineBasicBlock::iterator &MBBI);
     void visitMul(BinaryOperator &B);
 
     void visitDiv(BinaryOperator &B) { visitDivRem(B); }
@@ -96,10 +145,14 @@ namespace {
     // Memory Instructions
     void visitLoadInst(LoadInst &I);
     void visitStoreInst(StoreInst &I);
-
+    void visitGetElementPtrInst(GetElementPtrInst &I);
+    void visitMallocInst(MallocInst &I);
+    void visitFreeInst(FreeInst &I);
+    void visitAllocaInst(AllocaInst &I);
+    
     // Other operators
     void visitShiftInst(ShiftInst &I);
-    void visitPHINode(PHINode &I);
+    void visitPHINode(PHINode &I) {}      // PHI nodes handled by second pass
     void visitCastInst(CastInst &I);
 
     void visitInstruction(Instruction &I) {
@@ -107,12 +160,30 @@ namespace {
       abort();
     }
 
+    /// promote32 - Make a value 32-bits wide, and put it somewhere.
     void promote32 (const unsigned targetReg, Value *v);
     
+    // emitGEPOperation - Common code shared between visitGetElementPtrInst and
+    // constant expression GEP support.
+    //
+    void emitGEPOperation(MachineBasicBlock *BB, MachineBasicBlock::iterator&IP,
+                          Value *Src, User::op_iterator IdxBegin,
+                          User::op_iterator IdxEnd, unsigned TargetReg);
+
     /// copyConstantToRegister - Output the instructions required to put the
     /// specified constant into the specified register.
     ///
-    void copyConstantToRegister(Constant *C, unsigned Reg);
+    void copyConstantToRegister(Constant *C, unsigned Reg,
+                                MachineBasicBlock *MBB,
+                                MachineBasicBlock::iterator &MBBI);
+
+    /// makeAnotherReg - This method returns the next register number
+    /// we haven't yet used.
+    unsigned makeAnotherReg(const Type *Ty) {
+      // Add the mapping of regnumber => reg class to MachineFunction
+      F->addRegMap(CurReg, TM.getRegisterInfo()->getRegClassForType(Ty));
+      return CurReg++;
+    }
 
     /// getReg - This method turns an LLVM value into a register number.  This
     /// is guaranteed to produce the same register number for a particular value
@@ -120,21 +191,48 @@ namespace {
     ///
     unsigned getReg(Value &V) { return getReg(&V); }  // Allow references
     unsigned getReg(Value *V) {
+      // Just append to the end of the current bb.
+      MachineBasicBlock::iterator It = BB->end();
+      return getReg(V, BB, It);
+    }
+    unsigned getReg(Value *V, MachineBasicBlock *MBB,
+                    MachineBasicBlock::iterator &IPt) {
       unsigned &Reg = RegMap[V];
       if (Reg == 0) {
-        Reg = CurReg++;
+        Reg = makeAnotherReg(V->getType());
         RegMap[V] = Reg;
-
-        // Add the mapping of regnumber => reg class to MachineFunction
-        F->addRegMap(Reg,
-                     TM.getRegisterInfo()->getRegClassForType(V->getType()));
       }
 
       // If this operand is a constant, emit the code to copy the constant into
       // the register here...
       //
-      if (Constant *C = dyn_cast<Constant>(V))
-        copyConstantToRegister(C, Reg);
+      if (Constant *C = dyn_cast<Constant>(V)) {
+        copyConstantToRegister(C, Reg, BB, IPt);
+      } else if (GlobalValue *GV = dyn_cast<GlobalValue>(V)) {
+        // Move the address of the global into the register
+        BMI(MBB, IPt, X86::MOVir32, 1, Reg).addReg(GV);
+      } else if (Argument *A = dyn_cast<Argument>(V)) {
+       // Find the position of the argument in the argument list.
+       const Function *f = F->getFunction ();
+       // The function's arguments look like this:
+       // [EBP]     -- copy of old EBP
+       // [EBP + 4] -- return address
+       // [EBP + 8] -- first argument (leftmost lexically)
+       // So we want to start with counter = 2.
+       int counter = 2, argPos = -1;
+       for (Function::const_aiterator ai = f->abegin (), ae = f->aend ();
+            ai != ae; ++ai) {
+         if (&(*ai) == A) {
+           argPos = counter;
+           break; // Only need to find it once. ;-)
+         }
+         ++counter;
+       }
+       assert (argPos != -1
+               && "Argument not found in current function's argument list");
+       // Load it out of the stack frame at EBP + 4*argPos.
+       addRegOffset(BMI(MBB, IPt, X86::MOVmr32, 4, Reg), X86::EBP, 4*argPos);
+      }
 
       return Reg;
     }
@@ -162,7 +260,9 @@ static inline TypeClass getClass(const Type *Ty) {
   case Type::PointerTyID: return cInt;       // Int's and pointers are class #2
 
   case Type::LongTyID:
-  case Type::ULongTyID:   return cLong;      // Longs are class #3
+  case Type::ULongTyID:   //return cLong;      // Longs are class #3
+    return cInt;          // FIXME: LONGS ARE TREATED AS INTS!
+
   case Type::FloatTyID:   return cFloat;     // Float is class #4
   case Type::DoubleTyID:  return cDouble;    // Doubles are class #5
   default:
@@ -175,8 +275,19 @@ static inline TypeClass getClass(const Type *Ty) {
 /// copyConstantToRegister - Output the instructions required to put the
 /// specified constant into the specified register.
 ///
-void ISel::copyConstantToRegister(Constant *C, unsigned R) {
-  assert (!isa<ConstantExpr>(C) && "Constant expressions not yet handled!\n");
+void ISel::copyConstantToRegister(Constant *C, unsigned R,
+                                  MachineBasicBlock *MBB,
+                                  MachineBasicBlock::iterator &IP) {
+  if (ConstantExpr *CE = dyn_cast<ConstantExpr>(C)) {
+    if (CE->getOpcode() == Instruction::GetElementPtr) {
+      emitGEPOperation(BB, IP, CE->getOperand(0),
+                       CE->op_begin()+1, CE->op_end(), R);
+      return;
+    }
+
+    std::cerr << "Offending expr: " << C << "\n";
+    assert (0 && "Constant expressions not yet handled!\n");
+  }
 
   if (C->getType()->isIntegral()) {
     unsigned Class = getClass(C->getType());
@@ -188,16 +299,59 @@ void ISel::copyConstantToRegister(Constant *C, unsigned R) {
 
     if (C->getType()->isSigned()) {
       ConstantSInt *CSI = cast<ConstantSInt>(C);
-      BuildMI(BB, IntegralOpcodeTab[Class], 1, R).addSImm(CSI->getValue());
+      BMI(MBB, IP, IntegralOpcodeTab[Class], 1, R).addSImm(CSI->getValue());
     } else {
       ConstantUInt *CUI = cast<ConstantUInt>(C);
-      BuildMI(BB, IntegralOpcodeTab[Class], 1, R).addZImm(CUI->getValue());
+      BMI(MBB, IP, IntegralOpcodeTab[Class], 1, R).addZImm(CUI->getValue());
     }
+  } else if (isa<ConstantPointerNull>(C)) {
+    // Copy zero (null pointer) to the register.
+    BMI(MBB, IP, X86::MOVir32, 1, R).addZImm(0);
+  } else if (ConstantPointerRef *CPR = dyn_cast<ConstantPointerRef>(C)) {
+    unsigned SrcReg = getReg(CPR->getValue(), BB, IP);
+    BMI(MBB, IP, X86::MOVrr32, 1, R).addReg(SrcReg);
   } else {
+    std::cerr << "Offending constant: " << C << "\n";
     assert(0 && "Type not handled yet!");
   }
 }
 
+/// SelectPHINodes - Insert machine code to generate phis.  This is tricky
+/// because we have to generate our sources into the source basic blocks, not
+/// the current one.
+///
+void ISel::SelectPHINodes() {
+  const Function &LF = *F->getFunction();  // The LLVM function...
+  for (Function::const_iterator I = LF.begin(), E = LF.end(); I != E; ++I) {
+    const BasicBlock *BB = I;
+    MachineBasicBlock *MBB = MBBMap[I];
+
+    // Loop over all of the PHI nodes in the LLVM basic block...
+    unsigned NumPHIs = 0;
+    for (BasicBlock::const_iterator I = BB->begin();
+         PHINode *PN = (PHINode*)dyn_cast<PHINode>(&*I); ++I) {
+      // Create a new machine instr PHI node, and insert it.
+      MachineInstr *MI = BuildMI(X86::PHI, PN->getNumOperands(), getReg(*PN));
+      MBB->insert(MBB->begin()+NumPHIs++, MI); // Insert it at the top of the BB
+
+      for (unsigned i = 0, e = PN->getNumIncomingValues(); i != e; ++i) {
+        MachineBasicBlock *PredMBB = MBBMap[PN->getIncomingBlock(i)];
+
+        // Get the incoming value into a virtual register.  If it is not already
+        // available in a virtual register, insert the computation code into
+        // PredMBB
+        MachineBasicBlock::iterator PI = PredMBB->end()-1;
+        MI->addRegOperand(getReg(PN->getIncomingValue(i), PredMBB, PI));
+                                 
+
+        // FIXME: Pass in the MachineBasicBlocks instead of the basic blocks...
+        MI->addPCDispOperand(PN->getIncomingBlock(i));  // PredMBB
+      }
+    }
+  }
+}
+
+
 
 /// SetCC instructions - Here we just emit boilerplate code to set a byte-sized
 /// register, then move it to wherever the result should be. 
@@ -230,12 +384,12 @@ void ISel::visitSetCCInst(SetCondInst &I, unsigned OpNum) {
     // FIXME: assuming var1, var2 are in memory, if not, spill to
     // stack first
   case cFloat:  // Floats
-    BuildMI (BB, X86::FLDr4, 1).addReg (reg1);
-    BuildMI (BB, X86::FLDr4, 1).addReg (reg2);
+    BuildMI (BB, X86::FLDr32, 1).addReg (reg1);
+    BuildMI (BB, X86::FLDr32, 1).addReg (reg2);
     break;
   case cDouble:  // Doubles
-    BuildMI (BB, X86::FLDr8, 1).addReg (reg1);
-    BuildMI (BB, X86::FLDr8, 1).addReg (reg2);
+    BuildMI (BB, X86::FLDr64, 1).addReg (reg1);
+    BuildMI (BB, X86::FLDr64, 1).addReg (reg2);
     break;
   case cLong:
   default:
@@ -276,7 +430,7 @@ void ISel::visitSetCCInst(SetCondInst &I, unsigned OpNum) {
 /// promote32 - Emit instructions to turn a narrow operand into a 32-bit-wide
 /// operand, in the specified target register.
 void
-ISel::promote32 (const unsigned targetReg, Value *v)
+ISel::promote32 (unsigned targetReg, Value *v)
 {
   unsigned vReg = getReg (v);
   unsigned Class = getClass (v->getType ());
@@ -339,10 +493,10 @@ ISel::visitReturnInst (ReturnInst &I)
       // ret float/double: top of FP stack
       // FLD <val>
     case cFloat:               // Floats
-      BuildMI (BB, X86::FLDr4, 1).addReg (getReg (rv));
+      BuildMI (BB, X86::FLDr32, 1).addReg (getReg (rv));
       break;
     case cDouble:              // Doubles
-      BuildMI (BB, X86::FLDr8, 1).addReg (getReg (rv));
+      BuildMI (BB, X86::FLDr64, 1).addReg (getReg (rv));
       break;
     case cLong:
       // ret long: use EAX(least significant 32 bits)/EDX (most
@@ -387,12 +541,14 @@ ISel::visitBranchInst (BranchInst & BI)
 void
 ISel::visitCallInst (CallInst & CI)
 {
+  // keep a counter of how many bytes we pushed on the stack
+  unsigned bytesPushed = 0;
+
   // Push the arguments on the stack in reverse order, as specified by
   // the ABI.
-  for (unsigned i = CI.getNumOperands (); i >= 1; --i)
+  for (unsigned i = CI.getNumOperands()-1; i >= 1; --i)
     {
       Value *v = CI.getOperand (i);
-      unsigned argReg = getReg (v);
       switch (getClass (v->getType ()))
        {
        case cByte:
@@ -401,11 +557,15 @@ ISel::visitCallInst (CallInst & CI)
          // then push EAX.
          promote32 (X86::EAX, v);
          BuildMI (BB, X86::PUSHr32, 1).addReg (X86::EAX);
+          bytesPushed += 4;
          break;
        case cInt:
-       case cFloat:
-         BuildMI (BB, X86::PUSHr32, 1).addReg (argReg);
+       case cFloat: {
+          unsigned Reg = getReg(v);
+          BuildMI (BB, X86::PUSHr32, 1).addReg(Reg);
+          bytesPushed += 4;
          break;
+        }
        default:
          // FIXME: long/ulong/double args not handled.
          visitInstruction (CI);
@@ -414,6 +574,46 @@ ISel::visitCallInst (CallInst & CI)
     }
   // Emit a CALL instruction with PC-relative displacement.
   BuildMI (BB, X86::CALLpcrel32, 1).addPCDisp (CI.getCalledValue ());
+
+  // Adjust the stack by `bytesPushed' amount if non-zero
+  if (bytesPushed > 0)
+    BuildMI (BB, X86::ADDri32, 2).addReg(X86::ESP).addZImm(bytesPushed);
+
+  // If there is a return value, scavenge the result from the location the call
+  // leaves it in...
+  //
+  if (CI.getType() != Type::VoidTy) {
+    unsigned resultTypeClass = getClass (CI.getType ());
+    switch (resultTypeClass) {
+    case cByte:
+    case cShort:
+    case cInt: {
+      // Integral results are in %eax, or the appropriate portion
+      // thereof.
+      static const unsigned regRegMove[] = {
+       X86::MOVrr8, X86::MOVrr16, X86::MOVrr32
+      };
+      static const unsigned AReg[] = { X86::AL, X86::AX, X86::EAX };
+      BuildMI (BB, regRegMove[resultTypeClass], 1,
+              getReg (CI)).addReg (AReg[resultTypeClass]);
+      break;
+    }
+    case cFloat:
+      // Floating-point return values live in %st(0) (i.e., the top of
+      // the FP stack.) The general way to approach this is to do a
+      // FSTP to save the top of the FP stack on the real stack, then
+      // do a MOV to load the top of the real stack into the target
+      // register.
+      visitInstruction (CI); // FIXME: add the right args for the calls below
+      // BuildMI (BB, X86::FSTPm32, 0);
+      // BuildMI (BB, X86::MOVmr32, 0);
+      break;
+    default:
+      std::cerr << "Cannot get return value for call of type '"
+                << *CI.getType() << "'\n";
+      visitInstruction(CI);
+    }
+  }
 }
 
 /// visitSimpleBinary - Implement simple binary operators for integral types...
@@ -445,30 +645,44 @@ void ISel::visitSimpleBinary(BinaryOperator &B, unsigned OperatorClass) {
   BuildMI(BB, Opcode, 2, getReg(B)).addReg(Op0r).addReg(Op1r);
 }
 
-/// visitMul - Multiplies are not simple binary operators because they must deal
-/// with the EAX register explicitly.
-///
-void ISel::visitMul(BinaryOperator &I) {
-  unsigned Class = getClass(I.getType());
-  if (Class > 2)  // FIXME: Handle longs
-    visitInstruction(I);
+/// doMultiply - Emit appropriate instructions to multiply together
+/// the registers op0Reg and op1Reg, and put the result in destReg.
+/// The type of the result should be given as resultType.
+void
+ISel::doMultiply(unsigned destReg, const Type *resultType,
+                unsigned op0Reg, unsigned op1Reg,
+                 MachineBasicBlock *MBB, MachineBasicBlock::iterator &MBBI)
+{
+  unsigned Class = getClass (resultType);
 
+  // FIXME:
+  assert (Class <= 2 && "Someday, we will learn how to multiply"
+         "longs and floating-point numbers. This is not that day.");
   static const unsigned Regs[]     ={ X86::AL    , X86::AX     , X86::EAX     };
   static const unsigned MulOpcode[]={ X86::MULrr8, X86::MULrr16, X86::MULrr32 };
   static const unsigned MovOpcode[]={ X86::MOVrr8, X86::MOVrr16, X86::MOVrr32 };
-
   unsigned Reg     = Regs[Class];
-  unsigned Op0Reg  = getReg(I.getOperand(0));
-  unsigned Op1Reg  = getReg(I.getOperand(1));
 
-  // Put the first operand into one of the A registers...
-  BuildMI(BB, MovOpcode[Class], 1, Reg).addReg(Op0Reg);
+  // Emit a MOV to put the first operand into the appropriately-sized
+  // subreg of EAX.
+  BMI(MBB, MBBI, MovOpcode[Class], 1, Reg).addReg (op0Reg);
   
-  // Emit the appropriate multiply instruction...
-  BuildMI(BB, MulOpcode[Class], 1).addReg(Op1Reg);
+  // Emit the appropriate multiply instruction.
+  BMI(MBB, MBBI, MulOpcode[Class], 1).addReg (op1Reg);
 
-  // Put the result into the destination register...
-  BuildMI(BB, MovOpcode[Class], 1, getReg(I)).addReg(Reg);
+  // Emit another MOV to put the result into the destination register.
+  BMI(MBB, MBBI, MovOpcode[Class], 1, destReg).addReg (Reg);
+}
+
+/// visitMul - Multiplies are not simple binary operators because they must deal
+/// with the EAX register explicitly.
+///
+void ISel::visitMul(BinaryOperator &I) {
+  MachineBasicBlock::iterator MBBI = BB->end();
+  doMultiply (getReg (I), I.getType (),
+             getReg (I.getOperand (0)), getReg (I.getOperand (1)),
+              BB, MBBI);
 }
 
 
@@ -614,56 +828,222 @@ void ISel::visitStoreInst(StoreInst &I) {
 }
 
 
-/// visitPHINode - Turn an LLVM PHI node into an X86 PHI node...
-///
-void ISel::visitPHINode(PHINode &PN) {
-  MachineInstr *MI = BuildMI(BB, X86::PHI, PN.getNumOperands(), getReg(PN));
-
-  for (unsigned i = 0, e = PN.getNumIncomingValues(); i != e; ++i) {
-    // FIXME: This will put constants after the PHI nodes in the block, which
-    // is invalid.  They should be put inline into the PHI node eventually.
-    //
-    MI->addRegOperand(getReg(PN.getIncomingValue(i)));
-    MI->addPCDispOperand(PN.getIncomingBlock(i));
-  }
-}
-
 /// visitCastInst - Here we have various kinds of copying with or without
 /// sign extension going on.
 void
 ISel::visitCastInst (CastInst &CI)
 {
-//> cast larger int to smaller int -->  copy least significant byte/word w/ mov?
-//
-//I'm not really sure what to do with this.  We could insert a pseudo-op
-//that says take the low X bits of a Y bit register, but for now we can just
-//force the value into, say, EAX, then rip out AL or AX.  The advantage of  
-//the former is that the register allocator could use any register it wants,
-//but for now this obviously doesn't matter.  :)
-
-// if target type is bool
-// Emit Compare
-// Emit Set-if-not-zero
-
-// if size of target type == size of source type
-// Emit Mov reg(target) <- reg(source)
-
-// if size of target type > size of source type
-//     if both types are integer types
-//             if source type is signed
-//                 sbyte to short, ushort: Emit movsx 8->16
-//                 sbyte to int, uint:     Emit movsx 8->32
-//                 short to int, uint:     Emit movsx 16->32
-//             else if source type is unsigned
-//                 ubyte to short, ushort: Emit movzx 8->16
-//                 ubyte to int, uint:     Emit movzx 8->32
-//                 ushort to int, uint:    Emit movzx 16->32
-//     if both types are fp types
-//             float to double: Emit fstp, fld (???)
+  const Type *targetType = CI.getType ();
+  Value *operand = CI.getOperand (0);
+  unsigned int operandReg = getReg (operand);
+  const Type *sourceType = operand->getType ();
+  unsigned int destReg = getReg (CI);
+  //
+  // Currently we handle:
+  //
+  // 1) cast * to bool
+  //
+  // 2) cast {sbyte, ubyte} to {sbyte, ubyte}
+  //    cast {short, ushort} to {ushort, short}
+  //    cast {int, uint, ptr} to {int, uint, ptr}
+  //
+  // 3) cast {sbyte, ubyte} to {ushort, short}
+  //    cast {sbyte, ubyte} to {int, uint, ptr}
+  //    cast {short, ushort} to {int, uint, ptr}
+  //
+  // 4) cast {int, uint, ptr} to {short, ushort}
+  //    cast {int, uint, ptr} to {sbyte, ubyte}
+  //    cast {short, ushort} to {sbyte, ubyte}
+
+  // 1) Implement casts to bool by using compare on the operand followed
+  // by set if not zero on the result.
+  if (targetType == Type::BoolTy)
+    {
+      BuildMI (BB, X86::CMPri8, 2).addReg (operandReg).addZImm (0);
+      BuildMI (BB, X86::SETNEr, 1, destReg);
+      return;
+    }
 
+  // 2) Implement casts between values of the same type class (as determined
+  // by getClass) by using a register-to-register move.
+  unsigned srcClass = sourceType == Type::BoolTy ? cByte : getClass(sourceType);
+  unsigned targClass = getClass (targetType);
+  static const unsigned regRegMove[] = {
+    X86::MOVrr8, X86::MOVrr16, X86::MOVrr32
+  };
+  if ((srcClass < 3) && (targClass < 3) && (srcClass == targClass))
+    {
+      BuildMI (BB, regRegMove[srcClass], 1, destReg).addReg (operandReg);
+      return;
+    }
+  // 3) Handle cast of SMALLER int to LARGER int using a move with sign
+  // extension or zero extension, depending on whether the source type
+  // was signed.
+  if ((srcClass < 3) && (targClass < 3) && (srcClass < targClass))
+    {
+      static const unsigned ops[] = {
+       X86::MOVSXr16r8, X86::MOVSXr32r8, X86::MOVSXr32r16,
+       X86::MOVZXr16r8, X86::MOVZXr32r8, X86::MOVZXr32r16
+      };
+      unsigned srcSigned = sourceType->isSigned ();
+      BuildMI (BB, ops[3 * srcSigned + srcClass + targClass - 1], 1,
+              destReg).addReg (operandReg);
+      return;
+    }
+  // 4) Handle cast of LARGER int to SMALLER int using a move to EAX
+  // followed by a move out of AX or AL.
+  if ((srcClass < 3) && (targClass < 3) && (srcClass > targClass))
+    {
+      static const unsigned AReg[] = { X86::AL, X86::AX, X86::EAX };
+      BuildMI (BB, regRegMove[srcClass], 1,
+              AReg[srcClass]).addReg (operandReg);
+      BuildMI (BB, regRegMove[targClass], 1, destReg).addReg (AReg[srcClass]);
+      return;
+    }
+  // Anything we haven't handled already, we can't (yet) handle at all.
+  //
+  // FP to integral casts can be handled with FISTP to store onto the
+  // stack while converting to integer, followed by a MOV to load from
+  // the stack into the result register. Integral to FP casts can be
+  // handled with MOV to store onto the stack, followed by a FILD to
+  // load from the stack while converting to FP. For the moment, I
+  // can't quite get straight in my head how to borrow myself some
+  // stack space and write on it. Otherwise, this would be trivial.
   visitInstruction (CI);
 }
 
+/// visitGetElementPtrInst - I don't know, most programs don't have
+/// getelementptr instructions, right? That means we can put off
+/// implementing this, right? Right. This method emits machine
+/// instructions to perform type-safe pointer arithmetic. I am
+/// guessing this could be cleaned up somewhat to use fewer temporary
+/// registers.
+void
+ISel::visitGetElementPtrInst (GetElementPtrInst &I)
+{
+  MachineBasicBlock::iterator MI = BB->end();
+  emitGEPOperation(BB, MI, I.getOperand(0),
+                   I.op_begin()+1, I.op_end(), getReg(I));
+}
+
+void ISel::emitGEPOperation(MachineBasicBlock *MBB,
+                            MachineBasicBlock::iterator &IP,
+                            Value *Src, User::op_iterator IdxBegin,
+                            User::op_iterator IdxEnd, unsigned TargetReg) {
+  const TargetData &TD = TM.getTargetData();
+  const Type *Ty = Src->getType();
+  unsigned basePtrReg = getReg(Src, BB, IP);
+
+  // GEPs have zero or more indices; we must perform a struct access
+  // or array access for each one.
+  for (GetElementPtrInst::op_iterator oi = IdxBegin,
+         oe = IdxEnd; oi != oe; ++oi) {
+    Value *idx = *oi;
+    unsigned nextBasePtrReg = makeAnotherReg(Type::UIntTy);
+    if (const StructType *StTy = dyn_cast <StructType> (Ty)) {
+      // It's a struct access.  idx is the index into the structure,
+      // which names the field. This index must have ubyte type.
+      const ConstantUInt *CUI = cast <ConstantUInt> (idx);
+      assert (CUI->getType () == Type::UByteTy
+             && "Funny-looking structure index in GEP");
+      // Use the TargetData structure to pick out what the layout of
+      // the structure is in memory.  Since the structure index must
+      // be constant, we can get its value and use it to find the
+      // right byte offset from the StructLayout class's list of
+      // structure member offsets.
+      unsigned idxValue = CUI->getValue ();
+      unsigned memberOffset =
+       TD.getStructLayout (StTy)->MemberOffsets[idxValue];
+      // Emit an ADD to add memberOffset to the basePtr.
+      BMI(MBB, IP, X86::ADDri32, 2,
+          nextBasePtrReg).addReg (basePtrReg).addZImm (memberOffset);
+      // The next type is the member of the structure selected by the
+      // index.
+      Ty = StTy->getElementTypes ()[idxValue];
+    } else if (const SequentialType *SqTy = cast <SequentialType> (Ty)) {
+      // It's an array or pointer access: [ArraySize x ElementType].
+      const Type *typeOfSequentialTypeIndex = SqTy->getIndexType ();
+      // idx is the index into the array.  Unlike with structure
+      // indices, we may not know its actual value at code-generation
+      // time.
+      assert (idx->getType () == typeOfSequentialTypeIndex
+             && "Funny-looking array index in GEP");
+      // We want to add basePtrReg to (idxReg * sizeof
+      // ElementType). First, we must find the size of the pointed-to
+      // type.  (Not coincidentally, the next type is the type of the
+      // elements in the array.)
+      Ty = SqTy->getElementType ();
+      unsigned elementSize = TD.getTypeSize (Ty);
+      unsigned elementSizeReg = makeAnotherReg(typeOfSequentialTypeIndex);
+      copyConstantToRegister(ConstantSInt::get(typeOfSequentialTypeIndex,
+                                              elementSize), elementSizeReg,
+                             BB, IP);
+                             
+      unsigned idxReg = getReg(idx, BB, IP);
+      // Emit a MUL to multiply the register holding the index by
+      // elementSize, putting the result in memberOffsetReg.
+      unsigned memberOffsetReg = makeAnotherReg(Type::UIntTy);
+      doMultiply (memberOffsetReg, typeOfSequentialTypeIndex,
+                 elementSizeReg, idxReg, BB, IP);
+      // Emit an ADD to add memberOffsetReg to the basePtr.
+      BMI(MBB, IP, X86::ADDrr32, 2,
+          nextBasePtrReg).addReg (basePtrReg).addReg (memberOffsetReg);
+    }
+    // Now that we are here, further indices refer to subtypes of this
+    // one, so we don't need to worry about basePtrReg itself, anymore.
+    basePtrReg = nextBasePtrReg;
+  }
+  // After we have processed all the indices, the result is left in
+  // basePtrReg.  Move it to the register where we were expected to
+  // put the answer.  A 32-bit move should do it, because we are in
+  // ILP32 land.
+  BMI(MBB, IP, X86::MOVrr32, 1, TargetReg).addReg (basePtrReg);
+}
+
+
+/// visitMallocInst - I know that personally, whenever I want to remember
+/// something, I have to clear off some space in my brain.
+void
+ISel::visitMallocInst (MallocInst &I)
+{
+  // We assume that by this point, malloc instructions have been
+  // lowered to calls, and dlsym will magically find malloc for us.
+  // So we do not want to see malloc instructions here.
+  visitInstruction (I);
+}
+
+
+/// visitFreeInst - same story as MallocInst
+void
+ISel::visitFreeInst (FreeInst &I)
+{
+  // We assume that by this point, free instructions have been
+  // lowered to calls, and dlsym will magically find free for us.
+  // So we do not want to see free instructions here.
+  visitInstruction (I);
+}
+
+
+/// visitAllocaInst - I want some stack space. Come on, man, I said I
+/// want some freakin' stack space.
+void
+ISel::visitAllocaInst (AllocaInst &I)
+{
+  // Find the data size of the alloca inst's getAllocatedType.
+  const Type *allocatedType = I.getAllocatedType ();
+  const TargetData &TD = TM.DataLayout;
+  unsigned allocatedTypeSize = TD.getTypeSize (allocatedType);
+  // Keep stack 32-bit aligned.
+  unsigned int allocatedTypeWords = allocatedTypeSize / 4;
+  if (allocatedTypeSize % 4 != 0) { allocatedTypeWords++; }
+  // Subtract size from stack pointer, thereby allocating some space.
+  BuildMI (BB, X86::SUBri32, 1, X86::ESP).addZImm (allocatedTypeWords * 4);
+  // Put a pointer to the space into the result register, by copying
+  // the stack pointer.
+  BuildMI (BB, X86::MOVrr32, 1, getReg (I)).addReg (X86::ESP);
+}
+    
+
 /// createSimpleX86InstructionSelector - This pass converts an LLVM function
 /// into a machine code representation is a very simple peep-hole fashion.  The
 /// generated code sucks but the implementation is nice and simple.