fix rdar://7947167 - llvm-mc doesn't match movsq
[oota-llvm.git] / lib / Target / X86 / X86AsmBackend.cpp
1 //===-- X86AsmBackend.cpp - X86 Assembler Backend -------------------------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9
10 #include "llvm/Target/TargetAsmBackend.h"
11 #include "X86.h"
12 #include "X86FixupKinds.h"
13 #include "llvm/ADT/Twine.h"
14 #include "llvm/MC/MCAssembler.h"
15 #include "llvm/MC/MCExpr.h"
16 #include "llvm/MC/MCObjectWriter.h"
17 #include "llvm/MC/MCSectionELF.h"
18 #include "llvm/MC/MCSectionMachO.h"
19 #include "llvm/MC/MachObjectWriter.h"
20 #include "llvm/Support/ErrorHandling.h"
21 #include "llvm/Support/raw_ostream.h"
22 #include "llvm/Target/TargetRegistry.h"
23 #include "llvm/Target/TargetAsmBackend.h"
24 using namespace llvm;
25
26 namespace {
27
28 static unsigned getFixupKindLog2Size(unsigned Kind) {
29   switch (Kind) {
30   default: assert(0 && "invalid fixup kind!");
31   case X86::reloc_pcrel_1byte:
32   case FK_Data_1: return 0;
33   case FK_Data_2: return 1;
34   case X86::reloc_pcrel_4byte:
35   case X86::reloc_riprel_4byte:
36   case X86::reloc_riprel_4byte_movq_load:
37   case FK_Data_4: return 2;
38   case FK_Data_8: return 3;
39   }
40 }
41
42 class X86AsmBackend : public TargetAsmBackend {
43 public:
44   X86AsmBackend(const Target &T)
45     : TargetAsmBackend(T) {}
46
47   void ApplyFixup(const MCAsmFixup &Fixup, MCDataFragment &DF,
48                   uint64_t Value) const {
49     unsigned Size = 1 << getFixupKindLog2Size(Fixup.Kind);
50
51     assert(Fixup.Offset + Size <= DF.getContents().size() &&
52            "Invalid fixup offset!");
53     for (unsigned i = 0; i != Size; ++i)
54       DF.getContents()[Fixup.Offset + i] = uint8_t(Value >> (i * 8));
55   }
56
57   bool MayNeedRelaxation(const MCInst &Inst,
58                          const SmallVectorImpl<MCAsmFixup> &Fixups) const;
59
60   void RelaxInstruction(const MCInstFragment *IF, MCInst &Res) const;
61
62   bool WriteNopData(uint64_t Count, MCObjectWriter *OW) const;
63 };
64
65 static unsigned getRelaxedOpcode(unsigned Op) {
66   switch (Op) {
67   default:
68     return Op;
69
70   case X86::JAE_1: return X86::JAE_4;
71   case X86::JA_1:  return X86::JA_4;
72   case X86::JBE_1: return X86::JBE_4;
73   case X86::JB_1:  return X86::JB_4;
74   case X86::JE_1:  return X86::JE_4;
75   case X86::JGE_1: return X86::JGE_4;
76   case X86::JG_1:  return X86::JG_4;
77   case X86::JLE_1: return X86::JLE_4;
78   case X86::JL_1:  return X86::JL_4;
79   case X86::JMP_1: return X86::JMP_4;
80   case X86::JNE_1: return X86::JNE_4;
81   case X86::JNO_1: return X86::JNO_4;
82   case X86::JNP_1: return X86::JNP_4;
83   case X86::JNS_1: return X86::JNS_4;
84   case X86::JO_1:  return X86::JO_4;
85   case X86::JP_1:  return X86::JP_4;
86   case X86::JS_1:  return X86::JS_4;
87   }
88 }
89
90 bool X86AsmBackend::MayNeedRelaxation(const MCInst &Inst,
91                               const SmallVectorImpl<MCAsmFixup> &Fixups) const {
92   for (unsigned i = 0, e = Fixups.size(); i != e; ++i) {
93     // We don't support relaxing anything else currently. Make sure we error out
94     // if we see a non-constant 1 or 2 byte fixup.
95     //
96     // FIXME: We should need to check this here, this is better checked in the
97     // object writer which should be verifying that any final relocations match
98     // the expected fixup. However, that code is more complicated and hasn't
99     // been written yet. See the FIXMEs in MachObjectWriter.cpp.
100     if ((Fixups[i].Kind == FK_Data_1 || Fixups[i].Kind == FK_Data_2) &&
101         !isa<MCConstantExpr>(Fixups[i].Value))
102       report_fatal_error("unexpected small fixup with a non-constant operand!");
103
104     // Check for a 1byte pcrel fixup, and enforce that we would know how to
105     // relax this instruction.
106     if (unsigned(Fixups[i].Kind) == X86::reloc_pcrel_1byte) {
107       assert(getRelaxedOpcode(Inst.getOpcode()) != Inst.getOpcode());
108       return true;
109     }
110   }
111
112   return false;
113 }
114
115 // FIXME: Can tblgen help at all here to verify there aren't other instructions
116 // we can relax?
117 void X86AsmBackend::RelaxInstruction(const MCInstFragment *IF,
118                                      MCInst &Res) const {
119   // The only relaxations X86 does is from a 1byte pcrel to a 4byte pcrel.
120   unsigned RelaxedOp = getRelaxedOpcode(IF->getInst().getOpcode());
121
122   if (RelaxedOp == IF->getInst().getOpcode()) {
123     SmallString<256> Tmp;
124     raw_svector_ostream OS(Tmp);
125     IF->getInst().dump_pretty(OS);
126     report_fatal_error("unexpected instruction to relax: " + OS.str());
127   }
128
129   Res = IF->getInst();
130   Res.setOpcode(RelaxedOp);
131 }
132
133 /// WriteNopData - Write optimal nops to the output file for the \arg Count
134 /// bytes.  This returns the number of bytes written.  It may return 0 if
135 /// the \arg Count is more than the maximum optimal nops.
136 ///
137 /// FIXME this is X86 32-bit specific and should move to a better place.
138 bool X86AsmBackend::WriteNopData(uint64_t Count, MCObjectWriter *OW) const {
139   static const uint8_t Nops[16][16] = {
140     // nop
141     {0x90},
142     // xchg %ax,%ax
143     {0x66, 0x90},
144     // nopl (%[re]ax)
145     {0x0f, 0x1f, 0x00},
146     // nopl 0(%[re]ax)
147     {0x0f, 0x1f, 0x40, 0x00},
148     // nopl 0(%[re]ax,%[re]ax,1)
149     {0x0f, 0x1f, 0x44, 0x00, 0x00},
150     // nopw 0(%[re]ax,%[re]ax,1)
151     {0x66, 0x0f, 0x1f, 0x44, 0x00, 0x00},
152     // nopl 0L(%[re]ax)
153     {0x0f, 0x1f, 0x80, 0x00, 0x00, 0x00, 0x00},
154     // nopl 0L(%[re]ax,%[re]ax,1)
155     {0x0f, 0x1f, 0x84, 0x00, 0x00, 0x00, 0x00, 0x00},
156     // nopw 0L(%[re]ax,%[re]ax,1)
157     {0x66, 0x0f, 0x1f, 0x84, 0x00, 0x00, 0x00, 0x00, 0x00},
158     // nopw %cs:0L(%[re]ax,%[re]ax,1)
159     {0x66, 0x2e, 0x0f, 0x1f, 0x84, 0x00, 0x00, 0x00, 0x00, 0x00},
160     // nopl 0(%[re]ax,%[re]ax,1)
161     // nopw 0(%[re]ax,%[re]ax,1)
162     {0x0f, 0x1f, 0x44, 0x00, 0x00,
163      0x66, 0x0f, 0x1f, 0x44, 0x00, 0x00},
164     // nopw 0(%[re]ax,%[re]ax,1)
165     // nopw 0(%[re]ax,%[re]ax,1)
166     {0x66, 0x0f, 0x1f, 0x44, 0x00, 0x00,
167      0x66, 0x0f, 0x1f, 0x44, 0x00, 0x00},
168     // nopw 0(%[re]ax,%[re]ax,1)
169     // nopl 0L(%[re]ax) */
170     {0x66, 0x0f, 0x1f, 0x44, 0x00, 0x00,
171      0x0f, 0x1f, 0x80, 0x00, 0x00, 0x00, 0x00},
172     // nopl 0L(%[re]ax)
173     // nopl 0L(%[re]ax)
174     {0x0f, 0x1f, 0x80, 0x00, 0x00, 0x00, 0x00,
175      0x0f, 0x1f, 0x80, 0x00, 0x00, 0x00, 0x00},
176     // nopl 0L(%[re]ax)
177     // nopl 0L(%[re]ax,%[re]ax,1)
178     {0x0f, 0x1f, 0x80, 0x00, 0x00, 0x00, 0x00,
179      0x0f, 0x1f, 0x84, 0x00, 0x00, 0x00, 0x00, 0x00}
180   };
181
182   // Write an optimal sequence for the first 15 bytes.
183   uint64_t OptimalCount = (Count < 16) ? Count : 15;
184   for (uint64_t i = 0, e = OptimalCount; i != e; i++)
185     OW->Write8(Nops[OptimalCount - 1][i]);
186
187   // Finish with single byte nops.
188   for (uint64_t i = OptimalCount, e = Count; i != e; ++i)
189    OW->Write8(0x90);
190
191   return true;
192 }
193
194 /* *** */
195
196 class ELFX86AsmBackend : public X86AsmBackend {
197 public:
198   ELFX86AsmBackend(const Target &T)
199     : X86AsmBackend(T) {
200     HasAbsolutizedSet = true;
201     HasScatteredSymbols = true;
202   }
203
204   MCObjectWriter *createObjectWriter(raw_ostream &OS) const {
205     return 0;
206   }
207
208   bool isVirtualSection(const MCSection &Section) const {
209     const MCSectionELF &SE = static_cast<const MCSectionELF&>(Section);
210     return SE.getType() == MCSectionELF::SHT_NOBITS;;
211   }
212 };
213
214 class DarwinX86AsmBackend : public X86AsmBackend {
215 public:
216   DarwinX86AsmBackend(const Target &T)
217     : X86AsmBackend(T) {
218     HasAbsolutizedSet = true;
219     HasScatteredSymbols = true;
220   }
221
222   bool isVirtualSection(const MCSection &Section) const {
223     const MCSectionMachO &SMO = static_cast<const MCSectionMachO&>(Section);
224     return (SMO.getType() == MCSectionMachO::S_ZEROFILL ||
225             SMO.getType() == MCSectionMachO::S_GB_ZEROFILL);
226   }
227 };
228
229 class DarwinX86_32AsmBackend : public DarwinX86AsmBackend {
230 public:
231   DarwinX86_32AsmBackend(const Target &T)
232     : DarwinX86AsmBackend(T) {}
233
234   MCObjectWriter *createObjectWriter(raw_ostream &OS) const {
235     return new MachObjectWriter(OS, /*Is64Bit=*/false);
236   }
237 };
238
239 class DarwinX86_64AsmBackend : public DarwinX86AsmBackend {
240 public:
241   DarwinX86_64AsmBackend(const Target &T)
242     : DarwinX86AsmBackend(T) {
243     HasReliableSymbolDifference = true;
244   }
245
246   MCObjectWriter *createObjectWriter(raw_ostream &OS) const {
247     return new MachObjectWriter(OS, /*Is64Bit=*/true);
248   }
249
250   virtual bool doesSectionRequireSymbols(const MCSection &Section) const {
251     // Temporary labels in the string literals sections require symbols. The
252     // issue is that the x86_64 relocation format does not allow symbol +
253     // offset, and so the linker does not have enough information to resolve the
254     // access to the appropriate atom unless an external relocation is used. For
255     // non-cstring sections, we expect the compiler to use a non-temporary label
256     // for anything that could have an addend pointing outside the symbol.
257     //
258     // See <rdar://problem/4765733>.
259     const MCSectionMachO &SMO = static_cast<const MCSectionMachO&>(Section);
260     return SMO.getType() == MCSectionMachO::S_CSTRING_LITERALS;
261   }
262 };
263
264 }
265
266 TargetAsmBackend *llvm::createX86_32AsmBackend(const Target &T,
267                                                const std::string &TT) {
268   switch (Triple(TT).getOS()) {
269   case Triple::Darwin:
270     return new DarwinX86_32AsmBackend(T);
271   default:
272     return new ELFX86AsmBackend(T);
273   }
274 }
275
276 TargetAsmBackend *llvm::createX86_64AsmBackend(const Target &T,
277                                                const std::string &TT) {
278   switch (Triple(TT).getOS()) {
279   case Triple::Darwin:
280     return new DarwinX86_64AsmBackend(T);
281   default:
282     return new ELFX86AsmBackend(T);
283   }
284 }