X86: Fix immediate type of FOO64i32 operations.
[oota-llvm.git] / lib / Target / X86 / X86AsmBackend.cpp
1 //===-- X86AsmBackend.cpp - X86 Assembler Backend -------------------------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9
10 #include "llvm/Target/TargetAsmBackend.h"
11 #include "X86.h"
12 #include "X86FixupKinds.h"
13 #include "llvm/ADT/Twine.h"
14 #include "llvm/MC/MCAssembler.h"
15 #include "llvm/MC/MCExpr.h"
16 #include "llvm/MC/MCObjectWriter.h"
17 #include "llvm/MC/MCSectionELF.h"
18 #include "llvm/MC/MCSectionMachO.h"
19 #include "llvm/MC/MachObjectWriter.h"
20 #include "llvm/Support/ErrorHandling.h"
21 #include "llvm/Support/raw_ostream.h"
22 #include "llvm/Target/TargetRegistry.h"
23 #include "llvm/Target/TargetAsmBackend.h"
24 using namespace llvm;
25
26 namespace {
27
28 static unsigned getFixupKindLog2Size(unsigned Kind) {
29   switch (Kind) {
30   default: assert(0 && "invalid fixup kind!");
31   case X86::reloc_pcrel_1byte:
32   case FK_Data_1: return 0;
33   case FK_Data_2: return 1;
34   case X86::reloc_pcrel_4byte:
35   case X86::reloc_riprel_4byte:
36   case X86::reloc_riprel_4byte_movq_load:
37   case FK_Data_4: return 2;
38   case FK_Data_8: return 3;
39   }
40 }
41
42 class X86AsmBackend : public TargetAsmBackend {
43 public:
44   X86AsmBackend(const Target &T)
45     : TargetAsmBackend(T) {}
46
47   void ApplyFixup(const MCAsmFixup &Fixup, MCDataFragment &DF,
48                   uint64_t Value) const {
49     unsigned Size = 1 << getFixupKindLog2Size(Fixup.Kind);
50
51     assert(Fixup.Offset + Size <= DF.getContents().size() &&
52            "Invalid fixup offset!");
53     for (unsigned i = 0; i != Size; ++i)
54       DF.getContents()[Fixup.Offset + i] = uint8_t(Value >> (i * 8));
55   }
56
57   bool MayNeedRelaxation(const MCInst &Inst,
58                          const SmallVectorImpl<MCAsmFixup> &Fixups) const;
59
60   void RelaxInstruction(const MCInstFragment *IF, MCInst &Res) const;
61
62   bool WriteNopData(uint64_t Count, MCObjectWriter *OW) const;
63 };
64
65 static unsigned getRelaxedOpcode(unsigned Op) {
66   switch (Op) {
67   default:
68     return Op;
69
70   case X86::JAE_1: return X86::JAE_4;
71   case X86::JA_1:  return X86::JA_4;
72   case X86::JBE_1: return X86::JBE_4;
73   case X86::JB_1:  return X86::JB_4;
74   case X86::JE_1:  return X86::JE_4;
75   case X86::JGE_1: return X86::JGE_4;
76   case X86::JG_1:  return X86::JG_4;
77   case X86::JLE_1: return X86::JLE_4;
78   case X86::JL_1:  return X86::JL_4;
79   case X86::TAILJMP_1:
80   case X86::JMP_1: return X86::JMP_4;
81   case X86::JNE_1: return X86::JNE_4;
82   case X86::JNO_1: return X86::JNO_4;
83   case X86::JNP_1: return X86::JNP_4;
84   case X86::JNS_1: return X86::JNS_4;
85   case X86::JO_1:  return X86::JO_4;
86   case X86::JP_1:  return X86::JP_4;
87   case X86::JS_1:  return X86::JS_4;
88   }
89 }
90
91 bool X86AsmBackend::MayNeedRelaxation(const MCInst &Inst,
92                               const SmallVectorImpl<MCAsmFixup> &Fixups) const {
93   for (unsigned i = 0, e = Fixups.size(); i != e; ++i) {
94     // We don't support relaxing anything else currently. Make sure we error out
95     // if we see a non-constant 1 or 2 byte fixup.
96     //
97     // FIXME: We should need to check this here, this is better checked in the
98     // object writer which should be verifying that any final relocations match
99     // the expected fixup. However, that code is more complicated and hasn't
100     // been written yet. See the FIXMEs in MachObjectWriter.cpp.
101     if ((Fixups[i].Kind == FK_Data_1 || Fixups[i].Kind == FK_Data_2) &&
102         !isa<MCConstantExpr>(Fixups[i].Value))
103       report_fatal_error("unexpected small fixup with a non-constant operand!");
104
105     // Check for a 1byte pcrel fixup, and enforce that we would know how to
106     // relax this instruction.
107     if (unsigned(Fixups[i].Kind) == X86::reloc_pcrel_1byte) {
108       assert(getRelaxedOpcode(Inst.getOpcode()) != Inst.getOpcode());
109       return true;
110     }
111   }
112
113   return false;
114 }
115
116 // FIXME: Can tblgen help at all here to verify there aren't other instructions
117 // we can relax?
118 void X86AsmBackend::RelaxInstruction(const MCInstFragment *IF,
119                                      MCInst &Res) const {
120   // The only relaxations X86 does is from a 1byte pcrel to a 4byte pcrel.
121   unsigned RelaxedOp = getRelaxedOpcode(IF->getInst().getOpcode());
122
123   if (RelaxedOp == IF->getInst().getOpcode()) {
124     SmallString<256> Tmp;
125     raw_svector_ostream OS(Tmp);
126     IF->getInst().dump_pretty(OS);
127     report_fatal_error("unexpected instruction to relax: " + OS.str());
128   }
129
130   Res = IF->getInst();
131   Res.setOpcode(RelaxedOp);
132 }
133
134 /// WriteNopData - Write optimal nops to the output file for the \arg Count
135 /// bytes.  This returns the number of bytes written.  It may return 0 if
136 /// the \arg Count is more than the maximum optimal nops.
137 ///
138 /// FIXME this is X86 32-bit specific and should move to a better place.
139 bool X86AsmBackend::WriteNopData(uint64_t Count, MCObjectWriter *OW) const {
140   static const uint8_t Nops[16][16] = {
141     // nop
142     {0x90},
143     // xchg %ax,%ax
144     {0x66, 0x90},
145     // nopl (%[re]ax)
146     {0x0f, 0x1f, 0x00},
147     // nopl 0(%[re]ax)
148     {0x0f, 0x1f, 0x40, 0x00},
149     // nopl 0(%[re]ax,%[re]ax,1)
150     {0x0f, 0x1f, 0x44, 0x00, 0x00},
151     // nopw 0(%[re]ax,%[re]ax,1)
152     {0x66, 0x0f, 0x1f, 0x44, 0x00, 0x00},
153     // nopl 0L(%[re]ax)
154     {0x0f, 0x1f, 0x80, 0x00, 0x00, 0x00, 0x00},
155     // nopl 0L(%[re]ax,%[re]ax,1)
156     {0x0f, 0x1f, 0x84, 0x00, 0x00, 0x00, 0x00, 0x00},
157     // nopw 0L(%[re]ax,%[re]ax,1)
158     {0x66, 0x0f, 0x1f, 0x84, 0x00, 0x00, 0x00, 0x00, 0x00},
159     // nopw %cs:0L(%[re]ax,%[re]ax,1)
160     {0x66, 0x2e, 0x0f, 0x1f, 0x84, 0x00, 0x00, 0x00, 0x00, 0x00},
161     // nopl 0(%[re]ax,%[re]ax,1)
162     // nopw 0(%[re]ax,%[re]ax,1)
163     {0x0f, 0x1f, 0x44, 0x00, 0x00,
164      0x66, 0x0f, 0x1f, 0x44, 0x00, 0x00},
165     // nopw 0(%[re]ax,%[re]ax,1)
166     // nopw 0(%[re]ax,%[re]ax,1)
167     {0x66, 0x0f, 0x1f, 0x44, 0x00, 0x00,
168      0x66, 0x0f, 0x1f, 0x44, 0x00, 0x00},
169     // nopw 0(%[re]ax,%[re]ax,1)
170     // nopl 0L(%[re]ax) */
171     {0x66, 0x0f, 0x1f, 0x44, 0x00, 0x00,
172      0x0f, 0x1f, 0x80, 0x00, 0x00, 0x00, 0x00},
173     // nopl 0L(%[re]ax)
174     // nopl 0L(%[re]ax)
175     {0x0f, 0x1f, 0x80, 0x00, 0x00, 0x00, 0x00,
176      0x0f, 0x1f, 0x80, 0x00, 0x00, 0x00, 0x00},
177     // nopl 0L(%[re]ax)
178     // nopl 0L(%[re]ax,%[re]ax,1)
179     {0x0f, 0x1f, 0x80, 0x00, 0x00, 0x00, 0x00,
180      0x0f, 0x1f, 0x84, 0x00, 0x00, 0x00, 0x00, 0x00}
181   };
182
183   // Write an optimal sequence for the first 15 bytes.
184   uint64_t OptimalCount = (Count < 16) ? Count : 15;
185   for (uint64_t i = 0, e = OptimalCount; i != e; i++)
186     OW->Write8(Nops[OptimalCount - 1][i]);
187
188   // Finish with single byte nops.
189   for (uint64_t i = OptimalCount, e = Count; i != e; ++i)
190    OW->Write8(0x90);
191
192   return true;
193 }
194
195 /* *** */
196
197 class ELFX86AsmBackend : public X86AsmBackend {
198 public:
199   ELFX86AsmBackend(const Target &T)
200     : X86AsmBackend(T) {
201     HasAbsolutizedSet = true;
202     HasScatteredSymbols = true;
203   }
204
205   MCObjectWriter *createObjectWriter(raw_ostream &OS) const {
206     return 0;
207   }
208
209   bool isVirtualSection(const MCSection &Section) const {
210     const MCSectionELF &SE = static_cast<const MCSectionELF&>(Section);
211     return SE.getType() == MCSectionELF::SHT_NOBITS;;
212   }
213 };
214
215 class DarwinX86AsmBackend : public X86AsmBackend {
216 public:
217   DarwinX86AsmBackend(const Target &T)
218     : X86AsmBackend(T) {
219     HasAbsolutizedSet = true;
220     HasScatteredSymbols = true;
221   }
222
223   bool isVirtualSection(const MCSection &Section) const {
224     const MCSectionMachO &SMO = static_cast<const MCSectionMachO&>(Section);
225     return (SMO.getType() == MCSectionMachO::S_ZEROFILL ||
226             SMO.getType() == MCSectionMachO::S_GB_ZEROFILL ||
227             SMO.getType() == MCSectionMachO::S_THREAD_LOCAL_ZEROFILL);
228   }
229 };
230
231 class DarwinX86_32AsmBackend : public DarwinX86AsmBackend {
232 public:
233   DarwinX86_32AsmBackend(const Target &T)
234     : DarwinX86AsmBackend(T) {}
235
236   MCObjectWriter *createObjectWriter(raw_ostream &OS) const {
237     return new MachObjectWriter(OS, /*Is64Bit=*/false);
238   }
239 };
240
241 class DarwinX86_64AsmBackend : public DarwinX86AsmBackend {
242 public:
243   DarwinX86_64AsmBackend(const Target &T)
244     : DarwinX86AsmBackend(T) {
245     HasReliableSymbolDifference = true;
246   }
247
248   MCObjectWriter *createObjectWriter(raw_ostream &OS) const {
249     return new MachObjectWriter(OS, /*Is64Bit=*/true);
250   }
251
252   virtual bool doesSectionRequireSymbols(const MCSection &Section) const {
253     // Temporary labels in the string literals sections require symbols. The
254     // issue is that the x86_64 relocation format does not allow symbol +
255     // offset, and so the linker does not have enough information to resolve the
256     // access to the appropriate atom unless an external relocation is used. For
257     // non-cstring sections, we expect the compiler to use a non-temporary label
258     // for anything that could have an addend pointing outside the symbol.
259     //
260     // See <rdar://problem/4765733>.
261     const MCSectionMachO &SMO = static_cast<const MCSectionMachO&>(Section);
262     return SMO.getType() == MCSectionMachO::S_CSTRING_LITERALS;
263   }
264
265   virtual bool isSectionAtomizable(const MCSection &Section) const {
266     const MCSectionMachO &SMO = static_cast<const MCSectionMachO&>(Section);
267     // Fixed sized data sections are uniqued, they cannot be diced into atoms.
268     switch (SMO.getType()) {
269     default:
270       return true;
271
272     case MCSectionMachO::S_4BYTE_LITERALS:
273     case MCSectionMachO::S_8BYTE_LITERALS:
274     case MCSectionMachO::S_16BYTE_LITERALS:
275     case MCSectionMachO::S_LITERAL_POINTERS:
276     case MCSectionMachO::S_NON_LAZY_SYMBOL_POINTERS:
277     case MCSectionMachO::S_LAZY_SYMBOL_POINTERS:
278     case MCSectionMachO::S_MOD_INIT_FUNC_POINTERS:
279     case MCSectionMachO::S_MOD_TERM_FUNC_POINTERS:
280     case MCSectionMachO::S_INTERPOSING:
281       return false;
282     }
283   }
284 };
285
286 }
287
288 TargetAsmBackend *llvm::createX86_32AsmBackend(const Target &T,
289                                                const std::string &TT) {
290   switch (Triple(TT).getOS()) {
291   case Triple::Darwin:
292     return new DarwinX86_32AsmBackend(T);
293   default:
294     return new ELFX86AsmBackend(T);
295   }
296 }
297
298 TargetAsmBackend *llvm::createX86_64AsmBackend(const Target &T,
299                                                const std::string &TT) {
300   switch (Triple(TT).getOS()) {
301   case Triple::Darwin:
302     return new DarwinX86_64AsmBackend(T);
303   default:
304     return new ELFX86AsmBackend(T);
305   }
306 }