Improve logic that decides if its profitable to commute when some of the virtual...
[oota-llvm.git] / test / CodeGen / X86 / sse41.ll
1 ; RUN: llc < %s -mtriple=i686-apple-darwin9 -mattr=sse4.1 -mcpu=penryn | FileCheck %s --check-prefix=X32
2 ; RUN: llc < %s -mtriple=x86_64-apple-darwin9 -mattr=sse4.1 -mcpu=penryn | FileCheck %s --check-prefix=X64
3
4 @g16 = external global i16
5
6 define <4 x i32> @pinsrd_1(i32 %s, <4 x i32> %tmp) nounwind {
7 ; X32-LABEL: pinsrd_1:
8 ; X32:       ## BB#0:
9 ; X32-NEXT:    pinsrd $1, {{[0-9]+}}(%esp), %xmm0
10 ; X32-NEXT:    retl
11 ;
12 ; X64-LABEL: pinsrd_1:
13 ; X64:       ## BB#0:
14 ; X64-NEXT:    pinsrd $1, %edi, %xmm0
15 ; X64-NEXT:    retq
16   %tmp1 = insertelement <4 x i32> %tmp, i32 %s, i32 1
17   ret <4 x i32> %tmp1
18 }
19
20 define <16 x i8> @pinsrb_1(i8 %s, <16 x i8> %tmp) nounwind {
21 ; X32-LABEL: pinsrb_1:
22 ; X32:       ## BB#0:
23 ; X32-NEXT:    pinsrb $1, {{[0-9]+}}(%esp), %xmm0
24 ; X32-NEXT:    retl
25 ;
26 ; X64-LABEL: pinsrb_1:
27 ; X64:       ## BB#0:
28 ; X64-NEXT:    pinsrb $1, %edi, %xmm0
29 ; X64-NEXT:    retq
30   %tmp1 = insertelement <16 x i8> %tmp, i8 %s, i32 1
31   ret <16 x i8> %tmp1
32 }
33
34 define <2 x i64> @pmovsxbd_1(i32* %p) nounwind {
35 ; X32-LABEL: pmovsxbd_1:
36 ; X32:       ## BB#0: ## %entry
37 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
38 ; X32-NEXT:    pmovsxbd (%eax), %xmm0
39 ; X32-NEXT:    retl
40 ;
41 ; X64-LABEL: pmovsxbd_1:
42 ; X64:       ## BB#0: ## %entry
43 ; X64-NEXT:    pmovsxbd (%rdi), %xmm0
44 ; X64-NEXT:    retq
45 entry:
46         %0 = load i32* %p, align 4
47         %1 = insertelement <4 x i32> undef, i32 %0, i32 0
48         %2 = insertelement <4 x i32> %1, i32 0, i32 1
49         %3 = insertelement <4 x i32> %2, i32 0, i32 2
50         %4 = insertelement <4 x i32> %3, i32 0, i32 3
51         %5 = bitcast <4 x i32> %4 to <16 x i8>
52         %6 = tail call <4 x i32> @llvm.x86.sse41.pmovsxbd(<16 x i8> %5) nounwind readnone
53         %7 = bitcast <4 x i32> %6 to <2 x i64>
54         ret <2 x i64> %7
55 }
56
57 define <2 x i64> @pmovsxwd_1(i64* %p) nounwind readonly {
58 ; X32-LABEL: pmovsxwd_1:
59 ; X32:       ## BB#0: ## %entry
60 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
61 ; X32-NEXT:    pmovsxwd (%eax), %xmm0
62 ; X32-NEXT:    retl
63 ;
64 ; X64-LABEL: pmovsxwd_1:
65 ; X64:       ## BB#0: ## %entry
66 ; X64-NEXT:    pmovsxwd (%rdi), %xmm0
67 ; X64-NEXT:    retq
68 entry:
69         %0 = load i64* %p               ; <i64> [#uses=1]
70         %tmp2 = insertelement <2 x i64> zeroinitializer, i64 %0, i32 0          ; <<2 x i64>> [#uses=1]
71         %1 = bitcast <2 x i64> %tmp2 to <8 x i16>               ; <<8 x i16>> [#uses=1]
72         %2 = tail call <4 x i32> @llvm.x86.sse41.pmovsxwd(<8 x i16> %1) nounwind readnone               ; <<4 x i32>> [#uses=1]
73         %3 = bitcast <4 x i32> %2 to <2 x i64>          ; <<2 x i64>> [#uses=1]
74         ret <2 x i64> %3
75 }
76
77 define <2 x i64> @pmovzxbq_1() nounwind {
78 ; X32-LABEL: pmovzxbq_1:
79 ; X32:       ## BB#0: ## %entry
80 ; X32-NEXT:    movl L_g16$non_lazy_ptr, %eax
81 ; X32-NEXT:    pmovzxbq (%eax), %xmm0
82 ; X32-NEXT:    retl
83 ;
84 ; X64-LABEL: pmovzxbq_1:
85 ; X64:       ## BB#0: ## %entry
86 ; X64-NEXT:    movq _g16@{{.*}}(%rip), %rax
87 ; X64-NEXT:    pmovzxbq (%rax), %xmm0
88 ; X64-NEXT:    retq
89 entry:
90         %0 = load i16* @g16, align 2            ; <i16> [#uses=1]
91         %1 = insertelement <8 x i16> undef, i16 %0, i32 0               ; <<8 x i16>> [#uses=1]
92         %2 = bitcast <8 x i16> %1 to <16 x i8>          ; <<16 x i8>> [#uses=1]
93         %3 = tail call <2 x i64> @llvm.x86.sse41.pmovzxbq(<16 x i8> %2) nounwind readnone               ; <<2 x i64>> [#uses=1]
94         ret <2 x i64> %3
95 }
96
97 declare <4 x i32> @llvm.x86.sse41.pmovsxbd(<16 x i8>) nounwind readnone
98 declare <4 x i32> @llvm.x86.sse41.pmovsxwd(<8 x i16>) nounwind readnone
99 declare <2 x i64> @llvm.x86.sse41.pmovzxbq(<16 x i8>) nounwind readnone
100
101 define i32 @extractps_1(<4 x float> %v) nounwind {
102 ; X32-LABEL: extractps_1:
103 ; X32:       ## BB#0:
104 ; X32-NEXT:    extractps $3, %xmm0, %eax
105 ; X32-NEXT:    retl
106 ;
107 ; X64-LABEL: extractps_1:
108 ; X64:       ## BB#0:
109 ; X64-NEXT:    extractps $3, %xmm0, %eax
110 ; X64-NEXT:    retq
111   %s = extractelement <4 x float> %v, i32 3
112   %i = bitcast float %s to i32
113   ret i32 %i
114 }
115 define i32 @extractps_2(<4 x float> %v) nounwind {
116 ; X32-LABEL: extractps_2:
117 ; X32:       ## BB#0:
118 ; X32-NEXT:    extractps $3, %xmm0, %eax
119 ; X32-NEXT:    retl
120 ;
121 ; X64-LABEL: extractps_2:
122 ; X64:       ## BB#0:
123 ; X64-NEXT:    extractps $3, %xmm0, %eax
124 ; X64-NEXT:    retq
125   %t = bitcast <4 x float> %v to <4 x i32>
126   %s = extractelement <4 x i32> %t, i32 3
127   ret i32 %s
128 }
129
130
131 ; The non-store form of extractps puts its result into a GPR.
132 ; This makes it suitable for an extract from a <4 x float> that
133 ; is bitcasted to i32, but unsuitable for much of anything else.
134
135 define float @ext_1(<4 x float> %v) nounwind {
136 ; X32-LABEL: ext_1:
137 ; X32:       ## BB#0:
138 ; X32-NEXT:    pushl %eax
139 ; X32-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
140 ; X32-NEXT:    addss LCPI7_0, %xmm0
141 ; X32-NEXT:    movss %xmm0, (%esp)
142 ; X32-NEXT:    flds (%esp)
143 ; X32-NEXT:    popl %eax
144 ; X32-NEXT:    retl
145 ;
146 ; X64-LABEL: ext_1:
147 ; X64:       ## BB#0:
148 ; X64-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
149 ; X64-NEXT:    addss {{.*}}(%rip), %xmm0
150 ; X64-NEXT:    retq
151   %s = extractelement <4 x float> %v, i32 3
152   %t = fadd float %s, 1.0
153   ret float %t
154 }
155 define float @ext_2(<4 x float> %v) nounwind {
156 ; X32-LABEL: ext_2:
157 ; X32:       ## BB#0:
158 ; X32-NEXT:    pushl %eax
159 ; X32-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
160 ; X32-NEXT:    movss %xmm0, (%esp)
161 ; X32-NEXT:    flds (%esp)
162 ; X32-NEXT:    popl %eax
163 ; X32-NEXT:    retl
164 ;
165 ; X64-LABEL: ext_2:
166 ; X64:       ## BB#0:
167 ; X64-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
168 ; X64-NEXT:    retq
169   %s = extractelement <4 x float> %v, i32 3
170   ret float %s
171 }
172 define i32 @ext_3(<4 x i32> %v) nounwind {
173 ; X32-LABEL: ext_3:
174 ; X32:       ## BB#0:
175 ; X32-NEXT:    pextrd $3, %xmm0, %eax
176 ; X32-NEXT:    retl
177 ;
178 ; X64-LABEL: ext_3:
179 ; X64:       ## BB#0:
180 ; X64-NEXT:    pextrd $3, %xmm0, %eax
181 ; X64-NEXT:    retq
182   %i = extractelement <4 x i32> %v, i32 3
183   ret i32 %i
184 }
185
186 define <4 x float> @insertps_1(<4 x float> %t1, <4 x float> %t2) nounwind {
187 ; X32-LABEL: insertps_1:
188 ; X32:       ## BB#0:
189 ; X32-NEXT:    insertps {{.*#+}} xmm0 = zero,xmm0[1,2,3]
190 ; X32-NEXT:    retl
191 ;
192 ; X64-LABEL: insertps_1:
193 ; X64:       ## BB#0:
194 ; X64-NEXT:    insertps {{.*#+}} xmm0 = zero,xmm0[1,2,3]
195 ; X64-NEXT:    retq
196   %tmp1 = call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %t1, <4 x float> %t2, i32 1) nounwind readnone
197   ret <4 x float> %tmp1
198 }
199
200 declare <4 x float> @llvm.x86.sse41.insertps(<4 x float>, <4 x float>, i32) nounwind readnone
201
202 define <4 x float> @insertps_2(<4 x float> %t1, float %t2) nounwind {
203 ; X32-LABEL: insertps_2:
204 ; X32:       ## BB#0:
205 ; X32-NEXT:    insertps $0, {{[0-9]+}}(%esp), %xmm0
206 ; X32-NEXT:    retl
207 ;
208 ; X64-LABEL: insertps_2:
209 ; X64:       ## BB#0:
210 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm1[0],xmm0[1,2,3]
211 ; X64-NEXT:    retq
212   %tmp1 = insertelement <4 x float> %t1, float %t2, i32 0
213   ret <4 x float> %tmp1
214 }
215 define <4 x float> @insertps_3(<4 x float> %t1, <4 x float> %t2) nounwind {
216 ; X32-LABEL: insertps_3:
217 ; X32:       ## BB#0:
218 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm1[0],xmm0[1,2,3]
219 ; X32-NEXT:    retl
220 ;
221 ; X64-LABEL: insertps_3:
222 ; X64:       ## BB#0:
223 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm1[0],xmm0[1,2,3]
224 ; X64-NEXT:    retq
225   %tmp2 = extractelement <4 x float> %t2, i32 0
226   %tmp1 = insertelement <4 x float> %t1, float %tmp2, i32 0
227   ret <4 x float> %tmp1
228 }
229
230 define i32 @ptestz_1(<2 x i64> %t1, <2 x i64> %t2) nounwind {
231 ; X32-LABEL: ptestz_1:
232 ; X32:       ## BB#0:
233 ; X32-NEXT:    ptest %xmm1, %xmm0
234 ; X32-NEXT:    sete %al
235 ; X32-NEXT:    movzbl %al, %eax
236 ; X32-NEXT:    retl
237 ;
238 ; X64-LABEL: ptestz_1:
239 ; X64:       ## BB#0:
240 ; X64-NEXT:    ptest %xmm1, %xmm0
241 ; X64-NEXT:    sete %al
242 ; X64-NEXT:    movzbl %al, %eax
243 ; X64-NEXT:    retq
244   %tmp1 = call i32 @llvm.x86.sse41.ptestz(<2 x i64> %t1, <2 x i64> %t2) nounwind readnone
245   ret i32 %tmp1
246 }
247
248 define i32 @ptestz_2(<2 x i64> %t1, <2 x i64> %t2) nounwind {
249 ; X32-LABEL: ptestz_2:
250 ; X32:       ## BB#0:
251 ; X32-NEXT:    ptest %xmm1, %xmm0
252 ; X32-NEXT:    sbbl %eax, %eax
253 ; X32-NEXT:    andl $1, %eax
254 ; X32-NEXT:    retl
255 ;
256 ; X64-LABEL: ptestz_2:
257 ; X64:       ## BB#0:
258 ; X64-NEXT:    ptest %xmm1, %xmm0
259 ; X64-NEXT:    sbbl %eax, %eax
260 ; X64-NEXT:    andl $1, %eax
261 ; X64-NEXT:    retq
262   %tmp1 = call i32 @llvm.x86.sse41.ptestc(<2 x i64> %t1, <2 x i64> %t2) nounwind readnone
263   ret i32 %tmp1
264 }
265
266 define i32 @ptestz_3(<2 x i64> %t1, <2 x i64> %t2) nounwind {
267 ; X32-LABEL: ptestz_3:
268 ; X32:       ## BB#0:
269 ; X32-NEXT:    ptest %xmm1, %xmm0
270 ; X32-NEXT:    seta %al
271 ; X32-NEXT:    movzbl %al, %eax
272 ; X32-NEXT:    retl
273 ;
274 ; X64-LABEL: ptestz_3:
275 ; X64:       ## BB#0:
276 ; X64-NEXT:    ptest %xmm1, %xmm0
277 ; X64-NEXT:    seta %al
278 ; X64-NEXT:    movzbl %al, %eax
279 ; X64-NEXT:    retq
280   %tmp1 = call i32 @llvm.x86.sse41.ptestnzc(<2 x i64> %t1, <2 x i64> %t2) nounwind readnone
281   ret i32 %tmp1
282 }
283
284
285 declare i32 @llvm.x86.sse41.ptestz(<2 x i64>, <2 x i64>) nounwind readnone
286 declare i32 @llvm.x86.sse41.ptestc(<2 x i64>, <2 x i64>) nounwind readnone
287 declare i32 @llvm.x86.sse41.ptestnzc(<2 x i64>, <2 x i64>) nounwind readnone
288
289 ; This used to compile to insertps $0  + insertps $16.  insertps $0 is always
290 ; pointless.
291 define <2 x float> @buildvector(<2 x float> %A, <2 x float> %B) nounwind  {
292 ; X32-LABEL: buildvector:
293 ; X32:       ## BB#0: ## %entry
294 ; X32-NEXT:    movaps %xmm0, %xmm2
295 ; X32-NEXT:    shufps {{.*#+}} xmm2 = xmm2[1,1,2,3]
296 ; X32-NEXT:    addss %xmm1, %xmm0
297 ; X32-NEXT:    shufps {{.*#+}} xmm1 = xmm1[1,1,2,3]
298 ; X32-NEXT:    addss %xmm2, %xmm1
299 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[2,3]
300 ; X32-NEXT:    retl
301 ;
302 ; X64-LABEL: buildvector:
303 ; X64:       ## BB#0: ## %entry
304 ; X64-NEXT:    movaps %xmm0, %xmm2
305 ; X64-NEXT:    shufps {{.*#+}} xmm2 = xmm2[1,1,2,3]
306 ; X64-NEXT:    addss %xmm1, %xmm0
307 ; X64-NEXT:    shufps {{.*#+}} xmm1 = xmm1[1,1,2,3]
308 ; X64-NEXT:    addss %xmm2, %xmm1
309 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[2,3]
310 ; X64-NEXT:    retq
311 entry:
312   %tmp7 = extractelement <2 x float> %A, i32 0
313   %tmp5 = extractelement <2 x float> %A, i32 1
314   %tmp3 = extractelement <2 x float> %B, i32 0
315   %tmp1 = extractelement <2 x float> %B, i32 1
316   %add.r = fadd float %tmp7, %tmp3
317   %add.i = fadd float %tmp5, %tmp1
318   %tmp11 = insertelement <2 x float> undef, float %add.r, i32 0
319   %tmp9 = insertelement <2 x float> %tmp11, float %add.i, i32 1
320   ret <2 x float> %tmp9
321 }
322
323 define <4 x float> @insertps_from_shufflevector_1(<4 x float> %a, <4 x float>* nocapture readonly %pb) {
324 ; X32-LABEL: insertps_from_shufflevector_1:
325 ; X32:       ## BB#0: ## %entry
326 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
327 ; X32-NEXT:    insertps $48, (%eax), %xmm0
328 ; X32-NEXT:    retl
329 ;
330 ; X64-LABEL: insertps_from_shufflevector_1:
331 ; X64:       ## BB#0: ## %entry
332 ; X64-NEXT:    insertps $48, (%rdi), %xmm0
333 ; X64-NEXT:    retq
334 entry:
335   %0 = load <4 x float>* %pb, align 16
336   %vecinit6 = shufflevector <4 x float> %a, <4 x float> %0, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
337   ret <4 x float> %vecinit6
338 }
339
340 define <4 x float> @insertps_from_shufflevector_2(<4 x float> %a, <4 x float> %b) {
341 ; X32-LABEL: insertps_from_shufflevector_2:
342 ; X32:       ## BB#0: ## %entry
343 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[1],xmm0[3]
344 ; X32-NEXT:    retl
345 ;
346 ; X64-LABEL: insertps_from_shufflevector_2:
347 ; X64:       ## BB#0: ## %entry
348 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[1],xmm0[3]
349 ; X64-NEXT:    retq
350 entry:
351   %vecinit6 = shufflevector <4 x float> %a, <4 x float> %b, <4 x i32> <i32 0, i32 1, i32 5, i32 3>
352   ret <4 x float> %vecinit6
353 }
354
355 ; For loading an i32 from memory into an xmm register we use pinsrd
356 ; instead of insertps
357 define <4 x i32> @pinsrd_from_shufflevector_i32(<4 x i32> %a, <4 x i32>* nocapture readonly %pb) {
358 ; X32-LABEL: pinsrd_from_shufflevector_i32:
359 ; X32:       ## BB#0: ## %entry
360 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
361 ; X32-NEXT:    insertps $48, (%eax), %xmm0
362 ; X32-NEXT:    retl
363 ;
364 ; X64-LABEL: pinsrd_from_shufflevector_i32:
365 ; X64:       ## BB#0: ## %entry
366 ; X64-NEXT:    insertps $48, (%rdi), %xmm0
367 ; X64-NEXT:    retq
368 entry:
369   %0 = load <4 x i32>* %pb, align 16
370   %vecinit6 = shufflevector <4 x i32> %a, <4 x i32> %0, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
371   ret <4 x i32> %vecinit6
372 }
373
374 define <4 x i32> @insertps_from_shufflevector_i32_2(<4 x i32> %a, <4 x i32> %b) {
375 ; X32-LABEL: insertps_from_shufflevector_i32_2:
376 ; X32:       ## BB#0: ## %entry
377 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[3],xmm0[2,3]
378 ; X32-NEXT:    retl
379 ;
380 ; X64-LABEL: insertps_from_shufflevector_i32_2:
381 ; X64:       ## BB#0: ## %entry
382 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],xmm1[3],xmm0[2,3]
383 ; X64-NEXT:    retq
384 entry:
385   %vecinit6 = shufflevector <4 x i32> %a, <4 x i32> %b, <4 x i32> <i32 0, i32 7, i32 2, i32 3>
386   ret <4 x i32> %vecinit6
387 }
388
389 define <4 x float> @insertps_from_load_ins_elt_undef(<4 x float> %a, float* %b) {
390 ; X32-LABEL: insertps_from_load_ins_elt_undef:
391 ; X32:       ## BB#0:
392 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
393 ; X32-NEXT:    insertps $16, (%eax), %xmm0
394 ; X32-NEXT:    retl
395 ;
396 ; X64-LABEL: insertps_from_load_ins_elt_undef:
397 ; X64:       ## BB#0:
398 ; X64-NEXT:    insertps $16, (%rdi), %xmm0
399 ; X64-NEXT:    retq
400   %1 = load float* %b, align 4
401   %2 = insertelement <4 x float> undef, float %1, i32 0
402   %result = shufflevector <4 x float> %a, <4 x float> %2, <4 x i32> <i32 0, i32 4, i32 2, i32 3>
403   ret <4 x float> %result
404 }
405
406 ; TODO: Like on pinsrd_from_shufflevector_i32, remove this mov instr
407 define <4 x i32> @insertps_from_load_ins_elt_undef_i32(<4 x i32> %a, i32* %b) {
408 ; X32-LABEL: insertps_from_load_ins_elt_undef_i32:
409 ; X32:       ## BB#0:
410 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
411 ; X32-NEXT:    movd (%eax), %xmm1
412 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[0],xmm0[3]
413 ; X32-NEXT:    retl
414 ;
415 ; X64-LABEL: insertps_from_load_ins_elt_undef_i32:
416 ; X64:       ## BB#0:
417 ; X64-NEXT:    movd (%rdi), %xmm1
418 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],xmm1[0],xmm0[3]
419 ; X64-NEXT:    retq
420   %1 = load i32* %b, align 4
421   %2 = insertelement <4 x i32> undef, i32 %1, i32 0
422   %result = shufflevector <4 x i32> %a, <4 x i32> %2, <4 x i32> <i32 0, i32 1, i32 4, i32 3>
423   ret <4 x i32> %result
424 }
425
426 ;;;;;; Shuffles optimizable with a single insertps instruction
427 define <4 x float> @shuf_XYZ0(<4 x float> %x, <4 x float> %a) {
428 ; X32-LABEL: shuf_XYZ0:
429 ; X32:       ## BB#0:
430 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],zero
431 ; X32-NEXT:    retl
432 ;
433 ; X64-LABEL: shuf_XYZ0:
434 ; X64:       ## BB#0:
435 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],zero
436 ; X64-NEXT:    retq
437   %vecext = extractelement <4 x float> %x, i32 0
438   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
439   %vecext1 = extractelement <4 x float> %x, i32 1
440   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
441   %vecext3 = extractelement <4 x float> %x, i32 2
442   %vecinit4 = insertelement <4 x float> %vecinit2, float %vecext3, i32 2
443   %vecinit5 = insertelement <4 x float> %vecinit4, float 0.0, i32 3
444   ret <4 x float> %vecinit5
445 }
446
447 define <4 x float> @shuf_XY00(<4 x float> %x, <4 x float> %a) {
448 ; X32-LABEL: shuf_XY00:
449 ; X32:       ## BB#0:
450 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],zero,zero
451 ; X32-NEXT:    retl
452 ;
453 ; X64-LABEL: shuf_XY00:
454 ; X64:       ## BB#0:
455 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],zero,zero
456 ; X64-NEXT:    retq
457   %vecext = extractelement <4 x float> %x, i32 0
458   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
459   %vecext1 = extractelement <4 x float> %x, i32 1
460   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
461   %vecinit3 = insertelement <4 x float> %vecinit2, float 0.0, i32 2
462   %vecinit4 = insertelement <4 x float> %vecinit3, float 0.0, i32 3
463   ret <4 x float> %vecinit4
464 }
465
466 define <4 x float> @shuf_XYY0(<4 x float> %x, <4 x float> %a) {
467 ; X32-LABEL: shuf_XYY0:
468 ; X32:       ## BB#0:
469 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
470 ; X32-NEXT:    retl
471 ;
472 ; X64-LABEL: shuf_XYY0:
473 ; X64:       ## BB#0:
474 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
475 ; X64-NEXT:    retq
476   %vecext = extractelement <4 x float> %x, i32 0
477   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
478   %vecext1 = extractelement <4 x float> %x, i32 1
479   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
480   %vecinit4 = insertelement <4 x float> %vecinit2, float %vecext1, i32 2
481   %vecinit5 = insertelement <4 x float> %vecinit4, float 0.0, i32 3
482   ret <4 x float> %vecinit5
483 }
484
485 define <4 x float> @shuf_XYW0(<4 x float> %x, <4 x float> %a) {
486 ; X32-LABEL: shuf_XYW0:
487 ; X32:       ## BB#0:
488 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
489 ; X32-NEXT:    retl
490 ;
491 ; X64-LABEL: shuf_XYW0:
492 ; X64:       ## BB#0:
493 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
494 ; X64-NEXT:    retq
495   %vecext = extractelement <4 x float> %x, i32 0
496   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
497   %vecext1 = extractelement <4 x float> %x, i32 1
498   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
499   %vecext2 = extractelement <4 x float> %x, i32 3
500   %vecinit3 = insertelement <4 x float> %vecinit2, float %vecext2, i32 2
501   %vecinit4 = insertelement <4 x float> %vecinit3, float 0.0, i32 3
502   ret <4 x float> %vecinit4
503 }
504
505 define <4 x float> @shuf_W00W(<4 x float> %x, <4 x float> %a) {
506 ; X32-LABEL: shuf_W00W:
507 ; X32:       ## BB#0:
508 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
509 ; X32-NEXT:    retl
510 ;
511 ; X64-LABEL: shuf_W00W:
512 ; X64:       ## BB#0:
513 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
514 ; X64-NEXT:    retq
515   %vecext = extractelement <4 x float> %x, i32 3
516   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
517   %vecinit2 = insertelement <4 x float> %vecinit, float 0.0, i32 1
518   %vecinit3 = insertelement <4 x float> %vecinit2, float 0.0, i32 2
519   %vecinit4 = insertelement <4 x float> %vecinit3, float %vecext, i32 3
520   ret <4 x float> %vecinit4
521 }
522
523 define <4 x float> @shuf_X00A(<4 x float> %x, <4 x float> %a) {
524 ; X32-LABEL: shuf_X00A:
525 ; X32:       ## BB#0:
526 ; X32-NEXT:    xorps %xmm2, %xmm2
527 ; X32-NEXT:    blendps {{.*#+}} xmm0 = xmm0[0],xmm2[1,2,3]
528 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],zero,zero,xmm1[0]
529 ; X32-NEXT:    retl
530 ;
531 ; X64-LABEL: shuf_X00A:
532 ; X64:       ## BB#0:
533 ; X64-NEXT:    xorps %xmm2, %xmm2
534 ; X64-NEXT:    blendps {{.*#+}} xmm0 = xmm0[0],xmm2[1,2,3]
535 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0],zero,zero,xmm1[0]
536 ; X64-NEXT:    retq
537   %vecext = extractelement <4 x float> %x, i32 0
538   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
539   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 1
540   %vecinit2 = insertelement <4 x float> %vecinit1, float 0.0, i32 2
541   %vecinit4 = shufflevector <4 x float> %vecinit2, <4 x float> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
542   ret <4 x float> %vecinit4
543 }
544
545 define <4 x float> @shuf_X00X(<4 x float> %x, <4 x float> %a) {
546 ; X32-LABEL: shuf_X00X:
547 ; X32:       ## BB#0:
548 ; X32-NEXT:    xorps %xmm1, %xmm1
549 ; X32-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
550 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0],zero,zero,xmm0[0]
551 ; X32-NEXT:    movaps %xmm1, %xmm0
552 ; X32-NEXT:    retl
553 ;
554 ; X64-LABEL: shuf_X00X:
555 ; X64:       ## BB#0:
556 ; X64-NEXT:    xorps %xmm1, %xmm1
557 ; X64-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
558 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0],zero,zero,xmm0[0]
559 ; X64-NEXT:    movaps %xmm1, %xmm0
560 ; X64-NEXT:    retq
561   %vecext = extractelement <4 x float> %x, i32 0
562   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
563   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 1
564   %vecinit2 = insertelement <4 x float> %vecinit1, float 0.0, i32 2
565   %vecinit4 = shufflevector <4 x float> %vecinit2, <4 x float> %x, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
566   ret <4 x float> %vecinit4
567 }
568
569 define <4 x float> @shuf_X0YC(<4 x float> %x, <4 x float> %a) {
570 ; X32-LABEL: shuf_X0YC:
571 ; X32:       ## BB#0:
572 ; X32-NEXT:    xorps %xmm2, %xmm2
573 ; X32-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
574 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0],zero,xmm0[1],zero
575 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
576 ; X32-NEXT:    movaps %xmm2, %xmm0
577 ; X32-NEXT:    retl
578 ;
579 ; X64-LABEL: shuf_X0YC:
580 ; X64:       ## BB#0:
581 ; X64-NEXT:    xorps %xmm2, %xmm2
582 ; X64-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
583 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0],zero,xmm0[1],zero
584 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
585 ; X64-NEXT:    movaps %xmm2, %xmm0
586 ; X64-NEXT:    retq
587   %vecext = extractelement <4 x float> %x, i32 0
588   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
589   %vecinit1 = insertelement <4 x float> %vecinit, float 0.0, i32 1
590   %vecinit3 = shufflevector <4 x float> %vecinit1, <4 x float> %x, <4 x i32> <i32 0, i32 1, i32 5, i32 undef>
591   %vecinit5 = shufflevector <4 x float> %vecinit3, <4 x float> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 6>
592   ret <4 x float> %vecinit5
593 }
594
595 define <4 x i32> @i32_shuf_XYZ0(<4 x i32> %x, <4 x i32> %a) {
596 ; X32-LABEL: i32_shuf_XYZ0:
597 ; X32:       ## BB#0:
598 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],zero
599 ; X32-NEXT:    retl
600 ;
601 ; X64-LABEL: i32_shuf_XYZ0:
602 ; X64:       ## BB#0:
603 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],zero
604 ; X64-NEXT:    retq
605   %vecext = extractelement <4 x i32> %x, i32 0
606   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
607   %vecext1 = extractelement <4 x i32> %x, i32 1
608   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
609   %vecext3 = extractelement <4 x i32> %x, i32 2
610   %vecinit4 = insertelement <4 x i32> %vecinit2, i32 %vecext3, i32 2
611   %vecinit5 = insertelement <4 x i32> %vecinit4, i32 0, i32 3
612   ret <4 x i32> %vecinit5
613 }
614
615 define <4 x i32> @i32_shuf_XY00(<4 x i32> %x, <4 x i32> %a) {
616 ; X32-LABEL: i32_shuf_XY00:
617 ; X32:       ## BB#0:
618 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],zero,zero
619 ; X32-NEXT:    retl
620 ;
621 ; X64-LABEL: i32_shuf_XY00:
622 ; X64:       ## BB#0:
623 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1],zero,zero
624 ; X64-NEXT:    retq
625   %vecext = extractelement <4 x i32> %x, i32 0
626   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
627   %vecext1 = extractelement <4 x i32> %x, i32 1
628   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
629   %vecinit3 = insertelement <4 x i32> %vecinit2, i32 0, i32 2
630   %vecinit4 = insertelement <4 x i32> %vecinit3, i32 0, i32 3
631   ret <4 x i32> %vecinit4
632 }
633
634 define <4 x i32> @i32_shuf_XYY0(<4 x i32> %x, <4 x i32> %a) {
635 ; X32-LABEL: i32_shuf_XYY0:
636 ; X32:       ## BB#0:
637 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
638 ; X32-NEXT:    retl
639 ;
640 ; X64-LABEL: i32_shuf_XYY0:
641 ; X64:       ## BB#0:
642 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,1],zero
643 ; X64-NEXT:    retq
644   %vecext = extractelement <4 x i32> %x, i32 0
645   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
646   %vecext1 = extractelement <4 x i32> %x, i32 1
647   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
648   %vecinit4 = insertelement <4 x i32> %vecinit2, i32 %vecext1, i32 2
649   %vecinit5 = insertelement <4 x i32> %vecinit4, i32 0, i32 3
650   ret <4 x i32> %vecinit5
651 }
652
653 define <4 x i32> @i32_shuf_XYW0(<4 x i32> %x, <4 x i32> %a) {
654 ; X32-LABEL: i32_shuf_XYW0:
655 ; X32:       ## BB#0:
656 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
657 ; X32-NEXT:    retl
658 ;
659 ; X64-LABEL: i32_shuf_XYW0:
660 ; X64:       ## BB#0:
661 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,3],zero
662 ; X64-NEXT:    retq
663   %vecext = extractelement <4 x i32> %x, i32 0
664   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
665   %vecext1 = extractelement <4 x i32> %x, i32 1
666   %vecinit2 = insertelement <4 x i32> %vecinit, i32 %vecext1, i32 1
667   %vecext2 = extractelement <4 x i32> %x, i32 3
668   %vecinit3 = insertelement <4 x i32> %vecinit2, i32 %vecext2, i32 2
669   %vecinit4 = insertelement <4 x i32> %vecinit3, i32 0, i32 3
670   ret <4 x i32> %vecinit4
671 }
672
673 define <4 x i32> @i32_shuf_W00W(<4 x i32> %x, <4 x i32> %a) {
674 ; X32-LABEL: i32_shuf_W00W:
675 ; X32:       ## BB#0:
676 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
677 ; X32-NEXT:    retl
678 ;
679 ; X64-LABEL: i32_shuf_W00W:
680 ; X64:       ## BB#0:
681 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[3],zero,zero,xmm0[3]
682 ; X64-NEXT:    retq
683   %vecext = extractelement <4 x i32> %x, i32 3
684   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
685   %vecinit2 = insertelement <4 x i32> %vecinit, i32 0, i32 1
686   %vecinit3 = insertelement <4 x i32> %vecinit2, i32 0, i32 2
687   %vecinit4 = insertelement <4 x i32> %vecinit3, i32 %vecext, i32 3
688   ret <4 x i32> %vecinit4
689 }
690
691 define <4 x i32> @i32_shuf_X00A(<4 x i32> %x, <4 x i32> %a) {
692 ; X32-LABEL: i32_shuf_X00A:
693 ; X32:       ## BB#0:
694 ; X32-NEXT:    xorps %xmm2, %xmm2
695 ; X32-NEXT:    blendps {{.*#+}} xmm0 = xmm0[0],xmm2[1,2,3]
696 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
697 ; X32-NEXT:    retl
698 ;
699 ; X64-LABEL: i32_shuf_X00A:
700 ; X64:       ## BB#0:
701 ; X64-NEXT:    xorps %xmm2, %xmm2
702 ; X64-NEXT:    blendps {{.*#+}} xmm0 = xmm0[0],xmm2[1,2,3]
703 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
704 ; X64-NEXT:    retq
705   %vecext = extractelement <4 x i32> %x, i32 0
706   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
707   %vecinit1 = insertelement <4 x i32> %vecinit, i32 0, i32 1
708   %vecinit2 = insertelement <4 x i32> %vecinit1, i32 0, i32 2
709   %vecinit4 = shufflevector <4 x i32> %vecinit2, <4 x i32> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
710   ret <4 x i32> %vecinit4
711 }
712
713 define <4 x i32> @i32_shuf_X00X(<4 x i32> %x, <4 x i32> %a) {
714 ; X32-LABEL: i32_shuf_X00X:
715 ; X32:       ## BB#0:
716 ; X32-NEXT:    xorps %xmm1, %xmm1
717 ; X32-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
718 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm0[0]
719 ; X32-NEXT:    movaps %xmm1, %xmm0
720 ; X32-NEXT:    retl
721 ;
722 ; X64-LABEL: i32_shuf_X00X:
723 ; X64:       ## BB#0:
724 ; X64-NEXT:    xorps %xmm1, %xmm1
725 ; X64-NEXT:    blendps {{.*#+}} xmm1 = xmm0[0],xmm1[1,2,3]
726 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm0[0]
727 ; X64-NEXT:    movaps %xmm1, %xmm0
728 ; X64-NEXT:    retq
729   %vecext = extractelement <4 x i32> %x, i32 0
730   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
731   %vecinit1 = insertelement <4 x i32> %vecinit, i32 0, i32 1
732   %vecinit2 = insertelement <4 x i32> %vecinit1, i32 0, i32 2
733   %vecinit4 = shufflevector <4 x i32> %vecinit2, <4 x i32> %x, <4 x i32> <i32 0, i32 1, i32 2, i32 4>
734   ret <4 x i32> %vecinit4
735 }
736
737 define <4 x i32> @i32_shuf_X0YC(<4 x i32> %x, <4 x i32> %a) {
738 ; X32-LABEL: i32_shuf_X0YC:
739 ; X32:       ## BB#0:
740 ; X32-NEXT:    xorps %xmm2, %xmm2
741 ; X32-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
742 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1],xmm0[1],zero
743 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
744 ; X32-NEXT:    movaps %xmm2, %xmm0
745 ; X32-NEXT:    retl
746 ;
747 ; X64-LABEL: i32_shuf_X0YC:
748 ; X64:       ## BB#0:
749 ; X64-NEXT:    xorps %xmm2, %xmm2
750 ; X64-NEXT:    blendps {{.*#+}} xmm2 = xmm0[0],xmm2[1,2,3]
751 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1],xmm0[1],zero
752 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm1[2]
753 ; X64-NEXT:    movaps %xmm2, %xmm0
754 ; X64-NEXT:    retq
755   %vecext = extractelement <4 x i32> %x, i32 0
756   %vecinit = insertelement <4 x i32> undef, i32 %vecext, i32 0
757   %vecinit1 = insertelement <4 x i32> %vecinit, i32 0, i32 1
758   %vecinit3 = shufflevector <4 x i32> %vecinit1, <4 x i32> %x, <4 x i32> <i32 0, i32 1, i32 5, i32 undef>
759   %vecinit5 = shufflevector <4 x i32> %vecinit3, <4 x i32> %a, <4 x i32> <i32 0, i32 1, i32 2, i32 6>
760   ret <4 x i32> %vecinit5
761 }
762
763 ;; Test for a bug in the first implementation of LowerBuildVectorv4x32
764 define < 4 x float> @test_insertps_no_undef(<4 x float> %x) {
765 ; X32-LABEL: test_insertps_no_undef:
766 ; X32:       ## BB#0:
767 ; X32-NEXT:    movaps %xmm0, %xmm1
768 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],zero
769 ; X32-NEXT:    maxps %xmm1, %xmm0
770 ; X32-NEXT:    retl
771 ;
772 ; X64-LABEL: test_insertps_no_undef:
773 ; X64:       ## BB#0:
774 ; X64-NEXT:    movaps %xmm0, %xmm1
775 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],zero
776 ; X64-NEXT:    maxps %xmm1, %xmm0
777 ; X64-NEXT:    retq
778   %vecext = extractelement <4 x float> %x, i32 0
779   %vecinit = insertelement <4 x float> undef, float %vecext, i32 0
780   %vecext1 = extractelement <4 x float> %x, i32 1
781   %vecinit2 = insertelement <4 x float> %vecinit, float %vecext1, i32 1
782   %vecext3 = extractelement <4 x float> %x, i32 2
783   %vecinit4 = insertelement <4 x float> %vecinit2, float %vecext3, i32 2
784   %vecinit5 = insertelement <4 x float> %vecinit4, float 0.0, i32 3
785   %mask = fcmp olt <4 x float> %vecinit5, %x
786   %res = select  <4 x i1> %mask, <4 x float> %x, <4 x float>%vecinit5
787   ret <4 x float> %res
788 }
789
790 define <8 x i16> @blendvb_fallback(<8 x i1> %mask, <8 x i16> %x, <8 x i16> %y) {
791 ; X32-LABEL: blendvb_fallback:
792 ; X32:       ## BB#0:
793 ; X32-NEXT:    psllw $15, %xmm0
794 ; X32-NEXT:    psraw $15, %xmm0
795 ; X32-NEXT:    pblendvb %xmm1, %xmm2
796 ; X32-NEXT:    movdqa %xmm2, %xmm0
797 ; X32-NEXT:    retl
798 ;
799 ; X64-LABEL: blendvb_fallback:
800 ; X64:       ## BB#0:
801 ; X64-NEXT:    psllw $15, %xmm0
802 ; X64-NEXT:    psraw $15, %xmm0
803 ; X64-NEXT:    pblendvb %xmm1, %xmm2
804 ; X64-NEXT:    movdqa %xmm2, %xmm0
805 ; X64-NEXT:    retq
806   %ret = select <8 x i1> %mask, <8 x i16> %x, <8 x i16> %y
807   ret <8 x i16> %ret
808 }
809
810 ; On X32, account for the argument's move to registers
811 define <4 x float> @insertps_from_vector_load(<4 x float> %a, <4 x float>* nocapture readonly %pb) {
812 ; X32-LABEL: insertps_from_vector_load:
813 ; X32:       ## BB#0:
814 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
815 ; X32-NEXT:    insertps $48, (%eax), %xmm0
816 ; X32-NEXT:    retl
817 ;
818 ; X64-LABEL: insertps_from_vector_load:
819 ; X64:       ## BB#0:
820 ; X64-NEXT:    insertps $48, (%rdi), %xmm0
821 ; X64-NEXT:    retq
822   %1 = load <4 x float>* %pb, align 16
823   %2 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %1, i32 48)
824   ret <4 x float> %2
825 }
826
827 ;; Use a non-zero CountS for insertps
828 ;; Try to match a bit more of the instr, since we need the load's offset.
829 define <4 x float> @insertps_from_vector_load_offset(<4 x float> %a, <4 x float>* nocapture readonly %pb) {
830 ; X32-LABEL: insertps_from_vector_load_offset:
831 ; X32:       ## BB#0:
832 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
833 ; X32-NEXT:    insertps $96, 4(%eax), %xmm0
834 ; X32-NEXT:    retl
835 ;
836 ; X64-LABEL: insertps_from_vector_load_offset:
837 ; X64:       ## BB#0:
838 ; X64-NEXT:    insertps $96, 4(%rdi), %xmm0
839 ; X64-NEXT:    retq
840   %1 = load <4 x float>* %pb, align 16
841   %2 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %1, i32 96)
842   ret <4 x float> %2
843 }
844
845 ;; Try to match a bit more of the instr, since we need the load's offset.
846 define <4 x float> @insertps_from_vector_load_offset_2(<4 x float> %a, <4 x float>* nocapture readonly %pb, i64 %index) {
847 ; X32-LABEL: insertps_from_vector_load_offset_2:
848 ; X32:       ## BB#0:
849 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
850 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
851 ; X32-NEXT:    shll $4, %ecx
852 ; X32-NEXT:    insertps $-64, 12(%eax,%ecx), %xmm0
853 ; X32-NEXT:    retl
854 ;
855 ; X64-LABEL: insertps_from_vector_load_offset_2:
856 ; X64:       ## BB#0:
857 ; X64-NEXT:    shlq $4, %rsi
858 ; X64-NEXT:    insertps $-64, 12(%rdi,%rsi), %xmm0
859 ; X64-NEXT:    retq
860   %1 = getelementptr inbounds <4 x float>* %pb, i64 %index
861   %2 = load <4 x float>* %1, align 16
862   %3 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %2, i32 192)
863   ret <4 x float> %3
864 }
865
866 define <4 x float> @insertps_from_broadcast_loadf32(<4 x float> %a, float* nocapture readonly %fb, i64 %index) {
867 ; X32-LABEL: insertps_from_broadcast_loadf32:
868 ; X32:       ## BB#0:
869 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
870 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
871 ; X32-NEXT:    movss (%ecx,%eax,4), %xmm1
872 ; X32-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
873 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
874 ; X32-NEXT:    retl
875 ;
876 ; X64-LABEL: insertps_from_broadcast_loadf32:
877 ; X64:       ## BB#0:
878 ; X64-NEXT:    movss (%rdi,%rsi,4), %xmm1
879 ; X64-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
880 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
881 ; X64-NEXT:    retq
882   %1 = getelementptr inbounds float* %fb, i64 %index
883   %2 = load float* %1, align 4
884   %3 = insertelement <4 x float> undef, float %2, i32 0
885   %4 = insertelement <4 x float> %3, float %2, i32 1
886   %5 = insertelement <4 x float> %4, float %2, i32 2
887   %6 = insertelement <4 x float> %5, float %2, i32 3
888   %7 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %6, i32 48)
889   ret <4 x float> %7
890 }
891
892 define <4 x float> @insertps_from_broadcast_loadv4f32(<4 x float> %a, <4 x float>* nocapture readonly %b) {
893 ; X32-LABEL: insertps_from_broadcast_loadv4f32:
894 ; X32:       ## BB#0:
895 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
896 ; X32-NEXT:    movups (%eax), %xmm1
897 ; X32-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
898 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
899 ; X32-NEXT:    retl
900 ;
901 ; X64-LABEL: insertps_from_broadcast_loadv4f32:
902 ; X64:       ## BB#0:
903 ; X64-NEXT:    movups (%rdi), %xmm1
904 ; X64-NEXT:    shufps {{.*#+}} xmm1 = xmm1[0,0,0,0]
905 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm1[0]
906 ; X64-NEXT:    retq
907   %1 = load <4 x float>* %b, align 4
908   %2 = extractelement <4 x float> %1, i32 0
909   %3 = insertelement <4 x float> undef, float %2, i32 0
910   %4 = insertelement <4 x float> %3, float %2, i32 1
911   %5 = insertelement <4 x float> %4, float %2, i32 2
912   %6 = insertelement <4 x float> %5, float %2, i32 3
913   %7 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %6, i32 48)
914   ret <4 x float> %7
915 }
916
917 ;; FIXME: We're emitting an extraneous pshufd/vbroadcast.
918 define <4 x float> @insertps_from_broadcast_multiple_use(<4 x float> %a, <4 x float> %b, <4 x float> %c, <4 x float> %d, float* nocapture readonly %fb, i64 %index) {
919 ; X32-LABEL: insertps_from_broadcast_multiple_use:
920 ; X32:       ## BB#0:
921 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
922 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
923 ; X32-NEXT:    movss (%ecx,%eax,4), %xmm4
924 ; X32-NEXT:    shufps {{.*#+}} xmm4 = xmm4[0,0,0,0]
925 ; X32-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm4[0]
926 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm4[0]
927 ; X32-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm4[0]
928 ; X32-NEXT:    insertps {{.*#+}} xmm3 = xmm3[0,1,2],xmm4[0]
929 ; X32-NEXT:    addps %xmm1, %xmm0
930 ; X32-NEXT:    addps %xmm2, %xmm3
931 ; X32-NEXT:    addps %xmm3, %xmm0
932 ; X32-NEXT:    retl
933 ;
934 ; X64-LABEL: insertps_from_broadcast_multiple_use:
935 ; X64:       ## BB#0:
936 ; X64-NEXT:    movss (%rdi,%rsi,4), %xmm4
937 ; X64-NEXT:    shufps {{.*#+}} xmm4 = xmm4[0,0,0,0]
938 ; X64-NEXT:    insertps {{.*#+}} xmm0 = xmm0[0,1,2],xmm4[0]
939 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0,1,2],xmm4[0]
940 ; X64-NEXT:    insertps {{.*#+}} xmm2 = xmm2[0,1,2],xmm4[0]
941 ; X64-NEXT:    insertps {{.*#+}} xmm3 = xmm3[0,1,2],xmm4[0]
942 ; X64-NEXT:    addps %xmm1, %xmm0
943 ; X64-NEXT:    addps %xmm2, %xmm3
944 ; X64-NEXT:    addps %xmm3, %xmm0
945 ; X64-NEXT:    retq
946   %1 = getelementptr inbounds float* %fb, i64 %index
947   %2 = load float* %1, align 4
948   %3 = insertelement <4 x float> undef, float %2, i32 0
949   %4 = insertelement <4 x float> %3, float %2, i32 1
950   %5 = insertelement <4 x float> %4, float %2, i32 2
951   %6 = insertelement <4 x float> %5, float %2, i32 3
952   %7 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %a, <4 x float> %6, i32 48)
953   %8 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %b, <4 x float> %6, i32 48)
954   %9 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %c, <4 x float> %6, i32 48)
955   %10 = tail call <4 x float> @llvm.x86.sse41.insertps(<4 x float> %d, <4 x float> %6, i32 48)
956   %11 = fadd <4 x float> %7, %8
957   %12 = fadd <4 x float> %9, %10
958   %13 = fadd <4 x float> %11, %12
959   ret <4 x float> %13
960 }
961
962 define <4 x float> @insertps_with_undefs(<4 x float> %a, float* %b) {
963 ; X32-LABEL: insertps_with_undefs:
964 ; X32:       ## BB#0:
965 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
966 ; X32-NEXT:    movss (%eax), %xmm1
967 ; X32-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0],zero,xmm0[0],xmm1[3]
968 ; X32-NEXT:    movaps %xmm1, %xmm0
969 ; X32-NEXT:    retl
970 ;
971 ; X64-LABEL: insertps_with_undefs:
972 ; X64:       ## BB#0:
973 ; X64-NEXT:    movss (%rdi), %xmm1
974 ; X64-NEXT:    insertps {{.*#+}} xmm1 = xmm1[0],zero,xmm0[0],xmm1[3]
975 ; X64-NEXT:    movaps %xmm1, %xmm0
976 ; X64-NEXT:    retq
977   %1 = load float* %b, align 4
978   %2 = insertelement <4 x float> undef, float %1, i32 0
979   %result = shufflevector <4 x float> %a, <4 x float> %2, <4 x i32> <i32 4, i32 undef, i32 0, i32 7>
980   ret <4 x float> %result
981 }
982
983 ; Test for a bug in X86ISelLowering.cpp:getINSERTPS where we were using
984 ; the destination index to change the load, instead of the source index.
985 define <4 x float> @pr20087(<4 x float> %a, <4 x float> *%ptr) {
986 ; X32-LABEL: pr20087:
987 ; X32:       ## BB#0:
988 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
989 ; X32-NEXT:    insertps $-78, 8(%eax), %xmm0
990 ; X32-NEXT:    retl
991 ;
992 ; X64-LABEL: pr20087:
993 ; X64:       ## BB#0:
994 ; X64-NEXT:    insertps $-78, 8(%rdi), %xmm0
995 ; X64-NEXT:    retq
996   %load = load <4 x float> *%ptr
997   %ret = shufflevector <4 x float> %load, <4 x float> %a, <4 x i32> <i32 4, i32 undef, i32 6, i32 2>
998   ret <4 x float> %ret
999 }
1000
1001 ; Edge case for insertps where we end up with a shuffle with mask=<0, 7, -1, -1>
1002 define void @insertps_pr20411(i32* noalias nocapture %RET) #1 {
1003 ; X32-LABEL: insertps_pr20411:
1004 ; X32:       ## BB#0:
1005 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
1006 ; X32-NEXT:    pshufd {{.*#+}} xmm0 = mem[3,1,2,3]
1007 ; X32-NEXT:    insertps $-36, LCPI49_1+12, %xmm0
1008 ; X32-NEXT:    movups %xmm0, (%eax)
1009 ; X32-NEXT:    retl
1010 ;
1011 ; X64-LABEL: insertps_pr20411:
1012 ; X64:       ## BB#0:
1013 ; X64-NEXT:    pshufd {{.*#+}} xmm0 = mem[3,1,2,3]
1014 ; X64-NEXT:    insertps $-36, LCPI49_1+{{.*}}(%rip), %xmm0
1015 ; X64-NEXT:    movups %xmm0, (%rdi)
1016 ; X64-NEXT:    retq
1017   %gather_load = shufflevector <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>, <8 x i32> undef, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
1018   %shuffle109 = shufflevector <4 x i32> <i32 4, i32 5, i32 6, i32 7>, <4 x i32> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 3>  ; 4 5 6 7
1019   %shuffle116 = shufflevector <8 x i32> %gather_load, <8 x i32> undef, <4 x i32> <i32 3, i32 undef, i32 undef, i32 undef> ; 3 x x x
1020   %shuffle117 = shufflevector <4 x i32> %shuffle109, <4 x i32> %shuffle116, <4 x i32> <i32 4, i32 3, i32 undef, i32 undef> ; 3 7 x x
1021   %ptrcast = bitcast i32* %RET to <4 x i32>*
1022   store <4 x i32> %shuffle117, <4 x i32>* %ptrcast, align 4
1023   ret void
1024 }