1 ; RUN: llc < %s -march=x86-64 -mattr=+sse4.2 | FileCheck %s
3 ; Verify when widening a divide/remainder operation, we only generate a
4 ; divide/rem per element since divide/remainder can trap.
7 define void @vectorDiv (<2 x i32> addrspace(1)* %nsource, <2 x i32> addrspace(1)* %dsource, <2 x i32> addrspace(1)* %qdest) nounwind {
13 %nsource.addr = alloca <2 x i32> addrspace(1)*, align 4
14 %dsource.addr = alloca <2 x i32> addrspace(1)*, align 4
15 %qdest.addr = alloca <2 x i32> addrspace(1)*, align 4
16 %index = alloca i32, align 4
17 store <2 x i32> addrspace(1)* %nsource, <2 x i32> addrspace(1)** %nsource.addr
18 store <2 x i32> addrspace(1)* %dsource, <2 x i32> addrspace(1)** %dsource.addr
19 store <2 x i32> addrspace(1)* %qdest, <2 x i32> addrspace(1)** %qdest.addr
20 %tmp = load <2 x i32> addrspace(1)** %qdest.addr
21 %tmp1 = load i32* %index
22 %arrayidx = getelementptr <2 x i32> addrspace(1)* %tmp, i32 %tmp1
23 %tmp2 = load <2 x i32> addrspace(1)** %nsource.addr
24 %tmp3 = load i32* %index
25 %arrayidx4 = getelementptr <2 x i32> addrspace(1)* %tmp2, i32 %tmp3
26 %tmp5 = load <2 x i32> addrspace(1)* %arrayidx4
27 %tmp6 = load <2 x i32> addrspace(1)** %dsource.addr
28 %tmp7 = load i32* %index
29 %arrayidx8 = getelementptr <2 x i32> addrspace(1)* %tmp6, i32 %tmp7
30 %tmp9 = load <2 x i32> addrspace(1)* %arrayidx8
31 %tmp10 = sdiv <2 x i32> %tmp5, %tmp9
32 store <2 x i32> %tmp10, <2 x i32> addrspace(1)* %arrayidx
36 ; CHECK: test_char_div
37 define <3 x i8> @test_char_div(<3 x i8> %num, <3 x i8> %div) {
43 %div.r = sdiv <3 x i8> %num, %div
47 ; CHECK: test_uchar_div
48 define <3 x i8> @test_uchar_div(<3 x i8> %num, <3 x i8> %div) {
54 %div.r = udiv <3 x i8> %num, %div
58 ; CHECK: test_short_div
59 define <5 x i16> @test_short_div(<5 x i16> %num, <5 x i16> %div) {
67 %div.r = sdiv <5 x i16> %num, %div
71 ; CHECK: test_ushort_div
72 define <4 x i16> @test_ushort_div(<4 x i16> %num, <4 x i16> %div) {
79 %div.r = udiv <4 x i16> %num, %div
83 ; CHECK: test_uint_div
84 define <3 x i32> @test_uint_div(<3 x i32> %num, <3 x i32> %div) {
90 %div.r = udiv <3 x i32> %num, %div
94 ; CHECK: test_long_div
95 define <3 x i64> @test_long_div(<3 x i64> %num, <3 x i64> %div) {
101 %div.r = sdiv <3 x i64> %num, %div
105 ; CHECK: test_ulong_div
106 define <3 x i64> @test_ulong_div(<3 x i64> %num, <3 x i64> %div) {
112 %div.r = udiv <3 x i64> %num, %div
116 ; CHECK: test_char_rem
117 define <4 x i8> @test_char_rem(<4 x i8> %num, <4 x i8> %rem) {
124 %rem.r = srem <4 x i8> %num, %rem
128 ; CHECK: test_short_rem
129 define <5 x i16> @test_short_rem(<5 x i16> %num, <5 x i16> %rem) {
137 %rem.r = srem <5 x i16> %num, %rem
141 ; CHECK: test_uint_rem
142 define <4 x i32> @test_uint_rem(<4 x i32> %num, <4 x i32> %rem) {
149 %rem.r = srem <4 x i32> %num, %rem
154 ; CHECK: test_ulong_rem
155 define <5 x i64> @test_ulong_rem(<5 x i64> %num, <5 x i64> %rem) {
163 %rem.r = urem <5 x i64> %num, %rem
167 ; CHECK: test_int_div
168 define void @test_int_div(<3 x i32>* %dest, <3 x i32>* %old, i32 %n) {
175 %cmp13 = icmp sgt i32 %n, 0
176 br i1 %cmp13, label %bb.nph, label %for.end
182 %i.014 = phi i32 [ 0, %bb.nph ], [ %inc, %for.body ]
183 %arrayidx11 = getelementptr <3 x i32>* %dest, i32 %i.014
184 %tmp4 = load <3 x i32>* %arrayidx11 ; <<3 x i32>> [#uses=1]
185 %arrayidx7 = getelementptr inbounds <3 x i32>* %old, i32 %i.014
186 %tmp8 = load <3 x i32>* %arrayidx7 ; <<3 x i32>> [#uses=1]
187 %div = sdiv <3 x i32> %tmp4, %tmp8
188 store <3 x i32> %div, <3 x i32>* %arrayidx11
189 %inc = add nsw i32 %i.014, 1
190 %exitcond = icmp eq i32 %inc, %n
191 br i1 %exitcond, label %for.end, label %for.body
193 for.end: ; preds = %for.body, %entry