fix rdar://9289583 - fast isel should handle non-canonical commutative binops
[oota-llvm.git] / test / Transforms / ScalarRepl / vector_promote.ll
index 73e2c64a3f74b44351443f2ff3589d9601dc8c4e..9c17a54294fb84ff5728884ec1b1a60090914f9d 100644 (file)
-; RUN: llvm-upgrade < %s | llvm-as | opt -scalarrepl | llvm-dis | \
-; RUN:   not grep alloca
+; RUN: opt < %s -scalarrepl -S | FileCheck %s
+target datalayout = "E-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:32:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64"
+target triple = "x86_64-apple-darwin10.0.0"
 
-void %test(<4 x float>* %F, float %f) {
+define void @test1(<4 x float>* %F, float %f) {
 entry:
-        %G = alloca <4 x float>, align 16               ; <<4 x float>*> [#uses=3]
-        %tmp = load <4 x float>* %F             ; <<4 x float>> [#uses=2]
-        %tmp3 = add <4 x float> %tmp, %tmp              ; <<4 x float>> [#uses=1]
-        store <4 x float> %tmp3, <4 x float>* %G
-        %G = getelementptr <4 x float>* %G, int 0, int 0                ; <float*> [#uses=1]
-        store float %f, float* %G
-        %tmp4 = load <4 x float>* %G            ; <<4 x float>> [#uses=2]
-        %tmp6 = add <4 x float> %tmp4, %tmp4            ; <<4 x float>> [#uses=1]
-        store <4 x float> %tmp6, <4 x float>* %F
-        ret void
-}
-
-void %test2(<4 x float>* %F, float %f) {
+       %G = alloca <4 x float>, align 16               ; <<4 x float>*> [#uses=3]
+       %tmp = load <4 x float>* %F             ; <<4 x float>> [#uses=2]
+       %tmp3 = fadd <4 x float> %tmp, %tmp             ; <<4 x float>> [#uses=1]
+       store <4 x float> %tmp3, <4 x float>* %G
+       %G.upgrd.1 = getelementptr <4 x float>* %G, i32 0, i32 0                ; <float*> [#uses=1]
+       store float %f, float* %G.upgrd.1
+       %tmp4 = load <4 x float>* %G            ; <<4 x float>> [#uses=2]
+       %tmp6 = fadd <4 x float> %tmp4, %tmp4           ; <<4 x float>> [#uses=1]
+       store <4 x float> %tmp6, <4 x float>* %F
+       ret void
+; CHECK: @test1
+; CHECK-NOT: alloca
+; CHECK: %tmp = load <4 x float>* %F
+; CHECK: fadd <4 x float> %tmp, %tmp
+; CHECK-NEXT: insertelement <4 x float> %tmp3, float %f, i32 0
+}
+
+define void @test2(<4 x float>* %F, float %f) {
+entry:
+       %G = alloca <4 x float>, align 16               ; <<4 x float>*> [#uses=3]
+       %tmp = load <4 x float>* %F             ; <<4 x float>> [#uses=2]
+       %tmp3 = fadd <4 x float> %tmp, %tmp             ; <<4 x float>> [#uses=1]
+       store <4 x float> %tmp3, <4 x float>* %G
+       %tmp.upgrd.2 = getelementptr <4 x float>* %G, i32 0, i32 2              ; <float*> [#uses=1]
+       store float %f, float* %tmp.upgrd.2
+       %tmp4 = load <4 x float>* %G            ; <<4 x float>> [#uses=2]
+       %tmp6 = fadd <4 x float> %tmp4, %tmp4           ; <<4 x float>> [#uses=1]
+       store <4 x float> %tmp6, <4 x float>* %F
+       ret void
+; CHECK: @test2
+; CHECK-NOT: alloca
+; CHECK: %tmp = load <4 x float>* %F
+; CHECK: fadd <4 x float> %tmp, %tmp
+; CHECK-NEXT: insertelement <4 x float> %tmp3, float %f, i32 2
+}
+
+define void @test3(<4 x float>* %F, float* %f) {
+entry:
+       %G = alloca <4 x float>, align 16               ; <<4 x float>*> [#uses=2]
+       %tmp = load <4 x float>* %F             ; <<4 x float>> [#uses=2]
+       %tmp3 = fadd <4 x float> %tmp, %tmp             ; <<4 x float>> [#uses=1]
+       store <4 x float> %tmp3, <4 x float>* %G
+       %tmp.upgrd.3 = getelementptr <4 x float>* %G, i32 0, i32 2              ; <float*> [#uses=1]
+       %tmp.upgrd.4 = load float* %tmp.upgrd.3         ; <float> [#uses=1]
+       store float %tmp.upgrd.4, float* %f
+       ret void
+; CHECK: @test3
+; CHECK-NOT: alloca
+; CHECK: %tmp = load <4 x float>* %F
+; CHECK: fadd <4 x float> %tmp, %tmp
+; CHECK-NEXT: extractelement <4 x float> %tmp3, i32 2
+}
+
+define void @test4(<4 x float>* %F, float* %f) {
 entry:
-        %G = alloca <4 x float>, align 16               ; <<4 x float>*> [#uses=3]
-        %tmp = load <4 x float>* %F             ; <<4 x float>> [#uses=2]
-        %tmp3 = add <4 x float> %tmp, %tmp              ; <<4 x float>> [#uses=1]
-        store <4 x float> %tmp3, <4 x float>* %G
-        %tmp = getelementptr <4 x float>* %G, int 0, int 2              ; <float*> [#uses=1]
-        store float %f, float* %tmp
-        %tmp4 = load <4 x float>* %G            ; <<4 x float>> [#uses=2]
-        %tmp6 = add <4 x float> %tmp4, %tmp4            ; <<4 x float>> [#uses=1]
-        store <4 x float> %tmp6, <4 x float>* %F
-        ret void
-}
-
-void %test3(<4 x float>* %F, float* %f) {
+       %G = alloca <4 x float>, align 16               ; <<4 x float>*> [#uses=2]
+       %tmp = load <4 x float>* %F             ; <<4 x float>> [#uses=2]
+       %tmp3 = fadd <4 x float> %tmp, %tmp             ; <<4 x float>> [#uses=1]
+       store <4 x float> %tmp3, <4 x float>* %G
+       %G.upgrd.5 = getelementptr <4 x float>* %G, i32 0, i32 0                ; <float*> [#uses=1]
+       %tmp.upgrd.6 = load float* %G.upgrd.5           ; <float> [#uses=1]
+       store float %tmp.upgrd.6, float* %f
+       ret void
+; CHECK: @test4
+; CHECK-NOT: alloca
+; CHECK: %tmp = load <4 x float>* %F
+; CHECK: fadd <4 x float> %tmp, %tmp
+; CHECK-NEXT: extractelement <4 x float> %tmp3, i32 0
+}
+
+define i32 @test5(float %X) {  ;; should turn into bitcast.
+       %X_addr = alloca [4 x float]
+        %X1 = getelementptr [4 x float]* %X_addr, i32 0, i32 2
+       store float %X, float* %X1
+       %a = bitcast float* %X1 to i32*
+       %tmp = load i32* %a
+       ret i32 %tmp
+; CHECK: @test5
+; CHECK-NEXT: bitcast float %X to i32
+; CHECK-NEXT: ret i32
+}
+
+
+define i64 @test6(<2 x float> %X) {
+       %X_addr = alloca <2 x float>
+        store <2 x float> %X, <2 x float>* %X_addr
+       %P = bitcast <2 x float>* %X_addr to i64*
+       %tmp = load i64* %P
+       ret i64 %tmp
+; CHECK: @test6
+; CHECK: bitcast <2 x float> %X to i64
+; CHECK: ret i64
+}
+
+define float @test7(<4 x float> %x) {
+       %a = alloca <4 x float>
+       store <4 x float> %x, <4 x float>* %a
+       %p = bitcast <4 x float>* %a to <2 x float>*
+       %b = load <2 x float>* %p
+       %q = getelementptr <4 x float>* %a, i32 0, i32 2
+       %c = load float* %q
+       ret float %c
+; CHECK: @test7
+; CHECK-NOT: alloca
+; CHECK: bitcast <4 x float> %x to <2 x double>
+; CHECK-NEXT: extractelement <2 x double>
+; CHECK-NEXT: bitcast double %tmp4 to <2 x float>
+; CHECK-NEXT: extractelement <4 x float>
+}
+
+define void @test8(<4 x float> %x, <2 x float> %y) {
+       %a = alloca <4 x float>
+       store <4 x float> %x, <4 x float>* %a
+       %p = bitcast <4 x float>* %a to <2 x float>*
+       store <2 x float> %y, <2 x float>* %p
+       ret void
+; CHECK: @test8
+; CHECK-NOT: alloca
+; CHECK: bitcast <4 x float> %x to <2 x double>
+; CHECK-NEXT: bitcast <2 x float> %y to double
+; CHECK-NEXT: insertelement <2 x double>
+; CHECK-NEXT: bitcast <2 x double> %tmp2 to <4 x float>
+}
+
+define i256 @test9(<4 x i256> %x) {
+       %a = alloca <4 x i256>
+       store <4 x i256> %x, <4 x i256>* %a
+       %p = bitcast <4 x i256>* %a to <2 x i256>*
+       %b = load <2 x i256>* %p
+       %q = getelementptr <4 x i256>* %a, i32 0, i32 2
+       %c = load i256* %q
+       ret i256 %c
+; CHECK: @test9
+; CHECK-NOT: alloca
+; CHECK: bitcast <4 x i256> %x to <2 x i512>
+; CHECK-NEXT: extractelement <2 x i512>
+; CHECK-NEXT: bitcast i512 %tmp4 to <2 x i256>
+; CHECK-NEXT: extractelement <4 x i256>
+}
+
+define void @test10(<4 x i256> %x, <2 x i256> %y) {
+       %a = alloca <4 x i256>
+       store <4 x i256> %x, <4 x i256>* %a
+       %p = bitcast <4 x i256>* %a to <2 x i256>*
+       store <2 x i256> %y, <2 x i256>* %p
+       ret void
+; CHECK: @test10
+; CHECK-NOT: alloca
+; CHECK: bitcast <4 x i256> %x to <2 x i512>
+; CHECK-NEXT: bitcast <2 x i256> %y to i512
+; CHECK-NEXT: insertelement <2 x i512>
+; CHECK-NEXT: bitcast <2 x i512> %tmp2 to <4 x i256>
+}
+
+%union.v = type { <2 x i64> }
+
+define void @test11(<2 x i64> %x) {
+  %a = alloca %union.v
+  %p = getelementptr inbounds %union.v* %a, i32 0, i32 0
+  store <2 x i64> %x, <2 x i64>* %p, align 16
+  %q = getelementptr inbounds %union.v* %a, i32 0, i32 0
+  %r = bitcast <2 x i64>* %q to <4 x float>*
+  %b = load <4 x float>* %r, align 16
+  ret void
+; CHECK: @test11
+; CHECK-NOT: alloca
+}
+
+define void @test12() {
+entry:
+  %a = alloca <64 x i8>, align 64
+  store <64 x i8> undef, <64 x i8>* %a, align 64
+  %p = bitcast <64 x i8>* %a to <16 x i8>*
+  %0 = load <16 x i8>* %p, align 64
+  store <16 x i8> undef, <16 x i8>* %p, align 64
+  %q = bitcast <16 x i8>* %p to <64 x i8>*
+  %1 = load <64 x i8>* %q, align 64
+  ret void
+; CHECK: @test12
+; CHECK-NOT: alloca
+; CHECK: extractelement <4 x i128>
+; CHECK: insertelement <4 x i128>
+}
+
+define float @test13(<4 x float> %x, <2 x i32> %y) {
+       %a = alloca <4 x float>
+       store <4 x float> %x, <4 x float>* %a
+       %p = bitcast <4 x float>* %a to <2 x float>*
+       %b = load <2 x float>* %p
+       %q = getelementptr <4 x float>* %a, i32 0, i32 2
+       %c = load float* %q
+       %r = bitcast <4 x float>* %a to <2 x i32>*
+       store <2 x i32> %y, <2 x i32>* %r
+       ret float %c
+; CHECK: @test13
+; CHECK-NOT: alloca
+; CHECK: bitcast <4 x float> %x to i128
+}
+
+define <3 x float> @test14(<3 x float> %x)  {
 entry:
-        %G = alloca <4 x float>, align 16               ; <<4 x float>*> [#uses=2]
-        %tmp = load <4 x float>* %F             ; <<4 x float>> [#uses=2]
-        %tmp3 = add <4 x float> %tmp, %tmp              ; <<4 x float>> [#uses=1]
-        store <4 x float> %tmp3, <4 x float>* %G
-        %tmp = getelementptr <4 x float>* %G, int 0, int 2              ; <float*> [#uses=1]
-        %tmp = load float* %tmp         ; <float> [#uses=1]
-        store float %tmp, float* %f
-        ret void
+  %x.addr = alloca <3 x float>, align 16
+  %r = alloca <3 x i32>, align 16
+  %extractVec = shufflevector <3 x float> %x, <3 x float> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 undef>
+  %storetmp = bitcast <3 x float>* %x.addr to <4 x float>*
+  store <4 x float> %extractVec, <4 x float>* %storetmp, align 16
+  %tmp = load <3 x float>* %x.addr, align 16
+  %cmp = fcmp une <3 x float> %tmp, zeroinitializer
+  %sext = sext <3 x i1> %cmp to <3 x i32>
+  %and = and <3 x i32> <i32 1065353216, i32 1065353216, i32 1065353216>, %sext
+  %extractVec1 = shufflevector <3 x i32> %and, <3 x i32> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 undef>
+  %storetmp2 = bitcast <3 x i32>* %r to <4 x i32>*
+  store <4 x i32> %extractVec1, <4 x i32>* %storetmp2, align 16
+  %tmp3 = load <3 x i32>* %r, align 16
+  %0 = bitcast <3 x i32> %tmp3 to <3 x float>
+  %tmp4 = load <3 x float>* %x.addr, align 16
+  ret <3 x float> %tmp4
+; CHECK: @test14
+; CHECK-NOT: alloca
+; CHECK: shufflevector <4 x i32> %extractVec1, <4 x i32> undef, <3 x i32> <i32 0, i32 1, i32 2>
 }
 
-void %test4(<4 x float>* %F, float* %f) {
+define void @test15(<3 x i64>* sret %agg.result, <3 x i64> %x, <3 x i64> %min) {
 entry:
-        %G = alloca <4 x float>, align 16               ; <<4 x float>*> [#uses=2]
-        %tmp = load <4 x float>* %F             ; <<4 x float>> [#uses=2]
-        %tmp3 = add <4 x float> %tmp, %tmp              ; <<4 x float>> [#uses=1]
-        store <4 x float> %tmp3, <4 x float>* %G
-        %G = getelementptr <4 x float>* %G, int 0, int 0                ; <float*> [#uses=1]
-        %tmp = load float* %G           ; <float> [#uses=1]
-        store float %tmp, float* %f
-        ret void
+  %x.addr = alloca <3 x i64>, align 32
+  %min.addr = alloca <3 x i64>, align 32
+  %extractVec = shufflevector <3 x i64> %x, <3 x i64> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 undef>
+  %storetmp = bitcast <3 x i64>* %x.addr to <4 x i64>*
+  store <4 x i64> %extractVec, <4 x i64>* %storetmp, align 32
+  %extractVec1 = shufflevector <3 x i64> %min, <3 x i64> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 undef>
+  %storetmp2 = bitcast <3 x i64>* %min.addr to <4 x i64>*
+  store <4 x i64> %extractVec1, <4 x i64>* %storetmp2, align 32
+  %tmp = load <3 x i64>* %x.addr
+  %tmp5 = extractelement <3 x i64> %tmp, i32 0
+  %tmp11 = insertelement <3 x i64> %tmp, i64 %tmp5, i32 0
+  store <3 x i64> %tmp11, <3 x i64>* %x.addr
+  %tmp30 = load <3 x i64>* %x.addr, align 32
+  store <3 x i64> %tmp30, <3 x i64>* %agg.result
+  ret void
+; CHECK: @test15
+; CHECK-NOT: alloca
+; CHECK: shufflevector <4 x i64> %tmpV2, <4 x i64> undef, <3 x i32> <i32 0, i32 1, i32 2>
 }