Fix ordering of operands on lowering of atomicrmw min/max nodes on ARM.
[oota-llvm.git] / test / CodeGen / CellSPU / and_ops.ll
index 6858dbabe6499ff67245ea970616322eb2f7cf82..4203e91068d0f38cee2e35ecfe8ae2f313233e0f 100644 (file)
@@ -1,9 +1,13 @@
-; RUN: llvm-as -o - %s | llc -march=cellspu > %t1.s
-; RUN: grep and    %t1.s | count 232
+; RUN: llc < %s -march=cellspu > %t1.s
+; RUN: grep and    %t1.s | count 234
 ; RUN: grep andc   %t1.s | count 85
-; RUN: grep andi   %t1.s | count 36
+; RUN: grep andi   %t1.s | count 37
 ; RUN: grep andhi  %t1.s | count 30
 ; RUN: grep andbi  %t1.s | count 4
+
+; CellSPU legalization is over-sensitive to Legalize's traversal order.
+; XFAIL: *
+
 target datalayout = "E-p:32:32:128-f64:64:128-f32:32:128-i64:32:128-i32:32:128-i16:16:128-i8:8:128-i1:8:128-a0:0:128-v128:128:128-s0:128:128"
 target triple = "spu"
 
@@ -39,33 +43,33 @@ define <16 x i8> @and_v16i8_2(<16 x i8> %arg1, <16 x i8> %arg2) {
 }
 
 define i32 @and_i32_1(i32 %arg1, i32 %arg2) {
-       %A = and i32 %arg2, %arg1
-       ret i32 %A
+        %A = and i32 %arg2, %arg1
+        ret i32 %A
 }
 
 define i32 @and_i32_2(i32 %arg1, i32 %arg2) {
-       %A = and i32 %arg1, %arg2
-       ret i32 %A
+        %A = and i32 %arg1, %arg2
+        ret i32 %A
 }
 
 define i16 @and_i16_1(i16 %arg1, i16 %arg2) {
-       %A = and i16 %arg2, %arg1
-       ret i16 %A
+        %A = and i16 %arg2, %arg1
+        ret i16 %A
 }
 
 define i16 @and_i16_2(i16 %arg1, i16 %arg2) {
-       %A = and i16 %arg1, %arg2
-       ret i16 %A
+        %A = and i16 %arg1, %arg2
+        ret i16 %A
 }
 
 define i8 @and_i8_1(i8 %arg1, i8 %arg2) {
-       %A = and i8 %arg2, %arg1
-       ret i8 %A
+        %A = and i8 %arg2, %arg1
+        ret i8 %A
 }
 
 define i8 @and_i8_2(i8 %arg1, i8 %arg2) {
-       %A = and i8 %arg1, %arg2
-       ret i8 %A
+        %A = and i8 %arg1, %arg2
+        ret i8 %A
 }
 
 ; ANDC instruction generation:
@@ -126,57 +130,57 @@ define <16 x i8> @andc_v16i8_3(<16 x i8> %arg1, <16 x i8> %arg2) {
 }
 
 define i32 @andc_i32_1(i32 %arg1, i32 %arg2) {
-       %A = xor i32 %arg2, -1
-       %B = and i32 %A, %arg1
-       ret i32 %B
+        %A = xor i32 %arg2, -1
+        %B = and i32 %A, %arg1
+        ret i32 %B
 }
 
 define i32 @andc_i32_2(i32 %arg1, i32 %arg2) {
-       %A = xor i32 %arg1, -1
-       %B = and i32 %A, %arg2
-       ret i32 %B
+        %A = xor i32 %arg1, -1
+        %B = and i32 %A, %arg2
+        ret i32 %B
 }
 
 define i32 @andc_i32_3(i32 %arg1, i32 %arg2) {
-       %A = xor i32 %arg2, -1
-       %B = and i32 %arg1, %A
-       ret i32 %B
+        %A = xor i32 %arg2, -1
+        %B = and i32 %arg1, %A
+        ret i32 %B
 }
 
 define i16 @andc_i16_1(i16 %arg1, i16 %arg2) {
-       %A = xor i16 %arg2, -1
-       %B = and i16 %A, %arg1
-       ret i16 %B
+        %A = xor i16 %arg2, -1
+        %B = and i16 %A, %arg1
+        ret i16 %B
 }
 
 define i16 @andc_i16_2(i16 %arg1, i16 %arg2) {
-       %A = xor i16 %arg1, -1
-       %B = and i16 %A, %arg2
-       ret i16 %B
+        %A = xor i16 %arg1, -1
+        %B = and i16 %A, %arg2
+        ret i16 %B
 }
 
 define i16 @andc_i16_3(i16 %arg1, i16 %arg2) {
-       %A = xor i16 %arg2, -1
-       %B = and i16 %arg1, %A
-       ret i16 %B
+        %A = xor i16 %arg2, -1
+        %B = and i16 %arg1, %A
+        ret i16 %B
 }
 
 define i8 @andc_i8_1(i8 %arg1, i8 %arg2) {
-       %A = xor i8 %arg2, -1
-       %B = and i8 %A, %arg1
-       ret i8 %B
+        %A = xor i8 %arg2, -1
+        %B = and i8 %A, %arg1
+        ret i8 %B
 }
 
 define i8 @andc_i8_2(i8 %arg1, i8 %arg2) {
-       %A = xor i8 %arg1, -1
-       %B = and i8 %A, %arg2
-       ret i8 %B
+        %A = xor i8 %arg1, -1
+        %B = and i8 %A, %arg2
+        ret i8 %B
 }
 
 define i8 @andc_i8_3(i8 %arg1, i8 %arg2) {
-       %A = xor i8 %arg2, -1
-       %B = and i8 %arg1, %A
-       ret i8 %B
+        %A = xor i8 %arg2, -1
+        %B = and i8 %arg1, %A
+        ret i8 %B
 }
 
 ; ANDI instruction generation (i32 data type):
@@ -200,12 +204,12 @@ define <4 x i32> @andi_v4i32_4(<4 x i32> %in) {
         ret <4 x i32> %tmp2
 }
 
-define i32 @andi_u32(i32 zeroext  %in) zeroext  {
+define zeroext i32 @andi_u32(i32 zeroext  %in)   {
         %tmp37 = and i32 %in, 37
         ret i32 %tmp37
 }
 
-define i32 @andi_i32(i32 signext  %in) signext  {
+define signext i32 @andi_i32(i32 signext  %in)   {
         %tmp38 = and i32 %in, 37
         ret i32 %tmp38
 }
@@ -240,39 +244,39 @@ define <8 x i16> @andhi_v8i16_4(<8 x i16> %in) {
         ret <8 x i16> %tmp2
 }
 
-define i16 @andhi_u16(i16 zeroext  %in) zeroext  {
+define zeroext i16 @andhi_u16(i16 zeroext  %in)   {
         %tmp37 = and i16 %in, 37         ; <i16> [#uses=1]
         ret i16 %tmp37
 }
 
-define i16 @andhi_i16(i16 signext  %in) signext  {
+define signext i16 @andhi_i16(i16 signext  %in)   {
         %tmp38 = and i16 %in, 37         ; <i16> [#uses=1]
         ret i16 %tmp38
 }
 
 ; i8 data type (s/b ANDBI if 8-bit registers were supported):
 define <16 x i8> @and_v16i8(<16 x i8> %in) {
-       ; ANDBI generated for vector types
+        ; ANDBI generated for vector types
         %tmp2 = and <16 x i8> %in, < i8 42, i8 42, i8 42, i8 42, i8 42, i8 42,
                                      i8 42, i8 42, i8 42, i8 42, i8 42, i8 42,
                                      i8 42, i8 42, i8 42, i8 42 >
         ret <16 x i8> %tmp2
 }
 
-define i8 @and_u8(i8 zeroext  %in) zeroext  {
-       ; ANDBI generated:
+define zeroext i8 @and_u8(i8 zeroext  %in)   {
+        ; ANDBI generated:
         %tmp37 = and i8 %in, 37
         ret i8 %tmp37
 }
 
-define i8 @and_sext8(i8 signext  %in) signext  {
-       ; ANDBI generated
+define signext i8 @and_sext8(i8 signext  %in)   {
+        ; ANDBI generated
         %tmp38 = and i8 %in, 37
         ret i8 %tmp38
 }
 
 define i8 @and_i8(i8 %in) {
-       ; ANDBI generated
+        ; ANDBI generated
         %tmp38 = and i8 %in, 205
         ret i8 %tmp38
 }