va_args support for Win64.
[oota-llvm.git] / test / CodeGen / X86 / masked-iv-safe.ll
index e9b80a4c42c356b32d92812198f4ab86bad5bea9..0b4d73a683af9b3a54f810dfb129566ae181a267 100644 (file)
@@ -1,16 +1,15 @@
-; RUN: llvm-as < %s | llc -march=x86-64 > %t
+; RUN: llc < %s -march=x86-64 > %t
 ; RUN: not grep and %t
 ; RUN: not grep movz %t
 ; RUN: not grep sar %t
 ; RUN: not grep shl %t
-; RUN: grep add %t | count 6
-; RUN: grep inc %t | count 2
-; RUN: grep dec %t | count 4
+; RUN: grep add %t | count 2
+; RUN: grep inc %t | count 4
+; RUN: grep dec %t | count 2
 ; RUN: grep lea %t | count 2
 
 ; Optimize away zext-inreg and sext-inreg on the loop induction
 ; variable using trip-count information.
-; Also, the loop-reversal algorithm kicks in twice.
 
 define void @count_up(double* %d, i64 %n) nounwind {
 entry:
@@ -21,16 +20,16 @@ loop:
        %indvar.i8 = and i64 %indvar, 255
        %t0 = getelementptr double* %d, i64 %indvar.i8
        %t1 = load double* %t0
-       %t2 = mul double %t1, 0.1
+       %t2 = fmul double %t1, 0.1
        store double %t2, double* %t0
        %indvar.i24 = and i64 %indvar, 16777215
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = mul double %t4, 2.3
+       %t5 = fmul double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6
-       %t8 = mul double %t7, 4.5
+       %t8 = fmul double %t7, 4.5
        store double %t8, double* %t6
        %indvar.next = add i64 %indvar, 1
        %exitcond = icmp eq i64 %indvar.next, 10
@@ -49,16 +48,16 @@ loop:
        %indvar.i8 = and i64 %indvar, 255
        %t0 = getelementptr double* %d, i64 %indvar.i8
        %t1 = load double* %t0
-       %t2 = mul double %t1, 0.1
+       %t2 = fmul double %t1, 0.1
        store double %t2, double* %t0
        %indvar.i24 = and i64 %indvar, 16777215
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = mul double %t4, 2.3
+       %t5 = fmul double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6
-       %t8 = mul double %t7, 4.5
+       %t8 = fmul double %t7, 4.5
        store double %t8, double* %t6
        %indvar.next = sub i64 %indvar, 1
        %exitcond = icmp eq i64 %indvar.next, 0
@@ -78,17 +77,17 @@ loop:
        %indvar.i8 = ashr i64 %s0, 8
        %t0 = getelementptr double* %d, i64 %indvar.i8
        %t1 = load double* %t0
-       %t2 = mul double %t1, 0.1
+       %t2 = fmul double %t1, 0.1
        store double %t2, double* %t0
        %s1 = shl i64 %indvar, 24
        %indvar.i24 = ashr i64 %s1, 24
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = mul double %t4, 2.3
+       %t5 = fmul double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6
-       %t8 = mul double %t7, 4.5
+       %t8 = fmul double %t7, 4.5
        store double %t8, double* %t6
        %indvar.next = add i64 %indvar, 1
        %exitcond = icmp eq i64 %indvar.next, 10
@@ -108,17 +107,17 @@ loop:
        %indvar.i8 = ashr i64 %s0, 8
        %t0 = getelementptr double* %d, i64 %indvar.i8
        %t1 = load double* %t0
-       %t2 = mul double %t1, 0.1
+       %t2 = fmul double %t1, 0.1
        store double %t2, double* %t0
        %s1 = shl i64 %indvar, 24
        %indvar.i24 = ashr i64 %s1, 24
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = mul double %t4, 2.3
+       %t5 = fmul double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6
-       %t8 = mul double %t7, 4.5
+       %t8 = fmul double %t7, 4.5
        store double %t8, double* %t6
        %indvar.next = sub i64 %indvar, 1
        %exitcond = icmp eq i64 %indvar.next, 0
@@ -137,16 +136,16 @@ loop:
        %indvar.i8 = and i64 %indvar, 255
        %t0 = getelementptr double* %d, i64 %indvar.i8
        %t1 = load double* %t0
-       %t2 = mul double %t1, 0.1
+       %t2 = fmul double %t1, 0.1
        store double %t2, double* %t0
        %indvar.i24 = and i64 %indvar, 16777215
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = mul double %t4, 2.3
+       %t5 = fmul double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6
-       %t8 = mul double %t7, 4.5
+       %t8 = fmul double %t7, 4.5
        store double %t8, double* %t6
        %indvar.next = add i64 %indvar, 1
        %exitcond = icmp eq i64 %indvar.next, 0
@@ -165,16 +164,16 @@ loop:
        %indvar.i8 = and i64 %indvar, 255
        %t0 = getelementptr double* %d, i64 %indvar.i8
        %t1 = load double* %t0
-       %t2 = mul double %t1, 0.1
+       %t2 = fmul double %t1, 0.1
        store double %t2, double* %t0
        %indvar.i24 = and i64 %indvar, 16777215
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = mul double %t4, 2.3
+       %t5 = fdiv double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6
-       %t8 = mul double %t7, 4.5
+       %t8 = fmul double %t7, 4.5
        store double %t8, double* %t6
        %indvar.next = sub i64 %indvar, 1
        %exitcond = icmp eq i64 %indvar.next, 18446744073709551615
@@ -194,17 +193,17 @@ loop:
        %indvar.i8 = ashr i64 %s0, 8
        %t0 = getelementptr double* %d, i64 %indvar.i8
        %t1 = load double* %t0
-       %t2 = mul double %t1, 0.1
+       %t2 = fmul double %t1, 0.1
        store double %t2, double* %t0
        %s1 = shl i64 %indvar, 24
        %indvar.i24 = ashr i64 %s1, 24
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = mul double %t4, 2.3
+       %t5 = fdiv double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6
-       %t8 = mul double %t7, 4.5
+       %t8 = fmul double %t7, 4.5
        store double %t8, double* %t6
        %indvar.next = add i64 %indvar, 1
        %exitcond = icmp eq i64 %indvar.next, 0
@@ -224,17 +223,17 @@ loop:
        %indvar.i8 = ashr i64 %s0, 8
        %t0 = getelementptr double* %d, i64 %indvar.i8
        %t1 = load double* %t0
-       %t2 = mul double %t1, 0.1
+       %t2 = fmul double %t1, 0.1
        store double %t2, double* %t0
        %s1 = shl i64 %indvar, 24
        %indvar.i24 = ashr i64 %s1, 24
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = mul double %t4, 2.3
+       %t5 = fdiv double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6
-       %t8 = mul double %t7, 4.5
+       %t8 = fmul double %t7, 4.5
        store double %t8, double* %t6
        %indvar.next = sub i64 %indvar, 1
        %exitcond = icmp eq i64 %indvar.next, 18446744073709551615