va_args support for Win64.
[oota-llvm.git] / test / CodeGen / X86 / masked-iv-safe.ll
index 7111d687ed4b9cc830056b61703b4dd8eb1c6fcb..0b4d73a683af9b3a54f810dfb129566ae181a267 100644 (file)
@@ -4,9 +4,9 @@
 ; RUN: not grep sar %t
 ; RUN: not grep shl %t
 ; RUN: grep add %t | count 2
-; RUN: grep inc %t | count 3
+; RUN: grep inc %t | count 4
 ; RUN: grep dec %t | count 2
-; RUN: grep lea %t | count 3
+; RUN: grep lea %t | count 2
 
 ; Optimize away zext-inreg and sext-inreg on the loop induction
 ; variable using trip-count information.
@@ -127,9 +127,6 @@ return:
        ret void
 }
 
-; TODO: If we could handle all the loads and stores as post-inc users, we could
-; use {-1,+,1} in the induction variable register, and we'd get another inc,
-; one fewer add, and a comparison with zero.
 define void @another_count_up(double* %d, i64 %n) nounwind {
 entry:
        br label %loop
@@ -172,7 +169,7 @@ loop:
        %indvar.i24 = and i64 %indvar, 16777215
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = fmul double %t4, 2.3
+       %t5 = fdiv double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6
@@ -202,7 +199,7 @@ loop:
        %indvar.i24 = ashr i64 %s1, 24
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = fmul double %t4, 2.3
+       %t5 = fdiv double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6
@@ -232,7 +229,7 @@ loop:
        %indvar.i24 = ashr i64 %s1, 24
        %t3 = getelementptr double* %d, i64 %indvar.i24
        %t4 = load double* %t3
-       %t5 = fmul double %t4, 2.3
+       %t5 = fdiv double %t4, 2.3
        store double %t5, double* %t3
        %t6 = getelementptr double* %d, i64 %indvar
        %t7 = load double* %t6