Fix the order of the operands in the llvm.fma intrinsic patterns for ARM,
[oota-llvm.git] / test / Analysis / ScalarEvolution / sext-iv-1.ll
index a9175c31d067b27d45997160faa7953fc55b4067..9063cbb22a7c4107d97f41f596b733b3cbec7c18 100644 (file)
@@ -1,5 +1,5 @@
-; RUN: llvm-as < %s | opt -disable-output -scalar-evolution -analyze \
-; RUN:  | grep { -->  (sext i. \{.\*,+,.\*\}<bb1> to i64)} | count 5
+; RUN: opt < %s -scalar-evolution -analyze \
+; RUN:  | grep { -->  (sext i. \{.\*,+,.\*\}<%bb1> to i64)} | count 5
 
 ; Don't convert (sext {...,+,...}) to {sext(...),+,sext(...)} in cases
 ; where the trip count is not within range.
@@ -18,7 +18,7 @@ bb1:          ; preds = %bb1, %bb1.thread
        %2 = sext i9 %1 to i64          ; <i64> [#uses=1]
        %3 = getelementptr double* %x, i64 %2           ; <double*> [#uses=1]
        %4 = load double* %3, align 8           ; <double> [#uses=1]
-       %5 = mul double %4, 3.900000e+00                ; <double> [#uses=1]
+       %5 = fmul double %4, 3.900000e+00               ; <double> [#uses=1]
        %6 = sext i7 %0 to i64          ; <i64> [#uses=1]
        %7 = getelementptr double* %x, i64 %6           ; <double*> [#uses=1]
        store double %5, double* %7, align 8
@@ -41,7 +41,7 @@ bb1:          ; preds = %bb1, %bb1.thread
        %2 = sext i9 %1 to i64          ; <i64> [#uses=1]
        %3 = getelementptr double* %x, i64 %2           ; <double*> [#uses=1]
        %4 = load double* %3, align 8           ; <double> [#uses=1]
-       %5 = mul double %4, 3.900000e+00                ; <double> [#uses=1]
+       %5 = fmul double %4, 3.900000e+00               ; <double> [#uses=1]
        %6 = sext i8 %0 to i64          ; <i64> [#uses=1]
        %7 = getelementptr double* %x, i64 %6           ; <double*> [#uses=1]
        store double %5, double* %7, align 8
@@ -64,7 +64,7 @@ bb1:          ; preds = %bb1, %bb1.thread
        %2 = sext i9 %1 to i64          ; <i64> [#uses=1]
        %3 = getelementptr double* %x, i64 %2           ; <double*> [#uses=1]
        %4 = load double* %3, align 8           ; <double> [#uses=1]
-       %5 = mul double %4, 3.900000e+00                ; <double> [#uses=1]
+       %5 = fmul double %4, 3.900000e+00               ; <double> [#uses=1]
        %6 = sext i8 %0 to i64          ; <i64> [#uses=1]
        %7 = getelementptr double* %x, i64 %6           ; <double*> [#uses=1]
        store double %5, double* %7, align 8
@@ -87,7 +87,7 @@ bb1:          ; preds = %bb1, %bb1.thread
        %2 = sext i9 %1 to i64          ; <i64> [#uses=1]
        %3 = getelementptr double* %x, i64 %2           ; <double*> [#uses=1]
        %4 = load double* %3, align 8           ; <double> [#uses=1]
-       %5 = mul double %4, 3.900000e+00                ; <double> [#uses=1]
+       %5 = fmul double %4, 3.900000e+00               ; <double> [#uses=1]
        %6 = sext i8 %0 to i64          ; <i64> [#uses=1]
        %7 = getelementptr double* %x, i64 %6           ; <double*> [#uses=1]
        store double %5, double* %7, align 8