-; RUN: llvm-upgrade < %s | llvm-as | llc -march=arm
+; RUN: llvm-as < %s | llc -march=thumb
+; RUN: llvm-as < %s | llc -march=arm > %t
+; RUN: grep rrx %t | count 1
+; RUN: grep __ashldi3 %t
+; RUN: grep __ashrdi3 %t
+; RUN: grep __lshrdi3 %t
-long %foo0(long %A, ulong %B) {
- %tmp = cast long %A to ulong ; <ulong> [#uses=1]
- %tmp2 = shr ulong %B, ubyte 1 ; <ulong> [#uses=1]
- %tmp3 = sub ulong %tmp, %tmp2 ; <ulong> [#uses=1]
- %tmp3 = cast ulong %tmp3 to long ; <long> [#uses=1]
- ret long %tmp3
+define i64 @f0(i64 %A, i64 %B) {
+ %tmp = bitcast i64 %A to i64
+ %tmp2 = lshr i64 %B, 1
+ %tmp3 = sub i64 %tmp, %tmp2
+ ret i64 %tmp3
}
+define i32 @f1(i64 %x, i64 %y) {
+ %a = shl i64 %x, %y
+ %b = trunc i64 %a to i32
+ ret i32 %b
+}
+
+define i32 @f2(i64 %x, i64 %y) {
+ %a = ashr i64 %x, %y
+ %b = trunc i64 %a to i32
+ ret i32 %b
+}
+
+define i32 @f3(i64 %x, i64 %y) {
+ %a = lshr i64 %x, %y
+ %b = trunc i64 %a to i32
+ ret i32 %b
+}