ARM: use the proper target object format for WoA
[oota-llvm.git] / test / CodeGen / AArch64 / neon-mla-mls.ll
1 ; RUN: llc < %s -verify-machineinstrs -mtriple=aarch64-none-linux-gnu -mattr=+neon | FileCheck %s
2 ; RUN: llc < %s -verify-machineinstrs -mtriple=arm64-none-linux-gnu -mattr=+neon | FileCheck %s
3
4
5 define <8 x i8> @mla8xi8(<8 x i8> %A, <8 x i8> %B, <8 x i8> %C) {
6 ;CHECK: mla {{v[0-9]+}}.8b, {{v[0-9]+}}.8b, {{v[0-9]+}}.8b
7         %tmp1 = mul <8 x i8> %A, %B;
8         %tmp2 = add <8 x i8> %C, %tmp1;
9         ret <8 x i8> %tmp2
10 }
11
12 define <16 x i8> @mla16xi8(<16 x i8> %A, <16 x i8> %B, <16 x i8> %C) {
13 ;CHECK: mla {{v[0-9]+}}.16b, {{v[0-9]+}}.16b, {{v[0-9]+}}.16b
14         %tmp1 = mul <16 x i8> %A, %B;
15         %tmp2 = add <16 x i8> %C, %tmp1;
16         ret <16 x i8> %tmp2
17 }
18
19 define <4 x i16> @mla4xi16(<4 x i16> %A, <4 x i16> %B, <4 x i16> %C) {
20 ;CHECK: mla {{v[0-9]+}}.4h, {{v[0-9]+}}.4h, {{v[0-9]+}}.4h
21         %tmp1 = mul <4 x i16> %A, %B;
22         %tmp2 = add <4 x i16> %C, %tmp1;
23         ret <4 x i16> %tmp2
24 }
25
26 define <8 x i16> @mla8xi16(<8 x i16> %A, <8 x i16> %B, <8 x i16> %C) {
27 ;CHECK: mla {{v[0-9]+}}.8h, {{v[0-9]+}}.8h, {{v[0-9]+}}.8h
28         %tmp1 = mul <8 x i16> %A, %B;
29         %tmp2 = add <8 x i16> %C, %tmp1;
30         ret <8 x i16> %tmp2
31 }
32
33 define <2 x i32> @mla2xi32(<2 x i32> %A, <2 x i32> %B, <2 x i32> %C) {
34 ;CHECK: mla {{v[0-9]+}}.2s, {{v[0-9]+}}.2s, {{v[0-9]+}}.2s
35         %tmp1 = mul <2 x i32> %A, %B;
36         %tmp2 = add <2 x i32> %C, %tmp1;
37         ret <2 x i32> %tmp2
38 }
39
40 define <4 x i32> @mla4xi32(<4 x i32> %A, <4 x i32> %B, <4 x i32> %C) {
41 ;CHECK: mla {{v[0-9]+}}.4s, {{v[0-9]+}}.4s, {{v[0-9]+}}.4s
42         %tmp1 = mul <4 x i32> %A, %B;
43         %tmp2 = add <4 x i32> %C, %tmp1;
44         ret <4 x i32> %tmp2
45 }
46
47 define <8 x i8> @mls8xi8(<8 x i8> %A, <8 x i8> %B, <8 x i8> %C) {
48 ;CHECK: mls {{v[0-9]+}}.8b, {{v[0-9]+}}.8b, {{v[0-9]+}}.8b
49         %tmp1 = mul <8 x i8> %A, %B;
50         %tmp2 = sub <8 x i8> %C, %tmp1;
51         ret <8 x i8> %tmp2
52 }
53
54 define <16 x i8> @mls16xi8(<16 x i8> %A, <16 x i8> %B, <16 x i8> %C) {
55 ;CHECK: mls {{v[0-9]+}}.16b, {{v[0-9]+}}.16b, {{v[0-9]+}}.16b
56         %tmp1 = mul <16 x i8> %A, %B;
57         %tmp2 = sub <16 x i8> %C, %tmp1;
58         ret <16 x i8> %tmp2
59 }
60
61 define <4 x i16> @mls4xi16(<4 x i16> %A, <4 x i16> %B, <4 x i16> %C) {
62 ;CHECK: mls {{v[0-9]+}}.4h, {{v[0-9]+}}.4h, {{v[0-9]+}}.4h
63         %tmp1 = mul <4 x i16> %A, %B;
64         %tmp2 = sub <4 x i16> %C, %tmp1;
65         ret <4 x i16> %tmp2
66 }
67
68 define <8 x i16> @mls8xi16(<8 x i16> %A, <8 x i16> %B, <8 x i16> %C) {
69 ;CHECK: mls {{v[0-9]+}}.8h, {{v[0-9]+}}.8h, {{v[0-9]+}}.8h
70         %tmp1 = mul <8 x i16> %A, %B;
71         %tmp2 = sub <8 x i16> %C, %tmp1;
72         ret <8 x i16> %tmp2
73 }
74
75 define <2 x i32> @mls2xi32(<2 x i32> %A, <2 x i32> %B, <2 x i32> %C) {
76 ;CHECK: mls {{v[0-9]+}}.2s, {{v[0-9]+}}.2s, {{v[0-9]+}}.2s
77         %tmp1 = mul <2 x i32> %A, %B;
78         %tmp2 = sub <2 x i32> %C, %tmp1;
79         ret <2 x i32> %tmp2
80 }
81
82 define <4 x i32> @mls4xi32(<4 x i32> %A, <4 x i32> %B, <4 x i32> %C) {
83 ;CHECK: mls {{v[0-9]+}}.4s, {{v[0-9]+}}.4s, {{v[0-9]+}}.4s
84         %tmp1 = mul <4 x i32> %A, %B;
85         %tmp2 = sub <4 x i32> %C, %tmp1;
86         ret <4 x i32> %tmp2
87 }
88
89