@@ -27,7 +27,8 @@ void test_global_add_half2(__global half2 *addr, half2 x) {
27
27
}
28
28
29
29
// CHECK-LABEL: test_global_global_min_f64
30
- // CHECK: call double @llvm.amdgcn.global.atomic.fmin.f64.p1.f64(ptr addrspace(1) %{{.*}}, double %{{.*}})
30
+ // CHECK: = atomicrmw fmin ptr addrspace(1) {{.+}}, double %{{.+}} syncscope("agent") monotonic, align 8, !amdgpu.no.fine.grained.memory !{{[0-9]+$}}
31
+
31
32
// GFX90A-LABEL: test_global_global_min_f64$local
32
33
// GFX90A: global_atomic_min_f64
33
34
void test_global_global_min_f64 (__global double * addr , double x ){
@@ -36,7 +37,8 @@ void test_global_global_min_f64(__global double *addr, double x){
36
37
}
37
38
38
39
// CHECK-LABEL: test_global_max_f64
39
- // CHECK: call double @llvm.amdgcn.global.atomic.fmax.f64.p1.f64(ptr addrspace(1) %{{.*}}, double %{{.*}})
40
+ // CHECK: = atomicrmw fmax ptr addrspace(1) {{.+}}, double %{{.+}} syncscope("agent") monotonic, align 8, !amdgpu.no.fine.grained.memory !{{[0-9]+$}}
41
+
40
42
// GFX90A-LABEL: test_global_max_f64$local
41
43
// GFX90A: global_atomic_max_f64
42
44
void test_global_max_f64 (__global double * addr , double x ){
@@ -65,7 +67,8 @@ void test_flat_global_add_f64(__global double *addr, double x){
65
67
}
66
68
67
69
// CHECK-LABEL: test_flat_min_flat_f64
68
- // CHECK: call double @llvm.amdgcn.flat.atomic.fmin.f64.p0.f64(ptr %{{.*}}, double %{{.*}})
70
+ // CHECK: = atomicrmw fmin ptr {{.+}}, double %{{.+}} syncscope("agent") monotonic, align 8, !amdgpu.no.fine.grained.memory !{{[0-9]+$}}
71
+
69
72
// GFX90A-LABEL: test_flat_min_flat_f64$local
70
73
// GFX90A: flat_atomic_min_f64
71
74
void test_flat_min_flat_f64 (__generic double * addr , double x ){
@@ -74,7 +77,8 @@ void test_flat_min_flat_f64(__generic double *addr, double x){
74
77
}
75
78
76
79
// CHECK-LABEL: test_flat_global_min_f64
77
- // CHECK: call double @llvm.amdgcn.flat.atomic.fmin.f64.p1.f64(ptr addrspace(1) %{{.*}}, double %{{.*}})
80
+ // CHECK: = atomicrmw fmin ptr addrspace(1) {{.+}}, double %{{.+}} syncscope("agent") monotonic, align 8, !amdgpu.no.fine.grained.memory !{{[0-9]+$}}
81
+
78
82
// GFX90A: test_flat_global_min_f64$local
79
83
// GFX90A: global_atomic_min_f64
80
84
void test_flat_global_min_f64 (__global double * addr , double x ){
@@ -83,7 +87,8 @@ void test_flat_global_min_f64(__global double *addr, double x){
83
87
}
84
88
85
89
// CHECK-LABEL: test_flat_max_flat_f64
86
- // CHECK: call double @llvm.amdgcn.flat.atomic.fmax.f64.p0.f64(ptr %{{.*}}, double %{{.*}})
90
+ // CHECK: = atomicrmw fmax ptr {{.+}}, double %{{.+}} syncscope("agent") monotonic, align 8, !amdgpu.no.fine.grained.memory !{{[0-9]+$}}
91
+
87
92
// GFX90A-LABEL: test_flat_max_flat_f64$local
88
93
// GFX90A: flat_atomic_max_f64
89
94
void test_flat_max_flat_f64 (__generic double * addr , double x ){
@@ -92,7 +97,8 @@ void test_flat_max_flat_f64(__generic double *addr, double x){
92
97
}
93
98
94
99
// CHECK-LABEL: test_flat_global_max_f64
95
- // CHECK: call double @llvm.amdgcn.flat.atomic.fmax.f64.p1.f64(ptr addrspace(1) %{{.*}}, double %{{.*}})
100
+ // CHECK: = atomicrmw fmax ptr addrspace(1) {{.+}}, double %{{.+}} syncscope("agent") monotonic, align 8, !amdgpu.no.fine.grained.memory !{{[0-9]+$}}
101
+
96
102
// GFX90A-LABEL: test_flat_global_max_f64$local
97
103
// GFX90A: global_atomic_max_f64
98
104
void test_flat_global_max_f64 (__global double * addr , double x ){
0 commit comments