# int8
--reset

--dt=u8:s8:s8,s8:s8:f32,s8:s8:f16,s8:u8:f16
--stag=ab --wtag=ab,ba --dtag=ab
--runtime_dims_masks=0,2:1,1:0,3:1
--bia-dt=undef,f32 --bia_mask=2

--attr-scales=
--attr-post-ops=
--batch=shapes_2d

--attr-scales=src:common:0.25+wei:common:0.5+dst:common:4
--attr-post-ops=sum,prelu:per_oc
--batch=shapes_2d

--attr-scales=src:common:0.25+wei:per_oc+dst:common:4
--attr-post-ops=relu
--batch=shapes_2d

--dt=s8:s8:s32
--stag=ba --wtag=ab,ba --dtag=ab
--runtime_dims_masks=3:1,3:3
--bia-dt=f32 --bia_mask=1,2,3
--attr-scales=,src:common:1.25,wei:per_oc,dst:common:0.5
--attr-post-ops=add:f32,sum+mul:s32:per_oc+linear:2:-1
--batch=shapes_2d

# Zero-points check
--reset
--dt=s8:s8:s8,s8:s8:s32,u8:s8:f32
--attr-zero-points=src:common:1+wei:common:-1+dst:common:2, \
                   src:common:-1+wei:common:1, \
                   src:per_dim_1+wei:common:1+dst:common:2
--batch=shapes_2d

--attr-zero-points=src:common:1+wei:common:-1+dst:common:2, \
                   src:common:-1+wei:common:1
--batch=shapes_3d
--attr-zero-points=

# Weights decompression
--reset
--dt=f32:s8:f32,bf16:s8:bf16
--attr-fpmath=bf16:true
--attr-scales=wei:common:1.25:f32,wei:per_oc:bf16,wei:per_ocic:bf16:1x1
--attr-zero-points=wei:common:-1:s8,wei:per_oc:u8,wei:per_ocic:u8:1x1
--batch=shapes_2d
# Run-time
--stag=abc,acb --wtag=abc,acb --dtag=abc,bac
--runtime_dims_masks=0,1:1,3:1
--batch=shapes_3d

# test any
--reset
--dt=u8:s8:s32,s8:s8:s32
--stag=ab,ba,any --wtag=ab,ba,any --dtag=ab,any
--batch=shapes_2d

# 3d
--reset
--dt=u8:s8:s8,s8:s8:f32
--stag=abc,acb --wtag=abc,acb --dtag=abc,bac
--bia-dt=undef,f32 --bia_mask=4,6

--runtime_dims_masks=0,1:1
--attr-post-ops=,sum+add:s8:per_tensor
--batch=shapes_3d

--dt=s8:s8:f32
--attr-post-ops=sum:1:0:s32
--batch=shapes_3d

--dt=u8:s8:s8
--attr-post-ops=sum:1:0:u8
--batch=shapes_3d

--dt=u8:s8:s8,s8:s8:f32
--runtime_dims_masks=2:4,6:6,3:5,7:7
--attr-scales=src:common:0.25+wei:common:0.5+dst:common:4
--attr-post-ops=sum+relu+add:u8
--batch=shapes_3d

# Run-time
--batch=harness_matmul_runtime_int8

# regression
--batch=harness_matmul_regression_int8
