问题我已经反馈给社区了,等他们修改吧,应该是触发了什么BUG私信我也看不见,我在这里继续回复你那两个参数是在optimization里写的,不仅可以写int8,也可以写int16如果softmax在最后一层,那么softmax以int类型输出后,尾部会被额外添加一个反量化算子,所以最终的输出还是float32
没错,是J6,我直接在quant_config.json里写入:{"op_config":{"Softmax":{"qtype":"int8"}}}重新编译后,结尾的softmax可以被分解并跑在BPU上了,这个问题可以关闭了,谢谢