专栏算法工具链J5上模型转成int8推理结果有问题,int16推理结果没有问题

J5上模型转成int8推理结果有问题,int16推理结果没有问题

已解决
NINOWEN2025-12-15
55
0

使用OE包1.1.77量化模型,将所有节点转成INT16,量化前的onnx模型和量化后的onnx模型,推理结果都正常。

但是一旦使用Int8量化,余弦相似度还是很高0.99左右,量化前的onnx模型结果也没有问题,量化后的onnx模型输出不正确。

请问是什么问题呢?

 

附件:
算法工具链
征程5
评论0
0/1000