专栏算法工具链HB_ONNXRuntime推理结果差

HB_ONNXRuntime推理结果差

已解决
五岁月下练剑2023-04-24
77
5

OE版本:2.2.3

我看到在PTQ中的04_inference.sh脚本调用的det_inference.py中使用了HB_ONNXRuntime来推理quantized或者origin模型,可以顺利推理出较为准确的结果。但为什么推理model_zoo中的原始onnx模型的结果就很差呢,以yolov5为例,在04_inference.sh脚本中的origin模型路径改为model_zoo中YOLOV5s.onnx,推理结果如下
算法工具链
征程3
评论2
0/1000
  • 颜值即正义
    Lv.2

    您好,quantized_onnx和original_onnx是插入了预处理节点的onnx模型,model_zoo中的原始onnx模型,他们的模型结构不一样哈,您可以通过onnx可视化看一下。

    2023-04-24
    0
    2
    • 五岁月下练剑回复颜值即正义:
      那请问应该如何调整呢,怎么使用HB_ONNXRuntime来验证原始onnx呢
      2023-04-25
      0
    • 颜值即正义回复五岁月下练剑:

      可以看一下这篇文章的1.1节:https://developer.horizon.ai/forumDetail/71036815603174578

      2023-04-25
      0
  • 颜值即正义
    Lv.2
    2023-04-24
    0
    1
    • 五岁月下练剑回复颜值即正义:

      ok,填了

      2023-04-25
      0