专栏感知yolov5 模型推理出现nan

yolov5 模型推理出现nan

默认317442024-07-01
180
7

控制器:J5

问题定位:板端部署

通过实例\horizon_j5_open_explorer_v1.1.68-py38_20231014\ddk\samples\ai_toolchain\horizon_model_convert_sample\04_detection\03_yolov5x转换的yolov5x_672x672_nv12.bin模型,板端部署,推理出来的预测框分值为nan

我用python在开发机上推理yolov5x_672x672_nv12_original_float_model.onnx和yolov5x_672x672_nv12_quantized_model.onnx都能得到正确结果

请问这种情况如何排查呢?

感知
征程5
评论2
0/1000
  • 默认31744
    Lv.1

    有工程师可以回复一下吗?

    2024-07-04
    0
    4
    • GOYUWJW回复默认31744:
      这边再尝试一下在模型转换时,将配置文件config.yaml中的 remove_node_type: "Quantize;Dequantize"改成remove_node_type: "Quantize"

      反量化节点的融合实现

      2024-07-04
      0
    • 默认31744回复GOYUWJW:

      可以了,但是精度下降,正常吗?

      2024-07-04
      0
    • GOYUWJW回复默认31744:

      如果hb_verifier通过,精度下降可能是你后处理代码的问题。

      2024-07-04
      0
    • 默认31744回复GOYUWJW:

      好的,谢谢

      2024-07-04
      0
  • Huanghui
    Lv.5

    初步判断可能是板端推理库版本问题,可以先使用hb_verifier验证一下bin模型和quantized.onnx的一致性,如果hb_verifier的结果是pass的,基本更新推理库或系统版本后可以解决

    2024-07-02
    0
    1
    • 默认31744回复Huanghui:

      您好,做过hb_verifier验证,显示通过。

      1、请问怎么更新推理库呢?是要更新到最新版本吗?

      2、请问这是系统最新版本吗?还需要更新吗?

      2024-07-02
      0