专栏算法工具链hbm模型上板报错了

hbm模型上板报错了

已解决
Mercury2026-01-22
74
9
芯片型号:J6 天工开物开发包 OpenExplorer 版本:3.5.0 天工开物开发包 docker镜像名称:openexplorer/ai_toolchain_ubuntu_22_j6_gpu:v3.5.0

sparse4d  qat量化编译得到的hbm模型在docker里面可以正常推理,将其放到板端做推理的时候出现如下问题:
附件:
算法工具链
征程6
评论2
0/1000
  • YCJ
    Lv.4

    可能是板端hrt环境和开发机不匹配。你尝试一下在OE包samples/ucp_tutorial/tools/hrt_model_exec这个目录里重新编译一下hrt工具,拷到板端去运行试一试

    2026-01-22
    0
    5
    • ZQQ回复YCJ:

      芯片型号j6b,OE包V3.7,使用自带的hrt_model_exec工具,在X86上运行,报错如下,量化模型正常,在板端能正常运行,这是为啥?

      2026-02-09
      0
    • ZQQ回复ZQQ:

      [E][343][02-09][20:39:57:305][packed_model.cpp:132][hrt_model_exec][DNN] [Model] Load model failed, model file:./detect_sim.hbm

      [E][343][02-09][20:39:57:305][main.cpp:419][hrt_model_exec][HRT_MODEL_EXEC] hbDNNInitializeFromFiles failed, error code: -600004

      2026-02-09
      0
    • YCJ回复ZQQ:

      模型编译你使用的nash-b架构,OE里的hrt无法加载nash-b的模型。你板端能加载说明和oe的hrt不一致。你可以试试板端能否加载nash-e的模型。建议板端和开发机的hrt工具保持一致,模型架构和你的板子架构保持一致

      2026-02-09
      0
    • ZQQ回复YCJ:

      但是正常来说,开发板是J6b,在yaml里面配置就应该是nash-b呀?为啥要用nash-e?还是说openexplorer/ai_toolchain_ubuntu_22_j6_gpu:v3.7.0 的hrt_model_exec不支持j6b的芯片?

      2026-02-10
      0
    • ZQQ回复YCJ:

      试了j6b板端,无法加载nash-e的模型,但是可以加载nash-b的模型

      2026-02-10
      0
  • YCJ
    Lv.4

    怎么样?目前问题解决了吗,是什么状态?

    2026-01-26
    0
    2
    • Mercury回复YCJ:
      不好意思,现在才看到,是我混用不同版本的docker导致的,换成同一个docker进行量化编译和生成hrt环境后就可以运行了,感谢你的回答xianhua_org.svg
      2026-01-26
      0
    • YCJ回复Mercury:
      good_org.svg
      2026-01-26
      0