芯片型号:J6 天工开物开发包 OpenExplorer 版本:3.5.0 天工开物开发包 docker镜像名称:openexplorer/ai_toolchain_ubuntu_22_j6_gpu:v3.5.0 sparse4d qat量化编译得到的hbm模型在docker里面可以正常推理,将其放到板端做推理的时候出现如下问题:
[E][343][02-09][20:39:57:305][packed_model.cpp:132][hrt_model_exec][DNN] [Model] Load model failed, model file:./detect_sim.hbm[E][343][02-09][20:39:57:305][main.cpp:419][hrt_model_exec][HRT_MODEL_EXEC] hbDNNInitializeFromFiles failed, error code: -600004
模型编译你使用的nash-b架构,OE里的hrt无法加载nash-b的模型。你板端能加载说明和oe的hrt不一致。你可以试试板端能否加载nash-e的模型。建议板端和开发机的hrt工具保持一致,模型架构和你的板子架构保持一致
但是正常来说,开发板是J6b,在yaml里面配置就应该是nash-b呀?为啥要用nash-e?还是说openexplorer/ai_toolchain_ubuntu_22_j6_gpu:v3.7.0 的hrt_model_exec不支持j6b的芯片?