1.芯片:J32.OE版本:XJ3_OE_1.11.43.问题定位:板端部署4.问题具体描述:在板端进行模型推理时,若想对输入模型的batch size设置不同值,则模型转换过程中yaml配置文件--参数input_batch必须设置相应值吗?在评测工具ai_benchmark中,怎么设置模型预测时的batch size值?
您好,想对输入模型的batch size设置不同值,是需要模型转换时在yaml配置文件中配置input_batch的,设置为相应值的。ai_benchmark没有设置batch size的,都是batch size=1的,评测其它batch size的模型性能,可以在模型编译完成后,使用hrt_model_exec工具。另外,XJ3新版工具链OE1.15.2已发布,在遇到问题时,欢迎使用新版工具链进行尝试哈~版本发布链接可见:https://developer.horizon.ai/forumDetail/136488103547258769
感谢您使用地平线芯片算法工具链,最近我们在收集大家的满意度反馈,欢迎您填写问卷,详细情况可见:https://developer.horizon.ai/forumDetail/146177053698464782