你好,很高兴收到您的反馈。模型部署一般包含三个阶段:推理数据准备、模型推理执行、推理结果处理和展示。目前OE开发包所提供的示例模型的部署代码都已在ai_benchmark进行了集成,你可以参考,具体到你提到的bev, 请参考:/horizon_j5_open_explorer_v1.1.xx-py38_YYYYMMDD/ddk/samples/ai_benchmark/j5/qat/script/bev.
你好,抱歉我可能没有将我的问题表述清楚。我确切想要知道的是:当我走完QAT流程后,编译得到上板模型.hbm,这个.hbm是否是要使用EasyDNN模块的一些API进行模型加载、任务分配、模型推理以及输出后处理等工作,我了解到J5板端的推理部署接口都是基于C++构建的,不支持PYTHON,所以是否有一个基于EasyDNN 部署BEV 完整示例呢?谢谢!
是这样的,对于hbm模型的加载和推理接口有目前两套:libdnn接口和easydnn接口,easydnn是TROS中基于libdnn的二次封装,如果你想基于TROS构建推理应用是可以使用easydnn模型的加载和推理过程。但是在OE包中的所有部署示例都是基于libdnn构建的,所以还是建议你使用libdnn中的接口进行模型的加载和推理,接口调用过程可以参考runtime示例和benchmark示例,benchmark中也同时包含了BEV模型的后处理代码,你也可以参考使用
9.3. 基础示例包使用说明 — Horizon Open Explorer 仔细看看这里的示例吧,示例表达的逻辑还是非常清晰的,特别是00_quick_start, 对于hbm的部署完全OK了,其他更多示例也只是基本接口调用的深化。