专栏算法工具链BEV示例参考算法得到的hbm模型文件如何上板

BEV示例参考算法得到的hbm模型文件如何上板

已解决
xiangdong.tan@uaes2024-05-26
87
7

你好,

当前开发文档给出了一系列BEV参考算法示例,但均只提供了一个hbm模型文件,得到该hbm模型文件后,如何在J5板端部署推理并可视化,并无相关示例,请问可否提供一个相关的完整示例。

谢谢!

算法工具链
评论7
0/1000
  • Huanghui
    Lv.5

    你好,很高兴收到您的反馈。模型部署一般包含三个阶段:推理数据准备、模型推理执行、推理结果处理和展示。

    目前OE开发包所提供的示例模型的部署代码都已在ai_benchmark进行了集成,你可以参考,具体到你提到的bev, 请参考:/horizon_j5_open_explorer_v1.1.xx-py38_YYYYMMDD/ddk/samples/ai_benchmark/j5/qat/script/bev.

    2024-05-26
    0
    0
  • xiangdong.tan@uaes
    Lv.1

    你好,

    抱歉我可能没有将我的问题表述清楚。我确切想要知道的是:当我走完QAT流程后,编译得到上板模型.hbm,这个.hbm是否是要使用EasyDNN模块的一些API进行模型加载、任务分配、模型推理以及输出后处理等工作,我了解到J5板端的推理部署接口都是基于C++构建的,不支持PYTHON,所以是否有一个基于EasyDNN 部署BEV 完整示例呢?

    谢谢!

    2024-05-27
    0
    0
  • Huanghui
    Lv.5

    是这样的,对于hbm模型的加载和推理接口有目前两套:libdnn接口和easydnn接口,easydnn是TROS中基于libdnn的二次封装,如果你想基于TROS构建推理应用是可以使用easydnn模型的加载和推理过程。但是在OE包中的所有部署示例都是基于libdnn构建的,所以还是建议你使用libdnn中的接口进行模型的加载和推理,接口调用过程可以参考runtime示例和benchmark示例,benchmark中也同时包含了BEV模型的后处理代码,你也可以参考使用

    2024-05-27
    0
    0
  • xiangdong.tan@uaes
    Lv.1

    好的,除了您提到的这几个参考例程之外,请问还有其他的参考例程吗,这些例程似乎都有一些简略,开发文档对于板端.hbm的推理使用介绍也相对较少,麻烦了。

    谢谢!

    2024-05-27
    0
    0
  • Huanghui
    Lv.5
    2024-05-27
    0
    0
  • xiangdong.tan@uaes
    Lv.1

    好的,谢谢!

    2024-05-27
    0
    0
  • Huanghui
    Lv.5

    您客气!很荣幸有您这样积极的开发者。如果没有更多疑问,麻烦您及时关帖,后续如有其他疑问,在通过问题贴反馈,感谢支持!

    2024-05-27
    0
    0