你好,从你的描述看是想通过PYTHON的推理过程获取推理结果,之后在C++程序应用中直接加载该结果以调试模型的后处理过程。如果你处于上述目的考虑,你需要考虑hbm推理得到的result,与你在python端推理得到的result是否子在数据类型和结果shape上保持一致,如果他们是一致的,你可以在python端通过tofile的方式保存成二进制的bin文件,然后按照一定的规则通过C++API读取这些bin文件后再进行后处理逻辑就OK了。如下示例供你参考:
pack中一般都是存储的解码后的信息,甚至是后处理过的信息,下游可以直接用的。模型推理结果是原始的,还需要做解码才能使用。具体存储的是什么信息要看接口怎么定义的,pack中的每个message都有对应的proto定义或者头文件,要根据那个来
您好,帮忙看看哈1.bev3d、bev_disc_obj话题,通过proto定义或者头文件得到infer.pack与地平线提供的hr.pack一致2.online_mapping话题中的instances字段数值均一样,但是matrix-client显示车道线,帮忙看看怎么理解3.datasize和metasize怎么理解
您帮忙确认下属于哪个分类1.模型推理的结果是一堆点集2.matrix-client可视化实车录制的pack中只包含下属instances信息且instances信息全部相等,想知道pack中有用的信息存储在哪里,与模型中推理的一堆点集怎么关联的
使用贵司的程序1.J6M2.OE3.2.03.float qat hbm4. 板端推理操作流程:1. 先通过 Python 得到推理结果,再用 C++ 将该结果打包存入infer.pack,后续后处理调试时会调用这个infer.pack https://developer.horizon.auto/blog/102482. 当前需求:需要让自定义的infer.pack与地平线提供的HOR.pack实现数据对齐3. 问题由来:上述对齐需求的核心卡点,是尚未明确如何通过 C++ 将 Python 推理结果正确压入(打包写入)infer.pack