专栏底层软件bevformer量化后进行模型推理

bevformer量化后进行模型推理

已解决
默认328322024-12-06
114
6

您好,现在我们对bevformer算法量化完成得到了.hbm文件,现在正在使用该模型文件进行任务推理,但是在使用的过程中出现了输入不正确的问题。我们将6张图像作为输入,但是在运行的时候报错显示模型需要的输入数量为7.

 

另外就是在量化后生成的文件中,看到了下图中的信息,这7项input具体它们代表的是什么意思我们现在不理解?在进行模型推理时我们该如何使用?

希望您能帮我们解决一下我们的难题,谢谢。

底层软件
征程5
评论4
0/1000
  • Huanghui
    Lv.5

    你好,关于你的问题,请描述清晰一点呢:

    1. 你们使用的工具链版本情况(J6-3.0.22?还是啥)

    2. 你使用hbm模型进行任务推理,模型文件和你的推理过程需要你提供给我,这个我没有看到,没法验证问题。

    3. 你使用的bevformer模型是你你们自己的还是我们的示例,把示例的path信息高速我,我来check一下先

    2024-12-12
    0
    2
    • 默认32832回复Huanghui:

      你好,我们使用的工具链版本是J5-1.1.74,我们使用的是你们J6上面的模型,但是是放在J5的工具链当中编译得到的hbm模型。这个回复好像不能添加附件,请问模型文件和推理过程如何给您呢?

      2024-12-23
      0
    • 默认32832回复Huanghui:

      通过网盘分享的文件:cft_test.zip 链接: https://pan.baidu.com/s/18kbPjpKcbjOy2ZXhOy2FGA?pwd=1234 提取码: 1234

      2025-01-20
      0
  • Huanghui
    Lv.5

    你好,复现了一下你的问题。

    问题1: 将6张图像作为输入,但是在运行的时候报错显示模型需要的输入数量为7. .这个是你理解错了,模型确实是7个input, 也就是是vector的size为7,你说的6张图片只是说其中的一个Tensor的batchsize为6。

    问题2: 7项input具体它们代表的是什么意思 ?目前了解到的信息如下,至于怎么生成数据还在看,有结果的同步你。

    你好,复现了一下你的问题。

    问题1: 将6张图像作为输入,但是在运行的时候报错显示模型需要的输入数量为7. .这个是你理解错了,模型确实是7个input, 也就是是vector的size为7,你说的6张图片只是说其中的一个Tensor的batchsize为6。

    问题2: 7项input具体它们代表的是什么意思 ?目前了解到的信息如下,至于怎么生成数据还在看,有结果的同步你。

    你好,复现了一下你的问题。

    问题1: 将6张图像作为输入,但是在运行的时候报错显示模型需要的输入数量为7. .这个是你理解错了,模型确实是7个input, 也就是是vector的size为7,你说的6张图片只是说其中的一个Tensor的batchsize为6。

    问题2: 7项input具体它们代表的是什么意思 ?目前了解到的信息如下,至于怎么生成数据还在看,有结果的同步你。

    2025-01-23
    0
    0
  • Huanghui
    Lv.5

    你好,对于问题2:7个输入数据来源信息从代码逻辑中了解到的信息如下:

    1.用户需要提供的信息包括, 提供了imgs, ego2img,ego2global,bev_h,bev_w,point_cloud_range, num_points_in_pillar,bev_size。其中ego2img和ego2global来源于Nuscenes数据集,应该可以通过相机的内外参得到。 bev_h,bev_w,point_cloud_range, num_points_in_pillar,bev_size是模型定义是的参数。

    2. 上述数据与7个输入的关系是输入img由 imgs 得到,其他参数是由 imgs, ego2img,ego2global 结合 模型定义参数计算得到,部署时除了 img 和pre_bev是动态的,其他的参数都是可以提前计算后存成二进制使用的。在示例中可以将推理DEMO计算出的数据导出。

    计算过程截图如下供参考:

    2025-01-23
    0
    0
  • Huanghui
    Lv.5

    客户您好,长时间未收到你的答复,相信问题已解。如对此尚存疑问欢迎新帖讨论,感谢您的参与!

    2025-02-06
    0
    0