专栏算法工具链bev_sparse模型转的calibration模型无AP和推理box

bev_sparse模型转的calibration模型无AP和推理box

已解决
默认889922025-09-19
81
3

bev_sparse模型, 使用官方的float-checkpoint-best.pth.tar和官方calibration-checkpoint-best.pth.tar测试有精度和可视化结果,AP分别为0.434和0.4227, 使用Nuscenes自己训练的float模型经测试也有AP值和可视化结果,AP=0.3078 问题:使用上述官方的float-best和自己训练的float-best,去转calibration模型,AP值均为0且没有可视化结果,并且使用转换的calibration去训练qat模型时,回归损失都是0。测试日志和命令在附件中

附件:
算法工具链
征程6
评论1
0/1000
  • Huanghui
    Lv.5

    你好,你检查下在QAT流程中,对模型状态的控制是否正确?包括对浮点模型的改造,以及 set_fake_quantize 设置是否正确?

    2025-09-22
    0
    2
    • 默认88992回复Huanghui:
      1、请问对浮点模型改造是calibration训练必须做的嘛,无论是否有对模型的网络结构有修改。2、改造就是在forward的前后插入x= self.quant(x)和 x = self.dequant(x)是吧,对于sparse_bev是在以下位置插入是吧/root/.local/lib/python3.10/site-packages/hat/models/structures/sparsebevoe.py。3、修改set_fake_quantize的路径请问在哪里,以下位置不对是吧,好像没有起作用。非常感谢
      2025-09-22
      0
    • Huanghui回复默认88992:

      1.qat训练改造模型是必须的,2.是的forward前后嵌入 x= self.quant(x)和 x = self.dequant(x) ,这个sparse_bev是你自己从其他地方搞来的模型还是oe包里面的·,如果是其他的地方模型,需要改造,如果是oe包里面的示例,不需要改造,oe包里面已经改造了。3.OE官方文档下面qat示例教程里面有set_fake_quantize设置方法

      2025-09-22
      0