专栏算法工具链【求助】BEVFormer 板端使用 mini 数据进行推理,效果严重掉点

【求助】BEVFormer 板端使用 mini 数据进行推理,效果严重掉点

已解决
🇨 🇯 🇱ᨼ ᩚ2025-09-26
404
14

芯片型号:J6M

OE版本:3.0.31

问题:根据 https://developer.horizon.auto/blog/12602 使用 nuscenes 的 mini 数据进行验证时,得到的结果不对

 

我的操作如下:

对的,除了帖子中的 '2.2 NFS服务器安装、配置 以及 板端挂载使用' 这一节直接跳过(其余同学已经配置好了),然后按照整体的步骤执行一遍之后,却发现评估得到的精度很低
1. 将 nuscenes 的 mini 数据集按照要求放置 
2. 使用 OE 中的 /open_explorer/samples/ucp_tutorial/dnn/ai_benchmark/j6/qat/tools/eval_preprocess 下的 bev_preprocess.py 文件执行后得到 nuscenes_bev 文件夹,idx.txt
3. 将 nuscenes_bev 文件夹,idx.txt 文件传输到板端,在板端使用 gen_file_list.sh 生成相应的 lst 文件 
4. 使用 bash accuracy.sh 得到推理之后的 eval.log 文件
5. 将 eval.log 文件回传到本地 OE 中,使用 /media/hy/Docus/J6M/open_explorer/samples/ucp_tutorial/dnn/ai_benchmark/j6/qat/tools/python_tools/accuracy_tools 中的 bev_eval.py 得到指标

 

mini 数据的目录结构如下

 

bev_preprocess.py 配置项如下

 

idx.txt 的内容如下

 

nuscenes_bev 目录的结构如下

 

gen_file_list.sh 的内容如下

 

得到用于执行 accuracy.sh 的目录

 

执行 bash accuracy.sh 的打印内容

 

bev_eval 的配置

 

根据 eval.log 进行评估之后得到的结果

算法工具链
征程6技术深度解析
评论3
0/1000
  • Vincent
    Lv.4

    你好,是否可以详细描述下你当前遇到的问题?

    2025-09-26
    0
    0
  • Vincent
    Lv.4

    你是完全复现了这个帖子里面的内容吗?发现精度很低

    2025-09-26
    0
    1
    • 🇨 🇯 🇱ᨼ ᩚ回复Vincent:

      对的,主要就是这个问题,然后我将帖子更新了一下,将我的执行过程做了相关记录,麻烦您帮我看看是哪里出现了问题

      2025-09-26
      0
  • 费小财
    Lv.5

    你好,有执行的完整日志吗

    2025-09-26
    0
    10
    • 🇨 🇯 🇱ᨼ ᩚ回复费小财:

      帖子已更新,相关过程在描述中有所记录,麻烦您帮我检查一下是哪一步出现了问题~

      2025-09-26
      0
    • 费小财回复🇨 🇯 🇱ᨼ ᩚ:

      好的,看到更新了

      2025-09-28
      0
    • 🇨 🇯 🇱ᨼ ᩚ回复费小财:
      下图是直接使用 OE 包中的数据进行可视化的结果,上图是 bevformer 的推理结果,下图是 LSS 的推理结果,根据文档表示 bevformer 的实际性能比 LSS 的高,但图中显示 LSS 的检测效果比较好,这是什么原因引起的呢?
      2025-09-29
      0
    • Vincent回复🇨 🇯 🇱ᨼ ᩚ:

      你好,你用mini数据集重新QAT训练模型了吗还是知识推理测试

      2025-09-29
      0
    • Vincent回复🇨 🇯 🇱ᨼ ᩚ:

      如果重新训练了,效果不好可能跟数据集有关,小数据集有可能破坏预训练模型参数的稳定性

      2025-09-29
      0
    • 🇨 🇯 🇱ᨼ ᩚ回复Vincent:

      直接进行知识推理,即直接在板端执行 latency 测试的时候将输出配置修改为以下内容时得到的输出文件

      "output_config": { "output_type": "image", "enable_view_output": true, # 开启可视化 "view_output_dir": "./output_dir", # 可视化结果输出路径 "bev_ego2img_info": [ "../../config/visible/bev/scenes.json", # 输入的场景信息 "../../config/visible/bev/boston.bin", # boston场景的homography矩阵 "../../config/visible/bev/singapore.bin" # singapore场景的homography矩阵 ], "image_list_enable": true, "in_order": false }

      2025-09-29
      0
    • 🇨 🇯 🇱ᨼ ᩚ回复🇨 🇯 🇱ᨼ ᩚ:

      测试使用的数据是 OE 包中提供的 163b70e627854893b88575caf85a56ea.bin b10f0cd792b64d16a1a5e8349b20504c.bin 6eb8a3ff0abf4f3a9380a48f2a0b87ef.bin fd8420396768425eabec9bdddf7e64b6.bin 四帧

      2025-09-29
      0
    • 费小财回复🇨 🇯 🇱ᨼ ᩚ:

      试过所有的场景都是这样的问题吗

      2025-09-30
      0
    • 费小财回复🇨 🇯 🇱ᨼ ᩚ:

      有没有其他的测试数据,也可以试试看看是不是都这样的结果的

      2025-09-30
      0
    • 🇨 🇯 🇱ᨼ ᩚ回复费小财:
      我在 mini 数据的 val 数据和 OE 包中给定的数据得到的结构都比较差,下图是一个 mini 的 val 的可视化结果

      部分行人的效果反而要好一点
      2025-09-30
      0