专栏算法工具链hb_compile 检查模型报错,Error when generating B30 ACU:

hb_compile 检查模型报错,Error when generating B30 ACU:

已解决
默认232322024-11-18
165
19

 

1. 芯片型号:j6

2. 板卡类型:地平线Matrix-J6M

3. 天工开物开发包 OpenExplorer 版本:3.0.17

4. 问题定位:模型转换 

 

5. 问题具体描述:

[==================================================]100%
Error when generating B30 ACU:
DIAGNOSTIC:
message=‘b30.pool2d’ op generates 2 errors:
BadBitWidth, bad value=16, expected range=[8,8], Output[0]; BadBitWidth, bad value=16, expected range=[8,8], Output[0];
notes=[‘see current operation: \n%8972 = “b30.pool2d”(%8969) , instanceId = 0 : i64, kernel = [3, 3], mode = #hbdk, pad = [1, 1, 0, 0], qppActionParams = [0, 16], qppActionTypes = [#hbdk, #hbdk], stride = [2, 2]}> ({\n “b30acu.tsrAddr”() : () -> ()\n “b30acu.tsrSz”() : () -> ()\n “b30acu.tsrSrd”() : () -> ()\n “b30acu.nSrd”() : () -> ()\n “b30acu.rep”() : () -> ()\n “b30acu.tsrAddr”() : () -> ()\n “b30acu.tsrSz”() : () -> ()\n “b30acu.tsrSrd”() : () -> ()\n “b30acu.aaePool”() : () -> ()\n “b30acu.aaeCfg”() : () -> ()\n “hbdk.return”() : () -> ()\n}) : (tensor) -> tensor’]
location=loc(callsite(fused]>>[“AveragePool_104”] at fused]>>[“AveragePool_104”]))
2024-11-18 01:32:59,726 ERROR *** ERROR-OCCUR-DURING hbdk.compile ***, error message: Failed to run pass pipeline
算法工具链
征程6
评论5
0/1000
  • 默认23232
    Lv.2
    编译命令如下

    hb_compile --model ${onnx_model} \

    --input-shape images 1x3x800x704 \

    --march nash-m

    hbdk version: 4.0.24.post0.dev202407110732+0b929db

    horizon_nn version: 2.0.4

    hb_compile version: 3.2.4

    依据错误信息,提及到AveragePool_104_id_161,尝试单独导出AveragePool onnx,进行hb_compile测试,没有问题。

    2024-11-18
    0
    1
    • Huanghui回复默认23232:

      你好,我看你这里的错误信息中很对i64,应该是你喂给大模型中AveragePool的数据,你单独导出AveragePool onnx进行测试用用的也是int64?

      2024-11-19
      0
  • kotei左文亮
    Lv.3

    问题收到,先把docker升级到22版本试一下

    2024-11-18
    0
    2
    • 默认23232回复kotei左文亮:

      Thks, 但是没法获得最新oe-sdk 和docker 。

      2024-11-18
      0
    • kotei左文亮回复默认23232:

      那这个17版本的是谁给你的啊? 可以问问 对接一下

      2024-11-19
      0
  • kotei左文亮
    Lv.3

    可以上传一下你的yaml文件和模型文件吗?

    2024-11-19
    0
    0
  • kotei左文亮
    Lv.3

    由于您长时间未回复,此问题就先关闭了,如还有疑问可再发贴求助。

    2024-11-26
    0
    0
  • 默认23232
    Lv.2
    @kotei左文亮 @Huanghui已升级22版本,可以编译。但是ptq标定,无任何分割结果都是背景使用nv12 和featuremap 格式结果一样onnx 模型 1个输入是 nchwfp32,1个输出 [1, 400, 352]fp32以下是yaml 文件

    model_parameters:
    onnx_model: "./bev_edge_20241029.onnx"
    march: "nash-m"
    working_dir: 'model_output'
    output_model_file_prefix: 'bev_edge_20241029_nv12'
    # remove_node_type: "Dequantize"

    input_parameters:
    input_name: ""
    input_type_rt: 'featuremap'
    input_type_train: 'featuremap'
    input_layout_train: 'NCHW'
    input_shape: '1x3x800x704'
    calibration_parameters:
    cal_data_dir: './calibration_data_bgr_j6'
    calibration_type: 'default'

    compiler_parameters:
    optimize_level: 'O2'
    2024-11-21
    0
    11
    • 默认23232回复默认23232:
      2024-11-21
      0
    • Huanghui回复默认23232:

      这个别叫奇怪呀,你自己的模型吗?有两个疑问:1. optized模型和ptq模型结果如何?2. ptq量化日志中余弦相似度如何?

      2024-11-21
      0
    • 默认23232回复Huanghui:
      跑 original_float_model.onnx 有分割结果
      ptq量化日志出现一个warning
      WARNING tensor 678 consine compute error.
      2024-11-21
      0
    • 默认23232回复Huanghui:

      有参数设置将这几层不进行量化吗

      2024-11-21
      0
    • Huanghui回复默认23232:

      这个看着还行呢,你是在 rt&train type都是featuremap 的时候测试的吗?跳过校准直接编译呢,就是calibration_type:"skip", 看看会是啥结果,和 original_float_model.onnx保持一样的输入测试一下bc模型的结果

      2024-11-21
      0
    • 默认23232回复Huanghui:
      是在 rt&train type都是featuremap 的时候测试的
      我加 quant_config.json 也没有用

      直接使用calibration_type:"skip" 也没有分割结果
      2024-11-21
      0
    • kotei左文亮回复默认23232:

      方便把模型转化的文件打包上传一下吗? 我们复现试一下

      2024-11-22
      0
    • 默认23232回复kotei左文亮:

      可否提供邮箱, 我邮件发你

      2024-12-02
      0
    • 默认23232回复默认23232:

      @kotei左文亮

      2024-12-02
      0
    • kotei左文亮回复默认23232:

      你可以直接放云盘吗? 然后发个链接 和提取码。我这边邮箱不是很方便额

      2024-12-02
      0
    • 默认23232回复kotei左文亮:
      由于信息安全,我也不能外发云盘 bitter_org.svg
      2024-12-02
      0