专栏算法工具链PTQ量化时多batch沿维度拆分报错

PTQ量化时多batch沿维度拆分报错

已解决
老超20242024-10-17
98
5

您好,~Thanks♪(・ω・)ノ

1. 芯片型号:J6E

2. 天工开物开发包 OpenExplorer 版本:V3.0.22

3. 问题定位:模型转换

4. 问题具体描述:

使用以下代码在对模型输入沿batch维度拆分时出现以下报错:

相关*_ptq_model.onnx模型及配置文件已放入如下网盘中, 链接: https://pan.baidu.com/s/1pW44m0Bg0qxHR7-pErRHXg?pwd=1234 提取码: 1234


算法工具链
征程6
评论2
0/1000
  • Huanghui
    Lv.5

    你好,工具链3.0.22的释放文档《J6EM_OE_Pyramid_Resizer输入部署说明-v2.0.pdf》中的参考代码是错误的,另外你的模型比较特殊,除了batch n的图片输入外,还包含了其他的输入,针对你的模型请使用一下代码完成沿batch维度拆分:


    得到mobilenetv1_224x224_nv12_quantized.bc之后执行下面的命令进行量化节点移除和编译:

    2024-10-17
    0
    3
    • 老超2024回复Huanghui:

      您好,感谢支持!执行上述脚本后可以成功生成quantized_model.bc模型。请问使用hb_compile编译模型时,yaml配置文件中的onnx_model的路径是放float.onnx中的路径还是放置生成的bc模型路径呢?

      2024-10-17
      0
    • Huanghui回复老超2024:

      还是原来的FLOAT就行,实际上通过hb_compile 的model参数传入BC时,yaml中的那个配置项是什么不重要了,后面的流程不使用那个参数了

      2024-10-17
      0
    • 老超2024回复Huanghui:

      问题已解决,非常感谢!


      2024-10-17
      0
  • Huanghui
    Lv.5

    收到,我们分析整理一下,稍后回复你!

    2024-10-17
    0
    0