专栏算法工具链onnx op ConvTranspose未被转换到bpu

onnx op ConvTranspose未被转换到bpu

已解决
皮卡丘2024-09-25
79
3

用户您好,请详细描述您所遇到的问题,详细的描述有助于帮助我们快速定位,解决问题~Thanks♪(・ω・)ノ

1. 芯片型号:j6m

2. 天工开物开发包 OpenExplorer 版本:v3.0.17

3. 问题定位:模型转换

4. 问题具体描述:hb_compile --fast-perf --model ../detector.onnx --march nash-m

转换模型detector过程中,有一个op ConvTranspose 没有被转换到BPU上,麻烦请分析下原因,并给出解决方案

附件:
算法工具链
征程6
评论3
0/1000
  • J6标定问题
    Lv.1

    问题已收到,我们先看看

    2024-09-26
    0
    0
  • J6标定问题
    Lv.1
     可以在YAML配置文件中calibration_parameters后面将cpu算子使用run_on_bpu:算子名称,以及将 ConvTranspose算子使用int16,具体使用方法

    node_info: {

      ConvTranspose: {

       'InputType': 'int16',

       'OutputType': 'int16',

       'ON': 'BPU'

      }

    2024-09-26
    0
    0
  • Huanghui
    Lv.5

    客户您好,长时间未收到你的答复,相信问题已解。如对此尚存疑问欢迎新帖讨论,感谢您的参与!

    2024-10-08
    0
    0