专栏算法工具链tools/export_onnx.py导出qat模型问题。关于导出onnx,算子域的问题。

tools/export_onnx.py导出qat模型问题。关于导出onnx,算子域的问题。

已解决
zzzzzaaaaaa2025-06-12
77
7
采用J6的V3.0.17和v3.0.22版本中的export_onnx.py导出qat模型,使用的是configs/bev/bev_lss_efficientnetb0_multitask_nuscenes.py,导出的qat.onnx模型中的卷积为什么还属于pytorch域中_convolution算子,并未转换到onnx域中。怎么样操作才能到onnx域。

使用指令:python3 tools/export_onnx.py --config configs/bev/bev_lss_efficientnetb0_multitask_nuscenes.py 

算法工具链
征程6
评论2
0/1000
  • zzzzzaaaaaa
    Lv.1
    2025-06-12
    0
    1
    • momo(社区版)回复zzzzzaaaaaa:

      导出浮点的onnx吧,具体方法可以看https://developer.horizon.auto/blog/10174

      2025-06-24
      0
  • 遥看瀑布挂前川
    Lv.2

    qat_model不是官方onnx算子范围了,使用官方的推理接口也是不能推理的,是工具链对qat_model处理的中间结果。

    2025-06-12
    0
    4
    • zzzzzaaaaaa回复遥看瀑布挂前川:

      那么如何得到官方支持的qat.onnx模型,采用QAT2Quantize得到的Quantize.onnx模型可以转成bc模型吗,可以编译成hbm模型吗。

      2025-06-16
      0
    • zzzzzaaaaaa:

      之前J5这个方法不能使用了吗
      2025-06-16
      0
    • zzzzzaaaaaa回复遥看瀑布挂前川:

      卷积算子不能够转换到onnx域?

      2025-06-16
      0
    • momo(社区版)回复zzzzzaaaaaa:

      J6不支持load方式了

      2025-06-24
      0