专栏算法工具链模型量化后输出节点名称变化

模型量化后输出节点名称变化

已解决
eyehorus2024-10-22
10
2

1. 芯片型号:J6E

2. 天工开物开发包 OpenExplorer 版本:J6_OE_3.0.17

3. 问题定位:模型转换

4. 问题具体描述:

在使用hb_compile命令进行模型量化与转换时,log记录到原始onnx模型的输出节点为:

转换后使用hrt_model_exec model_info检查生成的hbm model,得到输出节点为:

请问为什么output_3的名字会变为onnx::Conv_535_calibrated?

另外尝试在yaml文件中通过output_nodes参数直接指定模型输出节点,得到以下报错:


算法工具链
征程6
评论2
0/1000
  • HuangHui
    Lv.5

    1. 输出名字变化的这个问题,你可以看一下是否在yaml配置中使用了 remove_node_type 参数,该参数配置上会把 "Quantize"、 "Transpose"、 "Dequantize"、 "Cast"、 "Reshape"、 "Softmax" 这类出现在模型首部或尾部的算子移除,然后在后处理逻辑中实现以缓解多次数据遍历带来的带宽压力,加上整个推理过程。如果算子被移除了,被移除算子的intput或暴露为output.

    2.output_nodes整个是精度调试用的,方便查看推理过程中中间节点的featurn输出,不是用于控制这个的。

    2025-12-26
    0
    0
  • HuangHui
    Lv.5

    客户您好,长时间未收到你的答复,相信问题已解。如对此尚存疑问欢迎新帖讨论,感谢您的参与!

    2026-03-31
    0
    0