专栏算法工具链模型量化后输出节点名称变化

模型量化后输出节点名称变化

解答中
eyehorus2024-10-22
5
1

1. 芯片型号:J6E

2. 天工开物开发包 OpenExplorer 版本:J6_OE_3.0.17

3. 问题定位:模型转换

4. 问题具体描述:

在使用hb_compile命令进行模型量化与转换时,log记录到原始onnx模型的输出节点为:

转换后使用hrt_model_exec model_info检查生成的hbm model,得到输出节点为:

请问为什么output_3的名字会变为onnx::Conv_535_calibrated?

另外尝试在yaml文件中通过output_nodes参数直接指定模型输出节点,得到以下报错:


算法工具链
征程6
评论1
0/1000
  • Huanghui
    Lv.5

    1. 输出名字变化的这个问题,你可以看一下是否在yaml配置中使用了 remove_node_type 参数,该参数配置上会把 "Quantize"、 "Transpose"、 "Dequantize"、 "Cast"、 "Reshape"、 "Softmax" 这类出现在模型首部或尾部的算子移除,然后在后处理逻辑中实现以缓解多次数据遍历带来的带宽压力,加上整个推理过程。如果算子被移除了,被移除算子的intput或暴露为output.

    2.output_nodes整个是精度调试用的,方便查看推理过程中中间节点的featurn输出,不是用于控制这个的。

    2025-12-26
    0
    0