专栏算法工具链量化后的onnx模型编译bin文件

量化后的onnx模型编译bin文件

已解决
qwertyx2024-07-16
27
2

quantized_model.onnx,如何编译对应的bin文件

1. 芯片型号:J5

2. 天工开物开发包 OpenExplorer 版本:J5_OE_1.1.68

3. 问题定位:模型转换、模型编译

4. 问题具体描述:hb_mapper makertbin 模型转换成功,但是得到的 bin 文件无法上板,hrt_model_exec 报错 “node[BatchNormalization_1] output sizes:5 is not equal to according op[BatchNormalization] output size:1”,这个报错是因为我在转onnx时模型的model.training=True,导出的 BN 层有 5 个输出(Y, mean, var, saved_mean, saved_var),而地平线内只要求一个输出(Y),通过修改了 quantized_model.onnx 的BN节点输出,只保留了 Y , 但是没有对应的 bin模型,所以想请问有没有命令或方法能够将量化后的onnx模型编译成板端可执行文件(bin)
算法工具链
征程5技术深度解析
评论1
0/1000
  • Huanghui
    Lv.5

    emm... 你这个描述有点纠结,问题是解决了还是没有解决,我看不都已经 "转换成功,得到bin 文件"了嘛, 还有就是bin文件无法上板是什么情况,用hrt_model_exec跑一下看看呢,有报错误是吗?

    2024-07-16
    0
    1
    • qwertyx回复Huanghui:

      不好意思,重新更新了问题描述,麻烦您看一下上面原帖子

      2024-07-16
      0