quantized_model.onnx,如何编译对应的bin文件
1. 芯片型号:J5
2. 天工开物开发包 OpenExplorer 版本:J5_OE_1.1.68
3. 问题定位:模型转换、模型编译
4. 问题具体描述:hb_mapper makertbin 模型转换成功,但是得到的 bin 文件无法上板,hrt_model_exec 报错 “node[BatchNormalization_1] output sizes:5 is not equal to according op[BatchNormalization] output size:1”,这个报错是因为我在转onnx时模型的model.training=True,导出的 BN 层有 5 个输出(Y, mean, var, saved_mean, saved_var),而地平线内只要求一个输出(Y),通过修改了 quantized_model.onnx 的BN节点输出,只保留了 Y , 但是没有对应的 bin模型,所以想请问有没有命令或方法能够将量化后的onnx模型编译成板端可执行文件(bin)

