在onnx转bin的过程中,有三个中间onnx模型:original_float_model.onnx、optimized_float_model.onnx、quantized_model.onnx。关于这几个模型的使用有几个疑问:
1. 从手册里只查到了这个模型的名字,没查到用法,以及之间的区别。若有针对这几个模型的更详细的解释,麻烦提供下参考链接哈。
2. 每个模型的输入是什么,输入对应的是yaml的input_train还是input_rt?
3. 我通过netron这个工具,用测试出quantized_model这个输入其实对应的是input_rt,但是输入的类型是Int8,那么其他两个模型的输入类型是float该如何使用。
