专栏算法工具链关于onnx模型转BIN模型的三个中间onnx使用的疑问

关于onnx模型转BIN模型的三个中间onnx使用的疑问

已解决
小玺玺2023-05-27
64
1

在onnx转bin的过程中,有三个中间onnx模型:original_float_model.onnx、optimized_float_model.onnx、quantized_model.onnx。关于这几个模型的使用有几个疑问:

1. 从手册里只查到了这个模型的名字,没查到用法,以及之间的区别。若有针对这几个模型的更详细的解释,麻烦提供下参考链接哈。

2. 每个模型的输入是什么,输入对应的是yaml的input_train还是input_rt?

3. 我通过netron这个工具,用测试出quantized_model这个输入其实对应的是input_rt,但是输入的类型是Int8,那么其他两个模型的输入类型是float该如何使用。

算法工具链
评论1
0/1000
  • 小玺玺
    Lv.1

    在OE包里的samples找到一些示例,先研究下。

    2023-05-27
    0
    0