专栏算法工具链Float16精度的ONNX模型使用CPU版本的Docker转换BIN模型报错

Float16精度的ONNX模型使用CPU版本的Docker转换BIN模型报错

已解决
阿磊Emm2023-05-26
26
3
报错如下:
这是我的config.yaml文件

用的是官方yolov5导出的onnx模型,我自己觉得是要修改一下yaml文件中的某些参数,但是一直没弄对,万能社区求解upup

算法工具链
评论2
0/1000
  • 颜值即正义
    Lv.2

    可参考这篇文章:https://developer.horizon.ai/forumDetail/146176826065197074

    2023-05-29
    0
    1
    • 阿磊Emm回复颜值即正义:

      好的

      2023-06-04
      0
  • 颜值即正义
    Lv.2

    你好,我们暂不支持转换FP16的模式,只支持FP32走模型转换的流程。可以重新导出下onnx,也可以等等,我们这两天简单写个fp16模型转fp32模型的教程发在社区上,可以持续关注这篇文章:https://developer.horizon.ai/forumDetail/146176821770230117,写完后会放在这儿:

    2023-05-29
    0
    0