专栏算法工具链怎样才能模型导出为fp16精度,不经过量化

怎样才能模型导出为fp16精度,不经过量化

已解决
Oops2024-11-29
84
1
1.芯片型号:j6m
2.天工开物开发包:horizon_j6_open_explorer_v3.0.17-py310_20240705
3.问题定位:模型转换
4具体信息:模型对于量化比较敏感,怎么直接到处fp16的hbm文件,在板端进行部署
算法工具链
征程6
评论1
0/1000
  • Huanghui
    Lv.5

    你好,fp16的支持还在研发中,目前尚不支持。可以关注工具链发版情况,支持后我们会通知大家,感谢理解!

    2024-12-03
    0
    0