专栏算法工具链J6M 模型编译100%后卡着不动

J6M 模型编译100%后卡着不动

已解决
张元彪2025-09-28
70
15
J6M 模型编译100%后卡着不动
显示到100%后 十多个小时没有hbm文件生成,有可能是什么原因呢?
算法工具链
征程6技术深度解析
评论5
0/1000
  • Vincent
    Lv.4

    如果卡着不动, 你可以实时打印一下磁盘空间占用的变化, 有变化就说明流程还在继续。

    2025-09-28
    0
    1
    • 张元彪回复Vincent:

      同docker其他模型可以正常转换,而且之前这个模型也可以正常转换,时间不会这么久

      2025-09-29
      0
  • Vincent
    Lv.4

    可能流程还在继续,你这个是量化的什么模型

    2025-09-28
    0
    0
  • 费小财
    Lv.5

    还有没有环境的,看看是不是都这样,确实时间有点长了

    2025-09-28
    0
    0
  • DR_KAN
    Lv.4

    可以确认下OE版本,最近几个版本对编译速度是有优化的

    2025-09-28
    0
    1
    • 张元彪回复DR_KAN:

      这个要怎么查看呢?docker一直没变,估计不会自动更新

      2025-09-29
      0
  • Vincent
    Lv.4

    你好,当前问题解决了吗? 还是导不出来?

    2025-09-29
    0
    8
    • 张元彪回复Vincent:

      O2导不出来,O0的可以导出(但Softmax结果会大于1)。O2的还是卡着不动,O0和O2中间都会有一个下面的警告输出,这可能是什么问题呢?

      2025-09-29
      0
    • 张元彪回复张元彪:

      是onnx模型的问题吗?遇到过两次这种情况,这个问题的主要原因是什么呢?

      2025-09-29 15:48:29.742275802 [E:onnxruntime:, sequential_executor.cc:572 ExecuteKernel] Non-zero status code returned while running Reshape node. Name:'Unsqueeze_141' Status Message: /onnxruntime_src/onnxruntime/core/providers/cpu/tensor/reshape_helper.h:45 onnxruntime::ReshapeHelper::ReshapeHelper(const onnxruntime::TensorShape&, onnxruntime::TensorShapeVector&, bool) input_shape_size == size was false. The input tensor cannot be reshaped to the requested shape. Input shape:{8}, requested shape:{1,1}

      2025-09-29
      0
    • Vincent回复张元彪:

      这个是校准时 batch=8 的数据送入到模型里某个节点时,shape 不符合它的期望(它可能只支持 batch=1)。

      2025-09-30
      0
    • Vincent回复张元彪:

      你看下你的校准集的数据shape为多少

      2025-09-30
      0
    • Vincent回复张元彪:

      还有你的config文件里面指定batch了吗

      2025-09-30
      0
    • 张元彪回复Vincent:

      config文件中指定了:input_batch: 16

      onnx 输入:float32[input_0_dynamic_axes_1,3,704,1920]

      校准数据shape:(3, 704, 1920)

      2025-10-09
      0
    • Huanghui回复张元彪:

      input_batch改成1试试呢

      2025-10-14
      0
    • Huanghui回复张元彪:

      onnx输入不用动态输入试试,改成1*3*704*1920

      2025-10-14
      0