专栏算法工具链J5板端部署模型时出现内存分配问题

J5板端部署模型时出现内存分配问题

已解决
默认383362025-03-07
75
13

我自己通过PTQ方法量化了FPN模型,用hb_mapper makertbin量化显示成功转换,相关log在附件中。但当我在J5板端想部署模型测帧率时,出现了图中所示的错误,请问是什么原因?

附件:
算法工具链
征程5
评论3
0/1000
  • 默认38336
    Lv.1

    我的fps_workflow.json文件配置如下

    上述问题是在调用fps.sh时出现的,fps.sh脚本内容如下

    我的fps_workflow.json文件配置如下

    上述问题是在调用fps.sh时出现的,fps.sh脚本内容如下

    我的fps_workflow.json文件配置如下

    上述问题是在调用fps.sh时出现的,fps.sh脚本内容如下

    我的fps_workflow.json文件配置如下

    上述问题是在调用fps.sh时出现的,fps.sh脚本内容如下

    我的fps_workflow.json文件配置如下

    上述问题是在调用fps.sh时出现的,fps.sh脚本内容如下

    2025-03-07
    0
    1
    • 默认38336回复默认38336:

      每次发都会重复几次,忽略重复的即可

      2025-03-07
      0
  • 默认38336
    Lv.1

    用hrt_model_exec perf验证模型是否正常,出现hbDNNInitializeFromFiles failed, error code:-6000002。这表示模型哪里出现了问题

    2025-03-07
    0
    0
  • DR_KAN
    Lv.4

    模型太大,ION内存不够了,试下单线程能不能推理

    2025-03-10
    0
    9
    • 默认38336回复DR_KAN:

      请问这个在哪里设置

      2025-03-10
      0
    • 默认38336回复默认38336:

      我现在用的fps.sh脚本进行的推理

      2025-03-10
      0
    • 默认38336回复DR_KAN:

      我用hrt_model_exec perf验证,设置thread_num=1,load model to ddr花费1338ms,模型应该不算大吧?我看其他正常推理的模型花费的时间更长

      2025-03-10
      0
    • 默认38336回复DR_KAN:
      它的延迟也特别大,这是不是还是模型本身的问题?
      2025-03-10
      0
    • Huanghui回复默认38336:

      也有可能是跟你的输入数据有关,你输入的1024*1024,像官方示例里面应该没这么大吧,尺寸若呈几何增长,推理时间肯定要更长的

      2025-03-10
      0
    • 默认38336回复Huanghui:

      我在上位机利用PTQ量化过程中的05_evaluate.sh计算精度,发现若指定为原始的onnx模型,他可以读取全部的验证集并得到最终的结果。而如果指定为量化后的onnx模型,加载200个左右的验证集时就会被killed,查看内存占用情况发现内存占用基本快满了。

      2025-03-11
      0
    • 默认38336回复Huanghui:

      您指的是我fps_workflow.json里输入维度的1024*2048吗?我看提供的其他分割模型示例也是一样的大小

      2025-03-11
      0
    • Huanghui回复默认38336:
      2025-03-12
      0
    • Huanghui回复默认38336:

      dtc安装参考这个https://blog.csdn.net/qq_35031421/article/details/117966288

      2025-03-12
      0