专栏算法工具链J6 量化部署,板端output输出全是0,使用的数据前处理及后处理示例代码

J6 量化部署,板端output输出全是0,使用的数据前处理及后处理示例代码

已解决
默认579842025-07-30
343
44
  1. J6

  2. OE包V3.031

  3. x86端验证hbm和bc模型输出一致且正确做图,上板部署遇到输出为0情况,图像及tensor处理使用示例代码进行操作,进行如下几种尝试输出皆无结果

    1. ptq  input_type_rt : nv12   使用00_quick_start/resnet_nv12示例代码里面的 prepare_tensor 及read_image_2tensorasnv12函数进行数据预处理,模型推理后解析出来结果都为0

    2. ptq  input_type_rt : nv12  

      extra_params: {"input_no_padding": True, "output_no_padding": True}

      使用00_quick_start/resnet_nv12示例代码里面的 prepare_tensor 及read_image_2tensorasnv12函数进行数据预处理,模型推理后解析出来结果都为0


    3. input_type_rt: 'featuremap'
      input_type_train: 'featuremap'

       使用00_quick_start/resnet_rgb示例代码里面的 prepare_tensor 及 OE包文档里的读取.bin(校准集)文件示例进行数据预处理,模型推理后解析出来结果都为0

算法工具链
征程6技术深度解析
评论7
0/1000
  • DR_KAN
    Lv.4

    可以试一下直接用hrt_model_exec的infer在板端对hbm做推理,先不要用自己的代码

    2025-07-31
    1
    2
    • 默认57984回复DR_KAN:
      这是运行后的结果,看样子没啥问题?
      2025-07-31
      0
    • 默认57984:

      跑的featuremap格式的模型

      2025-07-31
      0
  • Huanghui
    Lv.5

    看下你的config文件配置

    2025-07-30
    0
    1
    • 默认57984回复Huanghui:

      见上图分别为nv12及featuremap config,输出的bc模型在x86端正常输出

      2025-07-30
      0
  • 默认57984
    Lv.1
    2025-07-30
    0
    11
    • Huanghui回复默认57984:

      现在是在x86上可以正常推理hbm和bc对吧?检测结果都正确?在板端推理结果全为0?

      2025-07-30
      0
    • Huanghui回复默认57984:

      你这个input_type_rt是nv12,板端也要用NV12

      2025-07-30
      0
    • Huanghui回复默认57984:

      然后我看到你配置里面没有对图像进行任何归一化胡总和缩放操作,就是没有进行处理

      2025-07-30
      0
    • 默认57984回复Huanghui:
      对,x86端结果如下。板端打印output都是0
      2025-07-30
      0
    • 默认57984回复Huanghui:

      板端我放这张图片,然后 使用的是00_quick_start/resnet_nv12示例代码里面的 read_image_2tensorasnv12函数给模型输入,这地方板端我理解应该是nv12的输入

      2025-07-30
      0
    • Huanghui回复默认57984:

      bgr,rgb的那个layout都是NHWC

      2025-07-30
      0
    • 默认57984回复Huanghui:
      是的,校准集的生成使用的是这个transform
      2025-07-30
      0
    • Huanghui回复默认57984:

      是NV12的输入,模型内部会自动转为BGR

      2025-07-30
      0
    • Huanghui回复默认57984:

      你这些校准集都预处理过吗

      2025-07-30
      0
    • 默认57984回复Huanghui:

      没有预处理过,就是原始图片

      2025-07-30
      0
    • 默认57984回复Huanghui:

      最终导出的hbm模型输入是NHWC格式的,config中的train_layout肯定是根据训练配置来吧,训练是NCHW

      2025-07-30
      0
  • 默认57984
    Lv.1
    featuremap配置
    2025-07-30
    0
    16
    • Huanghui回复默认57984:

      你都设置成featuremap 你可以参考下模型部署实践指导第一个示例的

      2025-07-30
      0
    • 默认57984回复Huanghui:
      beishang_org.svg我就是按照OE包第一个部署示例读binary文件做的,输出也全是0
      2025-07-30
      0
    • Huanghui回复默认57984:

      要不你把模型发过来,我验证下

      2025-07-30
      0
    • 默认57984回复Huanghui:
      帖子无法上传文件,我把它放到飞书上了,黄哥要不wx通过我一下,10分种应该能搞定qiurao02_org.svghttps://nxzby0gauqy.feishu.cn/wiki/DKhowfg5IiFW0ZkTBPlcwLAGnBd?from=from_copylink
      2025-07-30
      0
    • 默认57984回复默认57984:

      上一个是nv12的模型,这个链接是featuremap的模型https://nxzby0gauqy.feishu.cn/wiki/TNjXw2f4Ei1F0UkvaTncBw9FnLc?from=from_copylink

      2025-07-30
      0
    • Huanghui回复默认57984:

      featuremap也是在x86上可以i进行hbm和bc的正常推理吗,在板端输出全0?

      2025-07-30
      0
    • 默认57984回复Huanghui:

      x86上featuremap的bc能正确推理,hbm我现在验证下,板端输出全为0

      2025-07-30
      0
    • Huanghui回复默认57984:

      我去板端试验下

      2025-07-30
      0
    • Huanghui回复默认57984:

      发我一个bgr图像

      2025-07-30
      0
    • Huanghui回复默认57984:

      不用发了我生成一张随机数据

      2025-07-30
      0
    • 默认57984回复Huanghui:

      https://nxzby0gauqy.feishu.cn/wiki/FPcPw6rpbifgPmkFT2mcFwohnQb?from=from_copylink

      2025-07-30
      0
    • Huanghui回复默认57984:

      bin文件数据之前的npy格式形状形状对的上吗?

      2025-07-30
      0
    • 默认57984回复Huanghui:

      对的上,使用的OE包示例的npy转bin文件 都是384x640的

      2025-07-30
      0
    • Huanghui回复默认57984:

      NCHW?

      2025-07-30
      0
    • 默认57984回复Huanghui:

      2025-07-30
      0
    • 默认57984回复Huanghui:

      hbm跟bc推理出来的output是equal的

      2025-07-30
      0
  • 默认57984
    Lv.1

    hello?有人吗

    2025-07-31
    0
    3
    • Huanghui回复默认57984:

      我帮你问问别人吧,我在板端测试,发现各种环境bug

      2025-07-31
      0
    • 默认57984回复Huanghui:

      恩恩 麻烦尽快,被折磨的不行了

      2025-07-31
      0
    • 默认57984回复Huanghui:

      我打印了inputtensor的值 正常和推理时间 5ms左右,但是outputtensor读出来还是0

      2025-07-31
      0
  • 默认57984
    Lv.1

    hello?

    2025-07-31
    0
    0
  • 默认57984
    Lv.1

    hello 有人吗

    2025-08-01
    0
    4
    • Huanghui回复默认57984:

      你用hb_runtime推理出来有结果吗,是0吗?

      2025-08-04
      0
    • 默认57984回复Huanghui:
      解决了,J6M开发板的SDK版本跟OE包不匹配。
      类似这种版本不匹配的问题,地平线应在合适的地方报error把,废了老大劲结果是这个原因wenhao_org.svg
      2025-08-06
      0
    • YH回复默认57984:

      你好,我也遇到了类似的问题。x86 的docker 中用python 推理,hbm 和 bc 输出都正常,但到了J6M 上用ucp 推理,输出都是0.

      请问,是需要保持C++ 编译用的UCP 版本,和J6M 上的UCP版本一致是吗?我该怎么看“J6M开发板的SDK版本” haha_org.svg
      2025-09-29
      0
    • AnnieLittleYu回复默认57984:

      请问一下,如何判断板端开发板的sdk和oe包是否匹配的

      2025-12-24
      0