专栏算法工具链QAT-hbm模型上板部署,nv12_separate输入的问题

QAT-hbm模型上板部署,nv12_separate输入的问题

已解决
YUANYI2025-09-11
73
5

【j5】

使用C++接口

如果按照sample中的示例编写,运行的时候会报一个输入数据的错误,应该是和nv12_separate相关(我的模型输入alignedSize是115200):

因此我做了如下修改:

修改之后到推理那一步直接segmentation fault了。
请问我这样的修改是不是有问题呢?
算法工具链
征程5技术深度解析
评论2
0/1000
  • YUANYI
    Lv.1
    首先我的模型在板端使用hrt_model_exec infer是能够正常推理并且结果是没问题的。
    这是我的模型info:

    alignedshape和validshape是一致的所以应该也不存在对齐pad的问题
    2025-09-11
    0
    0
  • DR_KAN
    Lv.4

    if(input.properties.tensorType == HB_DNN_IMG_TYPE_NV12 _SEPARATE ){ input.properties.tensorType = HB_DNN_IMG_TYPE_NV12;..... } 试下手动改下数据类型,这个可以互转

    2025-09-11
    0
    3
    • YUANYI回复DR_KAN:
      这样操作以后推理阶段报错了:
      2025-09-11
      0
    • DR_KAN回复YUANYI:

      看下hrt_model_exec的源码吧,如果你用这个工具能推,那就根据那个源码调整下你的C++代码。。

      2025-09-11
      0
    • YUANYI回复DR_KAN:
      经过再次验证,是没有问题的,本帖提到的报错是别的地方导致,目前一切正常。
      感谢大佬指点。
      2025-09-11
      0