模型输入:
input_image: [6, c, h, w]
input_map: [6, nx, ny, 2]
量化的时候一次要给6张图
input_type_rt 可以配置为 `nv12;featuremap` 做量化吗,能的话要怎么做 ?
还是说只能为rgb
模型输入:
input_image: [6, c, h, w]
input_map: [6, nx, ny, 2]
量化的时候一次要给6张图
input_type_rt 可以配置为 `nv12;featuremap` 做量化吗,能的话要怎么做 ?
还是说只能为rgb


你好,nv12输入源是Pyramid,目前PTQ⽅案batchn Pyramid的⽀持⽅案还在设计中,暂时⽆法通过配置yaml⽂件中的相关 参数直接编译出可上板推理的batchn Pyramid模型。若要在PTQ⽅案下依然希望部署时每个batch的数据可以来源于不同的内存地址,可先使⽤ hb_compile⼯具⽣成 *ptq_model.onnx 之后通过如下代码将模型输⼊沿batch维度拆开,并插⼊ 前处理节点和格式转换节点:
你好,nv12输入源是Pyramid,目前PTQ⽅案batchn Pyramid的⽀持⽅案还在设计中,暂时⽆法通过配置yaml⽂件中的相关 参数直接编译出可上板推理的batchn Pyramid模型。若要在PTQ⽅案下依然希望部署时每个batch的数据可以来源于不同的内存地址,可先使⽤ hb_compile⼯具⽣成 *ptq_model.onnx 之后通过如下代码将模型输⼊沿batch维度拆开,并插⼊ 前处理节点和格式转换节点:
你好,nv12输入源是Pyramid,目前PTQ⽅案batchn Pyramid的⽀持⽅案还在设计中,暂时⽆法通过配置yaml⽂件中的相关 参数直接编译出可上板推理的batchn Pyramid模型。若要在PTQ⽅案下依然希望部署时每个batch的数据可以来源于不同的内存地址,可先使⽤ hb_compile⼯具⽣成 *ptq_model.onnx 之后通过如下代码将模型输⼊沿batch维度拆开,并插⼊ 前处理节点和格式转换节点:
你好,nv12输入源是Pyramid,目前PTQ⽅案batchn Pyramid的⽀持⽅案还在设计中,暂时⽆法通过配置yaml⽂件中的相关 参数直接编译出可上板推理的batchn Pyramid模型。若要在PTQ⽅案下依然希望部署时每个batch的数据可以来源于不同的内存地址,可先使⽤ hb_compile⼯具⽣成 *ptq_model.onnx 之后通过如下代码将模型输⼊沿batch维度拆开,并插⼊ 前处理节点和格式转换节点:
你好,nv12输入源是Pyramid,目前PTQ⽅案batchn Pyramid的⽀持⽅案还在设计中,暂时⽆法通过配置yaml⽂件中的相关 参数直接编译出可上板推理的batchn Pyramid模型。若要在PTQ⽅案下依然希望部署时每个batch的数据可以来源于不同的内存地址,可先使⽤ hb_compile⼯具⽣成 *ptq_model.onnx 之后通过如下代码将模型输⼊沿batch维度拆开,并插⼊ 前处理节点和格式转换节点:
你好,nv12输入源是Pyramid,目前PTQ⽅案batchn Pyramid的⽀持⽅案还在设计中,暂时⽆法通过配置yaml⽂件中的相关 参数直接编译出可上板推理的batchn Pyramid模型。若要在PTQ⽅案下依然希望部署时每个batch的数据可以来源于不同的内存地址,可先使⽤ hb_compile⼯具⽣成 *ptq_model.onnx 之后通过如下代码将模型输⼊沿batch维度拆开,并插⼊ 前处理节点和格式转换节点: