专栏感知【J6】yolov5s-rgb-nhwc量化指南

【J6】yolov5s-rgb-nhwc量化指南

DR_KAN2025-04-02
99
0

在J6平台,我们可以按照这个方式编译input_typr_rt为rgb,且layout为NHWC的模型。这样做的好处是,当用户的数据输入源本身就是NHWC的rgb图像时,这么做可以避免额外的数据处理操作。这里以yolov5s为例进行介绍。

 

模型信息

输入节点

 

输出节点(其中一个)

 

 

输入输出信息总览

 

 

 

 

 

校准数据

seed100文件夹存放原始图像,可借助horizon_model_convert_sample的脚本完成校准数据的处理。

02_preprocess.sh脚本内容如下:

 

 

 

 

 

preprocess.py脚本相关内容修改如下:

 

 

 

 

  这段代码的主要作用是创建一个由多个数据预处理步骤组成的转换器(transformers)列表。这些转换器会对输入数据进行处理,以适应深度学习模型的要求。 

 

  • PadResizeTransformer:这个转换器的作用是对输入数据进行填充(padding)和调整大小(resize),通常是为了确保输入的图像尺寸与模型要求的输入尺寸一致。
  • BGR2RGBTransformer:这个转换器将输入图像从 BGR 格式转换为 RGB 格式。BGR 是 OpenCV 默认的颜色格式,而许多深度学习框架(如 TensorFlow 或 PyTorch)更习惯使用 RGB 格式。因此,这个转换器是为了进行格式的转换。
  • NormalizeTransformer:这个转换器用于对图像进行归一化处理,将像素值缩放到指定的范围。归一化是深度学习中常见的预处理步骤,有助于提高模型的收敛速度和性能。

 

这段代码的作用是定义并返回一个包含多个数据预处理步骤的转换器列表。这些预处理步骤包括:

  1. 填充和调整大小:将图像调整为目标尺寸 (384, 2048)。
  2. 颜色格式转换:将图像从 BGR 格式转换为 RGB 格式。
  3. 归一化:将图像像素值缩放到 0 到 1 的范围内。

这些步骤通常用于图像数据预处理,以便将原始图像调整为模型输入所需要的格式和数值范围。

 

 

 

 

 

YAML

 

 

模型编译

 

 

python推理

 

这段代码的主要作用是使用不同的模型和输入数据进行推理(inference),并输出推理结果。它通过调用 HBRuntime 来加载不同的模型进行推理。下面是对代码的详细分析:
  1. 导入必要的库:

    • cv2:用于图像处理,加载和转换图像。
    • numpy:用于数值计算,尤其是矩阵操作。
    • HBRuntime:从 horizon_tc_ui.hb_runtime 导入,显然是一个用于执行推理任务的接口,可能是用于调用经过优化的计算图或深度学习模型。
  2. 准备输入数据:

    • prepare_onnx_input():该函数读取图像文件 seed.jpg,将其转换为 RGB 格式,进行归一化处理,并为模型的输入格式添加额外的维度(np.newaxis)。数据被归一化到 [0, 1] 范围,以便于输入 ONNX 模型。
    • prepare_bc_input():此函数和 prepare_onnx_input() 类似,不过它读取的图像经过不同的处理。图像被转换为 np.uint8 类型,减去 128 后转换为 np.int8 类型,这通常是用于处理量化后的模型数据格式。
  3. 进行推理的不同函数:

    • 每个 infer_*_onnx 或 infer_quantized_bc 函数负责加载不同的模型并执行推理:
      • infer_onnx():加载 yolov5s.onnx 模型并进行推理。
      • infer_ori_onnx():加载原始浮点数版本的 yolov5s 模型 (yolov5s_original_float_model.onnx)。
      • infer_opt_onnx():加载优化过的浮点数版本的 yolov5s 模型 (yolov5s_optimized_float_model.onnx)。
      • infer_calib_onnx():加载经过校准的浮点数模型 (yolov5s_calibrated_model.onnx)。
      • infer_ptq_onnx():加载经过量化后的浮点数模型 (yolov5s_ptq_model.onnx)。
      • infer_quantized_bc():加载量化后的 BC 格式模型 (yolov5s_quantized_model.bc)。
  4. 推理过程:

    • 每个 infer_* 函数都会执行以下步骤:
      • 调用相应的准备输入函数(如 prepare_onnx_input() 或 prepare_bc_input()),将图像转换为模型所需的输入格式。
      • 使用 HBRuntime 加载不同的模型。
      • 获取模型的输入和输出节点名称。

      • 将输入数据传入模型进行推理。

      • 输出推理结果的一部分(通过 output[0][0][0][0] 打印输出,可能是某个检测框的值)。
  5. 主函数 if __name__ == "__main__"::
    • 在主程序执行时,依次调用上述所有的推理函数进行推理,打印每个模型的推理结果。

总结:

这段代码主要用于进行不同版本的 YOLOv5 模型的推理,涉及到原始浮点数模型、优化后的浮点数模型、量化模型、校准模型等,并对每种模型进行推理结果输出。通过不同的输入准备函数,代码还演示了如何处理不同的数据格式(如浮点数和量化后的数据)。

 

输出信息如下,可以看到,数值大体相当,可以认为推理结果正确。

 

 

 

 至此,模型的量化和python推理验证就结束了。我们可以愉快地开始C++推理了

 

 

 

 

感知
社区征文征程6技术深度解析
评论0
0/1000