6.2. 入门指南

6.2.1. 概述

本指南用于介绍算法工具链中训练后量化PTQ方法的使用流程,若您是第一次使用算法工具链的用户,建议您根据本指南章节步骤进行学习;若您已完成入门指南章节内容的学习,下一步可以参考本指南的快速体验章节步骤来进行私有模型的模型转换及上板运行; 如果需要了解算法工具链的更多内容,请跳转至进阶指南 章节。

6.2.2. 环境安装

本章节主要介绍使用算法工具链前必须的环境准备工作。

6.2.2.1. 硬件环境

为了顺利地使用算法工具链,建议您选择的开发机应满足以下要求:

硬件/操作系统 要求
CPU CPU I3以上或者同级别E3/E5的处理器
内存 16G或以上级别
GPU(可选) CUDA11.6、驱动版本Linux:>= 510.39.01*
适配显卡包括但不限于:
1)GeForce RTX 3090
2)GeForce RTX 2080 Ti
3)NVIDIA TITAN V
4)Tesla V100S-PCIE-32GB
5)A100
系统 Ubuntu 20.04

6.2.2.2. 开发机部署

注意: 在进行模型转换前,请确保已在开发机的Ubuntu或Centos系统中安装完成支持 Python 3.10.x 版本的 Anaconda3 环境。

  • 1.开发机中执行如下命令,获取模型转换资料包:

wget -c ftp://oeftp@sdk.d-robotics.cc/oe_v1.2.8/install_env.sh --ftp-password=Oeftp~123$%
wget -c ftp://oeftp@sdk.d-robotics.cc/oe_v1.2.8/manual_deployment_package.tar.gz --ftp-password=Oeftp~123$%
wget -c ftp://oeftp@sdk.d-robotics.cc/model_convert_sample/yolov5s_v2.0.tar.gz --ftp-password=Oeftp~123$%
wget -c ftp://oeftp@sdk.d-robotics.cc/torch_env/torch_package.tar.xz --ftp-password=Oeftp~123$%

小技巧:

  1. 若需更多公版模型转换示例,可执行命令: wget -c ftp://oeftp@sdk.d-robotics.cc/model_convert_sample/horizon_model_convert_sample.tar.xz --ftp-password=Oeftp~123$% 获取。

  2. 同时提供有支持模型转换的Docker镜像,若需使用Docker环境,请阅读 进阶指南-使用docker环境 章节。

  • 2.创建模型转换环境:

//oe_env 为环境名,可自行设置

conda create -n oe_env python=3.10 -y
  • 3.进入模型转换环境:

// oe_env 为上文创建python环境名,conda环境命令会根据不同的操作系统有所差异,以下两条命令请选择其中能进入conda模型转换环境的命令来使用

source activate oe_env  conda activate oe_env
  • 4.解压模型转换环境和示例模型安装包并进行相关依赖的安装:

sh install_env.sh

在顺利完成安装后,您可以键入 hb_mapper –help 命令验证是否可以正常得到帮助信息,若打印如下信息,说明环境已安装完成:

hb_mapper --help
Usage: hb_mapper [OPTIONS] COMMAND [ARGS]...

hb_mapper is an offline model transform tool provided by horizon.

Options:
--version   Show the version and exit.
-h, --help  Show this message and exit.

Commands:
checker    check whether the model meet the requirements.
infer      inference and dump output feature as float vector.
makertbin  transform caffe model to quantization model, generate runtime...

小技巧:

后续进行模型转换时,请首先使用命令 source activate oe_envconda activate oe_env 进入模型转换环境! 算法工具链环境安装包整体大小 200M 左右,下载安装包和安装依赖包受网络速率影响,整个安装过程耗时大约30分钟左右,请您耐心等候安装完成。

6.2.3. 快速体验

本章节中,我们为您介绍算法工具链PTQ方案的基本使用流程,便于您实现快速上手。 这里我们以 X5 开发板上运行的 yolov5s 模型为例,为您进行使用演示,算法工具链PTQ方案的更多详细内容,请阅读 进阶指南-PTQ原理及步骤详解 章节。

6.2.3.1. 开发环境准备

若未准备开发环境,请参考 环境安装 章节进行环境安装。

6.2.3.2. 模型准备

若开发环境已准备完成,请使用命令:source activate oe_envconda activate oe_env 进入开发机模型转换环境。

执行以下命令,检查yolov5s浮点模型是否存在:

ls -l yolov5s_v2.0/04_detection/03_yolov5s/mapper

命令执行完毕后,若出现以下日志,说明模型已准备完成:

-rwxrwxr-x 1 10488 10501      645 Mar  9  2023 01_check.sh
-rwxrwxr-x 1 10488 10501      661 Mar  9  2023 02_preprocess.sh
-rwxrwxr-x 1 10488 10501      603 Mar  9  2023 03_build.sh
-rwxrwxr-x 1 10488 10501    13039 Mar  9  2023 postprocess.py
-rwxrwxr-x 1 10488 10501     3133 Mar  9  2023 preprocess.py
-rwxrwxr-x 1 10488 10501     2752 Mar  9  2023 README.cn.md
-rwxrwxr-x 1 10488 10501    10773 Mar 28 20:13 yolov5s_config.yaml
-rwxr-xr-x 1 10488 10501 29999538 Mar  9  2023 YOLOv5s.onnx

若执行命令后,未出现以上日志,请阅读 环境安装 章节下载模型示例包。

6.2.3.3. 模型验证

若示例浮点模型已准备完成,根据以下步骤进行模型验证,确保其符合X3处理器的支持约束。

  • 进入浮点模型转换示例yolov5s模型目录

cd yolov5s_v2.0/04_detection/03_yolov5s/mapper
  • 模型检查

#确认模型结构及算子是否支持,并提供每个算子执行硬件的分配情况(BPU/CPU)
bash 01_check.sh

命令执行完毕后,若出现以下日志,说明模型校验成功

2024-03-28 20:24:43,193 INFO End to Horizon NN Model Convert.
2024-03-28 20:24:43,205 INFO ONNX model output num : 3
2024-03-28 20:24:43,220 INFO End model checking....

6.2.3.4. 模型转换

模型检查通过后,根据以下步骤进行模型转换。

  • 进行校准数据预处理

bash 02_preprocess.sh

命令执行完毕后,若出现以下日志并无任何报错,说明数据预处理成功

write:./calibration_data_rgb_f32/COCO_val2014_000000181677.rgb
write:./calibration_data_rgb_f32/COCO_val2014_000000181714.rgb
write:./calibration_data_rgb_f32/COCO_val2014_000000181739.rgb
  • 模型转换

#转换时所需的配置文件 yolov5s_config.yaml,已存放在03_build.sh脚本同级文件夹下
bash 03_build.sh

命令执行完毕后,若出现以下日志并无任何报错,说明模型转换成功

2024-03-28 20:31:13,228 INFO Convert to runtime bin file successfully!
2024-03-28 20:31:13,228 INFO End Model Convert

模型转换完成后,会在 model_output 文件夹下保存模型文件和静态性能评估文件。

  • torch-jit-export_subgraph_0.html # 静态性能评估文件(可读性更好)

  • torch-jit-export_subgraph_0.json # 静态性能评估文件

  • yolov5s_672x672_nv12.bin # 用于在处理器上加载运行的模型

  • yolov5s_672x672_nv12_calibrated_model.onnx # 中间过程模型文件,可用于后续模型的精度校验

  • yolov5s_672x672_nv12_optimized_float_model.onnx # 中间过程模型文件,可用于后续模型的精度校验

  • yolov5s_672x672_nv12_original_float_model.onnx # 中间过程模型文件,可用于后续模型的精度校验

  • yolov5s_672x672_nv12_quantized_model.onnx # 中间过程模型文件,可用于后续模型的精度校验

6.2.3.5. 模型上板运行

注意事项:模型上板运行前,请确保已按照 安装系统 章节完成 开发板 端的环境部署。

请参考sunrise_camera用户使用说明文档,将 sunrise_camera_vxxx.tar.gz 安装包拷贝到开发板上并解压完成,将 yolov5s_672x672_nv12.bin 定点模型拷贝 替换 至sunrise_camera的 model_zoom 目录下,调用以下命令运行

sh ./start_app.sh

运行成功后,会输出图像的检测结果,请参考sunrise_camera用户使用说明-Web客户端使用说明文档,web页面配置 算法模型(model): 选择 yolov5s , 并点击 提交 保存,即可展示yolov5s算法模型实测效果。

更多模型推理API使用说明,请参考 模型推理接口使用说明 章节内容。