4.1.3.2. 常见算法模型示例

4.1.3.2.1. 位置路径

常见算法模型示例位于 horizon_model_convert_sample 路径的: 02_preq_examples/03_classification/04_detection/07_segmentation/ 文件夹中。

4.1.3.2.2. 如何准备数据集

4.1.3.2.2.1. 数据集下载地址

数据集的下载地址可参考下表:

数据集

下载地址

ImageNet

https://www.image-net.org/download.php

COCO

https://cocodataset.org/

VOC

http://host.robots.ox.ac.uk/pascal/VOC/ (需要下载2007和2012两个版本)

Cityscapes

https://github.com/mcordts/cityscapesScripts

CIFAR-10

http://www.cs.toronto.edu/~kriz/cifar.html

4.1.3.2.2.2. 数据集参考结构

为方便您进行后续步骤,在数据集下载完成后,您需要按照如下地平线建议的结构对评测数据集进行处理。

4.1.3.2.2.2.1. ImageNet

imagenet/
├── calibration_data
│   ├── ILSVRC2012_val_00000001.JPEG
│   ├── ...
│   └── ILSVRC2012_val_00000100.JPEG
├── ILSVRC2017_val.txt
├── val
│   ├── ILSVRC2012_val_00000001.JPEG
│   ├── ...
│   └── ILSVRC2012_val_00050000.JPEG
└── val.txt

4.1.3.2.2.2.2. COCO

coco/
├── calibration_data
│   ├── COCO_val2014_000000181007.jpg
│   ├── ...
│   └── COCO_val2014_000000181739.jpg
└── coco_val2017
    ├── annotations
    │   ├── instances_train2017.json
    │   └── instances_val2017.json
    └── images
        ├── 000000000139.jpg
        ├── 000000000285.jpg
        ├── ...
        ├── 000000581615.jpg
        └── 000000581781.jpg

4.1.3.2.2.2.3. VOC

注意

请您注意,VOC2012目录下目前存储了VOC2017和VOC2012两份数据集,请您按照如下目录结构对评测数据集进行处理。

VOCdevkit/
└── VOC2012
    ├── Annotations
    │   ├── 2007_000027.xml
    │   ├── ...
    │   └── 2012_004331.xml
    ├── ImageSets
    │   ├── Action
    │   │   ├── jumping_train.txt
    │   │   ├── jumping_trainval.txt
    │   │   ├── jumping_val.txt
    │   │   ├── ...
    │   │   ├── val.txt
    │   │   ├── walking_train.txt
    │   │   ├── walking_trainval.txt
    │   │   └── walking_val.txt
    │   ├── Layout
    │   │   ├── train.txt
    │   │   ├── trainval.txt
    │   │   └── val.txt
    │   ├── Main
    │   │   ├── aeroplane_train.txt
    │   │   ├── aeroplane_trainval.txt
    │   │   ├── aeroplane_val.txt
    │   │   ├── ...
    │   │   ├── train.txt
    │   │   ├── train_val.txt
    │   │   ├── trainval.txt
    │   │   ├── tvmonitor_train.txt
    │   │   ├── tvmonitor_trainval.txt
    │   │   ├── tvmonitor_val.txt
    │   │   └── val.txt
    │   └── Segmentation
    │       ├── train.txt
    │       ├── trainval.txt
    │       └── val.txt
    ├── JPEGImages
    │   ├── 2007_000027.jpg
    │   ├── ...
    │   └── 2012_004331.jpg
    ├── SegmentationClass
    │   ├── 2007_000032.png
    │   ├── ...
    │   └── 2011_003271.png
    ├── SegmentationObject
    │   ├── 2007_000032.png
    │   ├── ...
    │   └── 2011_003271.png
    └── train.txt

4.1.3.2.2.2.4. Cityscapes

cityscapes/
├── cityscapes_calibration_data
│   ├── aachen_000000_000019_leftImg8bit.png
│   ├── ...
│   └── aachen_000099_000019_leftImg8bit.png
├── gtFine
│   ├── test
│   │   ├── berlin
│   │   ├── ...
│   │   └── munich
│   ├── train
│   │   ├── aachen
│   │   ├── ...
│   │   └── zurich
│   └── val
│       ├── frankfurt
│       ├── lindau
│       └── munster
├── leftImg8bit
│   ├── test
│   │   ├── berlin
│   │   ├── ...
│   │   └── munich
│   ├── train
│   │   ├── aachen
│   │   ├── ...
│   │   └── zurich
│   └── val
│       ├── frankfurt
│       ├── lindau
│       └── munster
├── license.txt
└── README

4.1.3.2.2.2.5. CIFAR-10

cifar-10/
├── batches.meta
├── cifar10_val.txt
├── data_batch_1
├── data_batch_2
├── data_batch_3
├── data_batch_4
├── data_batch_5
├── readme.html
└── test_batch

4.1.3.2.3. 如何准备模型

在使用模型转换示例包时,请您先准备好对应的浮点模型。

注解

OE包默认不携带示例对应的校准数据集和原始模型,您需要在对应的示例文件夹内执行 00_init.sh 获取当前示例所需的模型和校准数据集。

对于各原始模型的来源、修改点(如有)的准备过程,请您参考以下内容。

4.1.3.2.3.1. fcos_efficientnetb0

注意

  • 该模型为采用QAT方式训练出来的模型。

  • 为保证板端性能达到最优,在编译bin模型的yaml文件中我们对 remove_node_type 参数进行了配置,将bin模型中的Dequantize节点做了删除的操作。

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/tree/master/PreQQAT

2.md5sum码:

md5sum

File

fa43f723e269a7568d06753d32a5cc9b

fcos_efficientnetb0_mscoco.onnx

3.模型精度:

[IoU=0.50:0.95]:0.347(FLOAT)/0.349(INT8)

4.1.3.2.3.2. fcos_efficientnetb1

注意

为保证板端性能达到最优,在编译bin模型的yaml文件中我们对 remove_node_type 参数进行了配置,将bin模型中的Dequantize节点做了删除的操作。

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/tree/master/PreQQAT

2.md5sum码:

md5sum

File

482bf179df995b9fd84a9cec8ac085c5

fcos_efficientnetb1_mscoco.onnx

3.模型精度:

[IoU=0.50:0.95]:0.403(FLOAT)/0.404(INT8)

4.1.3.2.3.3. fcos_efficientnetb2

注意

为保证板端性能达到最优,在编译bin模型的yaml文件中我们对 remove_node_type 参数进行了配置,将bin模型中的Dequantize节点做了删除的操作。

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/tree/master/PreQQAT

2.md5sum码:

md5sum

File

a2fc8b613c4506039e14789afaa37770

fcos_efficientnetb2_mscoco.onnx

3.模型精度:

[IoU=0.50:0.95]:0.445(FLOAT)/0.446(INT8)

4.1.3.2.3.4. MobileNetv1/v2

1.模型来源:https://github.com/shicai/MobileNet-Caffe

2.md5sum码:

md5sum

File

3fd6889ec48bda46451d67274144e2a8

mobilenet.caffemodel

8922f90f629d428fecf866e798ac7c08

mobilenet_deploy.prototxt

54aab8425ea068d472e8e4015f22360c

mobilenet_v2.caffemodel

13101ee86ab6d217d5fd6ed46f7a4faa

mobilenet_v2_deploy.prototxt

3.模型精度:

  • MobileNetv1:0.7061(FLOAT)/0.7034(INT8)

  • MobileNetv2:0.7167(FLOAT)/0.7124(INT8)

4.1.3.2.3.5. GoogleNet

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/tree/master/GoogleNet

2.md5sum码:

md5sum

File

f107ae6806ea1016afbc718210b7a617

googlenet.onnx

3.模型精度:0.7001(FLOAT)/0.6993(INT8)

4.1.3.2.3.6. ResNet18

1.模型来源:https://github.com/HolmesShuan/ResNet-18-Caffemodel-on-ImageNet

2.md5sum码:

md5sum

File

0904d601fc930d4f0c62a2a95b3c3b93

resnet18.caffemodel

3.模型精度:0.6836(FLOAT)/0.6825(INT8)

4.1.3.2.3.7. mobilenet_onnx

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/tree/master/MobilentV2Onnx

2.md5sum码:

md5sum

File

bfa26b2b247bb060a35b67062a3ebbd1

mobilenetv2.onnx

3.模型精度:0.7080(FLOAT)/0.7078(INT8)

4.1.3.2.3.8. EfficientNet_Lite0/1/2/3/4

注意

为了快速运行示例,避免使用第三方工具带来的风险,强烈推荐您直接使用地平线模型发布物 model_zoo/mapper/ 路径下准备好的ONNX浮点模型。 如果您有兴趣复现tflite2onnx的模型转换过程,也可以尝试使用以下三方工具。但地平线无法保证第三方工具的质量和转换成功率。

1.从模型来源:https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet/lite 获取tar包。

2.地平线模型发布物中转换后的ONNX模型md5sum码:

md5sum

File

001a329bd367fbec22b415c7a33d7bdb

efficientnet_lite0_fp32.onnx

1205e95aea66650c71292bde236d55a9

efficientnet_lite1_fp32.onnx

474741c15494b79a89fe51d89e0c43c7

efficientnet_lite2_fp32.onnx

550455b41848d333f8359279c89a6bae

efficientnet_lite3_fp32.onnx

bde7fe57eadb4a30ef76f68da622dcd5

efficientnet_lite4_fp32.onnx

3.下载后可从tar包中得到.tflite文件,然后可通过tflite2onnx工具 (https://pypi.org/project/tflite2onnx/) 将tflite转换为ONNX模型。 不同版本的tflite2onnx转换出来的layout会不一样,若转换出来的ONNX模型的输入layout是NCHW排布,则build时 input_type_train 中:

  • EfficientNet_Lite0应该选择 NCHW

  • EfficientNet_Lite1应该选择 NCHW

  • EfficientNet_Lite2应该选择 NCHW

  • EfficientNet_Lite3应该选择 NCHW

  • EfficientNet_Lite4应该选择 NCHW

4.模型精度:

  • EfficientNet_Lite0:0.7491(FLOAT)/0.7473(INT8)

  • EfficientNet_Lite1:0.7647(FLOAT)/0.7625(INT8)

  • EfficientNet_Lite2:0.7738(FLOAT)/0.7714(INT8)

  • EfficientNet_Lite3:0.7922(FLOAT)/0.7901(INT8)

  • EfficientNet_Lite4:0.8070(FLOAT)/0.8060(INT8)

4.1.3.2.3.9. YOLOv2_Darknet19

注意

为了快速运行示例,避免使用第三方工具带来的风险,强烈推荐您直接使用地平线模型发布物 model_zoo/mapper/ 路径下准备好的Caffe浮点模型。 如果您有兴趣复现darknet2caffe的模型转换过程,也可以尝试使用以下三方工具。但地平线无法保证三方工具的质量和转换成功率。

1.YOLOv2_Darknet19模型需要首先从YOLO官网(https://pjreddie.com/darknet/yolo/)下载YOLOv2 608x608的.cfg和.weight文件 并使用darknet2caffe (https://github.com/xingyanan/darknet2caffe) 转换工具将其转换为caffe model。 (该转换工具是一个简化版本,使用时,需要修改该工具生成的.prototxt文件, 将其中的 'Reshape' 层修改成 'Passthrough' 层,Passthrough 层具体修改后的参数请见提供的yolov2.prototxt例子, 并在输出节点增加一个NCHW2NHWC的Permute操作。)

2.md5sum码:

md5sum

File

7aa7a6764401cebf58e73e72fcbd2a45

yolov2.caffemodel

72e9a51c1e284e4b66e69f72ca9214c8

yolov2_transposed.prototxt

3.模型精度:

[IoU=0.50:0.95]: 0.276(FLOAT)/0.270(INT8)

4.1.3.2.3.10. YOLOv3_Darknet53

注意

为保证板端性能达到最优,在编译bin模型的yaml文件中我们对 remove_node_type 参数进行了配置,将bin模型中的Dequantize节点做了删除的操作。

1.YOLOv3_Darknet53模型获取URL: https://github.com/ChenYingpeng/caffe-yolov3/ caffemodel可以在该github的README.md提供的百度云下载路径中下载,并在输出节点增加一个NCHW2NHWC的Permute操作。

2.md5sum码:

md5sum

File

935af6e1530af5c0017b3674adce95e9

yolov3_transposed.prototxt

9a0f09c850656913ec27a6da06d9f9cc

yolov3.caffemodel

3.模型精度:

[IoU=0.50:0.95]:0.333(FLOAT)/0.335(INT8)。

4.1.3.2.3.11. YOLOv5s

1.YOLOv5s模型,可以从URL: https://github.com/ultralytics/yolov5/releases/tag/v2.0 中下载相应的pt文件。

重要

在clone代码时,请确认您使用的Tags是 v2.0,否则将导致转换失败。

2.md5sum码:

md5sum

File

2e296b5e31bf1e1b6b8ea4bf36153ea5

yolov5l.pt

16150e35f707a2f07e7528b89c032308

yolov5m.pt

42c681cf466c549ff5ecfe86bcc491a0

yolov5s.pt

069a6baa2a741dec8a2d44a9083b6d6e

yolov5x.pt

  def forward(self, x):
      # x = x.copy()  # for profiling
      z = []  # inference output
      self.training |= self.export
      for i in range(self.nl):
          x[i] = self.m[i](x[i])  # conv
          bs, _, ny, nx = x[i].shape  # x(bs,255,20,20) to x(bs,3,20,20,85)
          #  x[i] = x[i].view(bs, self.na, self.no, ny, nx).permute(0, 1, 3, 4, 2).contiguous()
          x[i] = x[i].permute(0, 2, 3, 1).contiguous()

注解

去除了每个输出分支尾部从4维到5维的reshape(即不将channel从255拆分成3x85), 然后将layout从NHWC转换成NCHW再输出。

以下左图为修改前的模型某一输出节点的可视化图,右图则为修改后的对应输出节点可视化图。

../../../../_images/yolov5.png

注意

在使用export.py脚本时,请注意:

  1. 由于地平线工具链支持的ONNX opset版本为 1011,请将 torch.onnx.exportopset_version 参数根据您要使用的版本进行修改。

  2. torch.onnx.export 部分的默认输入名称参数由 'images' 改为 'data',与模型转换示例包的YOLOv5s示例脚本保持一致。

  3. parser.add_argument 部分中默认的数据输入尺寸640x640改为模型转换示例包YOLOv5s示例中的672x672。

3.模型精度:

[IoU=0.50:0.95]:0.352(FLOAT)/0.342(INT8)

4.1.3.2.3.12. SSD_MobileNetv1

注意

为保证板端性能达到最优,在编译bin模型的yaml文件中我们对 remove_node_type 参数进行了配置,将bin模型中的Dequantize节点做了删除的操作。

1.SSD_Mobilenet模型可以从URL: https://github.com/chuanqi305/MobileNet-SSD 获得Caffe模型。

2.md5sum码:

md5sum

File

bbcb3b6a0afe1ec89e1288096b5b8c66

mobilenet_iter_73000.caffemodel

3.模型精度:mAP: 0.7342(FLOAT)/0.7274(INT8)

4.1.3.2.3.13. EfficientNetDetd0

注意

为保证板端性能达到最优,在编译bin模型的yaml文件中我们对 remove_node_type 参数进行了配置,将bin模型中的Dequantize节点做了删除的操作。

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/tree/master/EfficientDet

2.md5sum码:

md5sum

File

ec4129c4b300cd04f1e8f71e0fe54ca5

efficientdet_nhwc.onnx

3.模型精度:

[IoU=0.50:0.95]:0.324(FLOAT)/0.314(INT8)。

4.1.3.2.3.14. CenterNet_Resnet50

注意

为保证板端性能达到最优,在编译bin模型的yaml文件中我们对 remove_node_type 参数进行了配置,将bin模型中的Dequantize节点做了删除的操作。

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/tree/master/Centernet

2.md5sum码:

md5sum

File

ba58170ee7ad0338dce3d46719329850

centernet_resnet101_coco.onnx

3.模型精度:

[IoU=0.50:0.95]:0.318(FLOAT)/0.313(INT8)

4.1.3.2.3.15. Fcos_efficientnetb0

注意

该模型为采用PTQ方式训练出来的模型。

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/blob/master/Fcos_Efficientnetb0

2.md5sum码:

md5sum

File

996b2b44f45f55fab4d100749a8a6c44

fcos_effb0.onnx

3.模型精度:

[IoU=0.50:0.95]:0.363(FLOAT)/0.348(INT8)

4.1.3.2.3.16. UNet_mobilenet

注意

为保证板端性能达到最优,在编译bin模型的yaml文件中我们对 remove_node_type 参数进行了配置,将bin模型中的Dequantize节点做了删除的操作。

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/tree/master/MobilenetUnet

2.md5sum码:

md5sum

File

21c6c645ebca92befbebc8c39d385c1e

tf_unet_trained.onnx

3.模型精度:mIoU: 0.6411(FLOAT)/0.6382(INT8)

4.1.3.2.3.17. DeeplabV3plus_efficientnetb0

注意

为保证板端性能达到最优,在编译bin模型的yaml文件中我们对 remove_node_type 参数进行了配置,将bin模型中的Cast节点做了删除的操作。

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/tree/master/DeeplabV3Plus

2.md5sum码:

md5sum

File

e220212e712551398ce1ed12658907bd

deeplabv3plus_efficientnetb0_float.onnx

3.模型精度:mIoU: 0.7630(FLOAT)/0.7567(INT8)

4.1.3.2.3.18. Fastscnn_efficientnetb0

1.模型来源:https://github.com/HorizonRobotics-Platform/ModelZoo/tree/master/FastSCNN

2.md5sum码:

md5sum

File

5dbb04f3098f01f4ae51e9e09f4d154f

fastscnn_efficientnetb0_float.onnx

3.模型精度:mIoU: 0.6997(FLOAT)/0.6927(INT8)

4.1.3.2.4. 算法模型示例的使用演示

本小节以YOLOv2_Darknet19模型为例,使用算法模型示例包中 04_detection/01_yolov2_darknet19/mapper/ 路径下脚本 分步骤演示浮点模型到定点模型转换过程中的模型检查、校准数据集准备、runtime模型构建及模型精度测试几个关键步骤。

4.1.3.2.4.1. 进入Docker容器

首先,根据 Docker容器部署 一节内容完成Docker环境的安装和配置并进入docker容器。

4.1.3.2.4.2. 验证模型是否能够执行

1.如下所示,运行脚本:

# 1. 进入示例脚本放置的文件夹
cd ddk/samples/ai_toolchain/horizon_model_convert_sample/04_detection/01_yolov2_darknet19/mapper
# 2. 执行模型检查
sh 01_check.sh

2.模型检查输出:

上述脚本使用 hb_mapper checker 工具验证模型是否被地平线计算平台支持。同时也会输出一个OP列表,表示每个OP会CPU还是BPU上执行。 如下所示:

===================================================
Node             ON   Subgraph  Type
---------------------------------------------------
layer1_conv      BPU  id(0)     HzSQuantizedConv
layer1_act       BPU  id(0)     HzLeakyRelu
layer2_maxpool   BPU  id(0)     HzQuantizedMaxPool
layer3_conv      BPU  id(0)     HzSQuantizedConv
layer3_act       BPU  id(0)     HzLeakyRelu
layer4_maxpool   BPU  id(0)     HzQuantizedMaxPool
layer5_conv      BPU  id(0)     HzSQuantizedConv
layer5_act       BPU  id(0)     HzLeakyRelu
layer6_conv      BPU  id(0)     HzSQuantizedConv
layer6_act       BPU  id(0)     HzLeakyRelu
layer7_conv      BPU  id(0)     HzSQuantizedConv
layer7_act       BPU  id(0)     HzLeakyRelu
layer8_maxpool   BPU  id(0)     HzQuantizedMaxPool
layer9_conv      BPU  id(0)     HzSQuantizedConv
layer9_act       BPU  id(0)     HzLeakyRelu
layer10_conv     BPU  id(0)     HzSQuantizedConv
layer10_act      BPU  id(0)     HzLeakyRelu
layer11_conv     BPU  id(0)     HzSQuantizedConv
layer11_act      BPU  id(0)     HzLeakyRelu
layer12_maxpool  BPU  id(0)     HzQuantizedMaxPool
layer13_conv     BPU  id(0)     HzSQuantizedConv
layer13_act      BPU  id(0)     HzLeakyRelu
layer14_conv     BPU  id(0)     HzSQuantizedConv
layer14_act      BPU  id(0)     HzLeakyRelu
layer15_conv     BPU  id(0)     HzSQuantizedConv
layer15_act      BPU  id(0)     HzLeakyRelu
layer16_conv     BPU  id(0)     HzSQuantizedConv
layer16_act      BPU  id(0)     HzLeakyRelu
layer17_conv     BPU  id(0)     HzSQuantizedConv
layer17_act      BPU  id(0)     HzLeakyRelu
layer18_maxpool  BPU  id(0)     HzQuantizedMaxPool
layer19_conv     BPU  id(0)     HzSQuantizedConv
layer19_act      BPU  id(0)     HzLeakyRelu
layer20_conv     BPU  id(0)     HzSQuantizedConv
layer20_act      BPU  id(0)     HzLeakyRelu
layer21_conv     BPU  id(0)     HzSQuantizedConv
layer21_act      BPU  id(0)     HzLeakyRelu
layer22_conv     BPU  id(0)     HzSQuantizedConv
layer22_act      BPU  id(0)     HzLeakyRelu
layer23_conv     BPU  id(0)     HzSQuantizedConv
layer23_act      BPU  id(0)     HzLeakyRelu
layer24_conv     BPU  id(0)     HzSQuantizedConv
layer24_act      BPU  id(0)     HzLeakyRelu
layer25_conv     BPU  id(0)     HzSQuantizedConv
layer25_act      BPU  id(0)     HzLeakyRelu
layer27_conv     BPU  id(0)     HzSQuantizedConv
layer27_act      BPU  id(0)     HzLeakyRelu
layer28_reorg    BPU  id(0)     HzSpaceToDepth
layer29_concat   BPU  id(0)     Concat
layer30_conv     BPU  id(0)     HzSQuantizedConv
layer30_act      BPU  id(0)     HzLeakyRelu
layer31_conv     BPU  id(0)     HzSQuantizedConv
----------------------End--------------------------

4.1.3.2.4.3. 准备校准用的数据集

在同一路径下继续执行 02_preprocess.sh 脚本,如下所示:

# 将 01_common/data/coco/calibration_data中的图片
# 转换到: ./calibration_data_rgb_f32
sh 02_preprocess.sh

注解

  • 我们从COCO数据集抽取了50张图作为校准数据集,在校准前,我们对数据进行了预处理: pad-resize/转为rgb

  • hb_mapper 工具会从转换得到二进制数据中读取数据,预处理过的二进制数据文件格式为:c-order的矩阵存储。每个矩阵值的数据类型为int8。

4.1.3.2.4.4. build异构模型

在同一路径下继续执行 03_build.sh 脚本,如下所示:

sh 03_build.sh

注解

上述脚本使用 hb_mapper 工具转换模型,最需要关注的是转换的配置文件, 请参考 使用 hb_mapper makertbin 工具转换模型 一节的内容。

上述脚本的输出如下所示:

>> ls model_output | cat
full_yolov2_subgraph_0.html
full_yolov2_subgraph_0.json
yolov2_darknet19_608x608_nv12.bin
yolov2_darknet19_608x608_nv12_optimized_float_model.onnx
yolov2_darknet19_608x608_nv12_original_float_model.onnx
yolov2_darknet19_608x608_nv12_quantized_model.onnx

注解

您暂时只需要关心 yolov2_darknet19_608x608_nv12.bin 文件,其他文件会在工具的介绍中进行说明。

4.1.3.2.4.5. 单张图片推理

执行 04_inference.sh 脚本进行单张图片的推理过程,如下所示:

sh 04_inference.sh

注解

  • 因为图片推理过程时,需要对图片进行 前处理,对模型数据进行 后处理,所以我们提供了一个示例Python脚本。具体请参考 sh 04_inference.sh

  • 此脚本只是对单张图片进行推理,验证单张图片的推理结果是否符合预期,如果想做精度测评,可以参考 05_evaluate.sh 脚本。

4.1.3.2.4.6. 精度测试

继续执行 05_evaluate.sh 脚本进行精度评测,如下所示:

export PARALLEL_PROCESS_NUM=${parallel_process_num}
sh 05_evaluate.sh

注解

  • 因为精度评测时,需要对图片进行 前处理,对模型数据进行 后处理,所以我们提供了一个示例Python脚本。具体请参考 sh 05_evaluate.sh

  • 为了加快评测速度,可以通过 -p 选项适当调整并发进程数,但需要注意内存的占用情况。当 -p 选项值不填或者设置为 0 时,CPU环境中的定点模型将按照10个进程数处理,其他场景均按1个进程数处理。

4.1.3.2.5. 常见问题

4.1.3.2.5.1. 如何对齐开源框架训练得到的ONNX原始浮点模型与使用 hb_mapper makertbin 工具得到的***_original_float_model.onnx的结果?

注解

原始浮点模型与转换得到ONNX浮点模型的差异由工具链产品保障,这种验证不是必须的标准流程。

1.明确两者的概念

首先明确两个模型的概念。

前者是指开发者使用开源框架(如:TensorFlow、PyTorch、MXNet等)训练出浮点模型后,转成ONNX格式的原始浮点模型。

而后者是指使用算法工具链浮点定点模型转换方案的 hb_mapper makertbin 工具, 或运行地平线模型转换示例包(即:horizon_model_convert_sample发布物)中03_classification/${modelname}/mapper/03_build.sh将前者 转换成***_original_float_model.onnx中间格式模型,其中的***代表的是具体模型名称(如:MobileNetv1或UNet等)。

2.明确两者的差异

***_original_float_model.onnx模型计算精度与转换输入的原始浮点模型是一模一样的, 有个重要的变化就是为了适配地平线平台添加了一些数据预处理计算。 一般情况下,您不需要使用这个模型,在转换结果出现异常时,如果能把这个模型提供给地平线的技术支持,将有助于帮助您快速解决问题。

3.编写脚本对齐两者结果

注解

下面以地平线模型转换示例包(即:horizon_model_convert_sample发布物)中的mobilenet_onnx模型为例进行说明。

您需要自行编写脚本对齐两者的结果。在编写脚本时,需要注意以下几点

注意

开发者自编写脚本中的图片数据处理逻辑应当与工具链示例包各模型的mapper/preprocess.py图片数据预处理脚本中的逻辑一致, 以避免由图片数据预处理方法不一致造成的结果差异。 如遇模型示例包版本不同造成的代码逻辑差异,请参见您获取到的示例包版本的图片数据预处理脚本,或咨询地平线技术团队。 各预处理transformer方法参见以下代码块:

import sys
sys.path.append("../../../01_common/python/data/")
from transformer import *
from dataloader import *

# 图片校正transformer
def calibration_transformers():
  """
  step:
      1、PIL resize to 256
      2、crop size 224*224 from PIL center
      3、NHWC to NCHW
  """
    transformers = [
        PILResizeTransformer(size=256),
        PILCenterCropTransformer(size=224),
        HWC2CHWTransformer(),
    ]
    return transformers

# 图片推理transformer
def infer_transformers():
  """
  step:
      1、PIL resize to 256
      2、crop size 224*224 from PIL center
      3、bgr to nv12
      4、nv12 to yuv444
  """
    transformers = [
        PILResizeTransformer(size=256),
        PILCenterCropTransformer(size=224),
        BGR2NV12Transformer(data_format="HWC"),
        NV12ToYUV444Transformer((224, 224)),
    ]
    return transformers

开发者可以参照以下代码块对齐图片数据预处理逻辑:

def ShortSideResizeTransformer(data, short_size):
    image = data
    height, width, _ = image.shape
    if height < width:
        off = width / height
        image = cv2.resize(image,
                            (int(short_size * off), short_size))
    else:
        off = height / width
        image = cv2.resize(image,
                            (short_size, int(short_size * off)))
    data = image
    data = data.astype(np.float32)
    return data

def CenterCropTransformer(data, crop_size):
    image = data
    resize_height, resize_width, _ = image.shape
    resize_up = resize_height // 2 - crop_size // 2
    resize_left = resize_width // 2 - crop_size // 2
    data = image[resize_up:resize_up +
                    crop_size, resize_left:resize_left +
                    crop_size, :]
    data = data.astype(np.float32)
    return data

def preprocess(data):
    data = ShortSideResizeTransformer(data, short_size=256)  # ShortSideResize
    data = CenterCropTransformer(data, crop_size=224)  # CenterCrop
    data = np.transpose(data, (2, 0, 1))   # HWC2CHW
    data = data * 255  # (0, 1) --> (0, 255)

注意

如下图所示,mobilenetv2_224x224_nv12_original_float_model.onnx模型比原始浮点onnx模型多了HzPreprocess算子用来实现 mobilenetv2_config.yaml文件中的 data_mean_and_scale

../../../../_images/hzpreprocess.png

因此,开发者需要根据mobilenetv2_config.yaml中的 mean_valuescale_value 参数实现数据归一化。 参见以下代码块:

# Normalize
data = data.astype(np.float32)
mean = np.array([123.675, 116.28, 103.53])
scale = np.array([0.01712, 0.0175, 0.01743])
norm_data = np.zeros(data.shape).astype(np.float32)
for i in range(data.shape[0]):
    norm_data[i,:,:] = (data[i,:,:] - mean[i]) * scale[i]
norm_data = norm_data.reshape(1, 3, 224, 224).astype(np.float32)

注意

由于示例包中各模型 mapper/04_inference.sh 脚本默认执行的是定点模型推理,因此在验证浮点模型结果时, 需要将定点模型推理改为浮点模型推理。执行命令 sh 04_inference.sh origin 即可执行浮点模型推理。 代码逻辑可能由于发布物版本不同略有差异,可参见 03_classification/04_mobilenet_onnx/mapper/04_inference.sh 脚本中的注释内容。

实现上述步骤后即可对齐原始浮点模型与mobilenetv2_224x224_nv12_original_float_model.onnx模型的结果了。

4.1.3.2.5.2. 复现的精度为什么与文档中提供的指标有细微差异?

出现此种现象的原因可能有以下两点:

  1. 在不同的服务器环境下,计算方式上可能会有细小的区别。就会导致不同的服务器环境中,编译出来的定点onnx模型的精度,与文档的记录值有细微数据波动。

  2. 用户侧使用的第三方库如 opencv、numpy等库的版本不同,导致图片经过前处理后的得到的结果不同,这种情况也会导致精度复现时与文档中的记录值有细微数据波动。

出现这种情况,您可以不用过于担心,文档中提供的记录指标仅作为参考,您在复现时的精度与文档中的记录值有细微差异是正常现象,可以正常跑通精度即可。

4.1.3.2.5.3. 定点模型精度为何与ai_benchmark示例中的bin文件上板精度无法对齐?

在标准交付中,我们在添加示例的时候,定点模型精度和ai_benchmark示例中的bin文件上板精度是已经做了对齐处理的。

如果您发现定点模型精度与ai_benchmark示例中的bin文件上板精度无法对齐的情况,建议您优先检查模型输入是否一致。 由于执行定点模型评估脚本时,使用到的是图片类型的数据集;而上板使用到的 bin 模型,需要使用hb_eval_preprocess工具转换后的二进制数据集。 基于此点,如果您在上板时使用的数据集并非通过上述方式生成的, 我们建议您先在运行定点模型的精度的相同服务器上, 使用我们的数据预处理工具(即hb_eval_preprocess工具)重新生成上板需要的数据集,重跑上板精度,以保证模型输入一致。

注意

注意,在使用hb_eval_preprocess工具生成数据集和运行定点模型精度时,两者使用的环境需要保证一致。