温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

YOLOv3-tiny怎么在VS2015上使用Openvino部署

发布时间:2021-11-10 11:01:27 来源:亿速云 阅读:117 作者:柒染 栏目:大数据

YOLOv3-tiny怎么在VS2015上使用Openvino部署,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

前言

前几天加了两个Openvino群,准备请教一下关于Openvino对YOLOv3-tiny的int8量化怎么做的,没有得到想要的答案。但缺发现有那么多人Openvino并没有用好,都是在网络上找资料,我百度了一下中文似乎没有靠谱的目标检测算法的部署资料,实际上这个并不难,用官方提供的例子改一改就可以出来。所以我答应了几个同学写一个部署流程希望对想使用Openvino部署YOLOv3-tiny(其他目标检测算法类推)到cpu或者Intel神经棒上(1代或者2代)都是可以的。

 

YOLOv3-tiny模型训练

这部分我就不过多介绍了,我使用的是AlexeyAB版本darknet训练的YOLOv3-tiny模型(地址见附录),得到想要的weights文件,并调用命令测试图片的检测效果无误。

Darknet模型转pb模型

  • 克隆OpenVINO-YoloV3 工程,完整地址见附录。
  • 修改工程下面的coco.names改成和自己训练的时候一样。
  • 确保你要使用的python环境有tensorflow版本,1.8和1.9应该都没什么问题。
  • 执行:
python3 convert_weights_pb.py
--class_names voc.names
--weights_file yolov3_tiny_200000.weights
--data_format NHWC
--tiny --output_graph frozen_tiny_yolo_v3.pb
 
  • 不出意外会在你的OpenVINO-YoloV3文件下生成了frozen_tiny_yolo_v3.pb文件,这个文件就是我们需要的pb文件。
 

在Windows上将pb文件转换为IR模型

我这里使用了OpenVINO2019.1.087,只要OpenVINO某个版本里面extension模块包含了YOLORegion Layer应该都是可以的。转换步骤如下:

  • 拷贝frozen_tiny_yolo_v3.pb到OpenVINO所在的     F:\IntelSWTools\openvino_2019.1.087\deployment_tools\model_optimizer文件夹下,注意这个文件夹是我安装OpenVINO的路径,自行修改一下即可。
  • 新建一个yolov3-tiny.json文件,放在     F:\IntelSWTools\openvino_2019.1.087\deployment_tools\model_optimizer文件夹下。内容是,注意一下里面classes是你的数据集中目标类别数:
[
 {
   "id": "TFYOLOV3",
   "match_kind": "general",
   "custom_attributes": {
     "classes": 3,
     "coords": 4,
     "num": 6,
     "mask": [0,1,2],
     
     "anchors":[10,14,23,27,37,58,81,82,135,169,344,319],
     "entry_points": ["detector/yolo-v3-tiny/Reshape","detector/yolo-v3-tiny/Reshape_4"]
   }
 }
]
 
  • 在     F:\IntelSWTools\openvino_2019.1.087\deployment_tools\model_optimizer文件夹下,执行下面的命令来完成pb文件到OpenVINO的IR文件转换过程。
python mo_tf.py --input_model frozen_darknet_yolov3_model.pb
--tensorflow_use_custom_operations_config yolo_v3_tiny.json
--input_shape=[1,416,416,3]  --data_type=FP32
 
  • 不出意外的话就可以获得     frozen_darknet_yolov3_model.bin和     frozen_darknet_yolov3_model.xml了。
 

利用VS2015配合OpenVINO完成YOLOv3-tiny的前向推理

因为yolov3-tiny里面的yoloRegion Layer层是openvino的扩展层,所以在vs2015配置libinclude文件夹的时候需要把cpu_extension.libextension文件夹加进来。最后includelib文件夹分别有的文件如下:

  • include文件夹:     YOLOv3-tiny怎么在VS2015上使用Openvino部署
  • lib文件夹:

YOLOv3-tiny怎么在VS2015上使用Openvino部署其中cpu_extension.lib在安装了OpenVINO之后可能是没有的,这时候就需要手动编译一下。这个过程很简单,我在后边放了一个链接讲得很清楚了。

includelib配置好之后就可以编写代码进行预测了。代码只需要在OpenVINO-YoloV3工程的cpp目录下提供的main.cpp稍微改改就可以了。因为我这里使用的不是原始的Darknet,而是AlexeyAB版本的darknet,所以图像resize到416的时候是直接resize而不是letter box的方式。具体来说修改部分的代码为:YOLOv3-tiny怎么在VS2015上使用Openvino部署然后除了这个地方,由于使用的YOLOv3-tiny,OpenVINO-YoloV3里面的cpp默认使用的是YOLOv3的Anchor,所以Anchor也对应修改一下:

YOLOv3-tiny怎么在VS2015上使用Openvino部署这两个地方改完之后就可以顺利完成前向推理过程了,经过我的测试,相比于原始的darknet测试结果在小数点后两位开始出现差距,从我在几千张图片的测试结果来看,精度差距在1/1000到1/500,完全是可以接受的。

注意github上面的cpp那些打印信息都是没有必要可以注释掉,然后异步策略在测试时候也可以选择不用,我改好了一个可以直接运行的cpp。

关于YOLOv3-tiny怎么在VS2015上使用Openvino部署问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注亿速云行业资讯频道了解更多相关知识。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI