Windows10安装NCS2环境并进行模型格式转换

上一篇:树莓派4B配置摄像头并实现实时人脸检测

目录

一、Windows10安装OpenVINO
.1、系统要求
.2、安装步骤
二、设置环境变量
.1、临时配置方案
.2、永久配置方案
三、配置模型优化器
.1、方案1:同时为所有支持的框架配置模型优化器
.2、方案2:单独为各个框架配置模型优化器
四、使用验证脚本验证安装
.1、运行图像分类验证脚本
.2、运行推理管道验证脚本
五、踩过的坑
六、Paddle模型转换
.1、Paddle2Onnx
6.1.1、环境依赖
6.1.2、安装方式
6.1.3、使用方式
6.1.4、参数选项
.2、Onnx2IR
七、参考资料

一、Windows安装OpenVINO

由于树莓派上安装的OpenVINO不具有模型转换功能,故需要在本地电脑上安装相关套件

1.1、系统要求

操作系统要求
Microsoft Windows 10 64位
软件要求

  • 采用 C++ 以及 MSBuild 的 Microsoft Visual Studio* 2019、2017 或 2015
  • CMake 3.4 或更高版本(64 位)
    注:如果想使用 Microsoft Visual Studio 2019,必须安装 CMake 3.14
  • Python 3.6.5 或更高版本(64 位)

1.2、安装步骤

1. OpenVINO官网下载安装包,个人建议安装最新版本,笔者安装的版本为w_openvino_toolkit_p_2020.3.194.exe
2. 点击安装

Windows10安装NCS2环境并进行模型格式转换
Windows10安装NCS2环境并进行模型格式转换

根据个人意愿选择是否同意Intel获取个人信息(当然选no啦)

Windows10安装NCS2环境并进行模型格式转换

点击,第一部分安装完成后,最终的屏幕会提示您核心组件已安装完成,还需要进行其他几个安装步骤:

Windows10安装NCS2环境并进行模型格式转换

安装
CMake官网下载3.14版本(cmake-3.14.0-win64-x64.msi)
注意选择将cmake添加到环境变量:

设置临时环境变量

关闭命令提示符窗口后,OpenVINO工具套件环境变量将被删除。可以选择手动永久设置环境变量。

2.2、永久配置方案

打开’我的电脑’–>属性–>高级系统设置–>环境变量,在 “系统变量”下,将以下内容添加为带有相应值的新变量

Windows10安装NCS2环境并进行模型格式转换
%INTEL_OPENVINO_DIR%deployment_toolsinference_enginebinintel64Release
%INTEL_OPENVINO_DIR%deployment_toolsinference_enginebinintel64Debug
%HDDL_INSTALL_DIR%bin
%INTEL_OPENVINO_DIR%opencvbin
%INTEL_OPENVINO_DIR%deployment_toolsngraphlib

配置成功后,在执行脚本时,显示如下:

进入模型优化器先决条件目录

2.运行以下批处理文件,为Caffe*、TensorFlow*、MXNet*、Kaldi* 和ONNX* 配置模型优化器

3.2、方案2:单独为各个框架配置模型优化器

1.打开命令行工具,前往模型优化器先决条件目录:

Windows10安装NCS2环境并进行模型格式转换

现在您可以使用两个简短的演示查看英特尔penVINO工具套件分发版的运行结果,并验证安装是否成功。必须使用演示脚本,因为它们要执行其他配置步骤。

四、使用验证脚本验证安装

首先进入模型优化器推理引擎演示目录

Windows10安装NCS2环境并进行模型格式转换

验证脚本完成后,您获得前10个类型的标记和置信度:

Windows10安装NCS2环境并进行模型格式转换

vswhere不是内部命令

在目录下找到,将路径添加到环境变量,然后重新打开命令行,执行

  • 一定要用管理员权限进入命令行执行脚本,否则会遇到下面的错误

普通权限命令行与管理员权限命令行
  • 如果修改了OpenVINO的默认安装路径的话,会出现下面的错误

Windows10安装NCS2环境并进行模型格式转换
  • 同理,运行脚本时也许修改对应的路径,否则报如下错误:

Windows10安装NCS2环境并进行模型格式转换

更多关于转换深度学习模型的信息,请访问:

  • 转换Caffe*模型
  • 转换TensorFlow*模型
  • 转换MXNet*模型
  • 转换ONNX*模型

六、Paddle模型转换

笔者比较习惯使用Paddle,故这里演示Paddle的模型转化:
首先应通过调用来序列化模型

6.1、Paddle2Onnx

Paddld2Onnx支持将PaddlePaddle框架下产出的模型转化到ONNX模型格式.
关于Paddle2ONNX迁移至X2Paddle的说明

6.1.1、环境依赖

  • 普通用户环境配置
  • 开发者环境配置

6.1.2、安装方式

  • 安装方式1
  • 安装方式2

6.1.3、使用方式

  • 普通用户使用方式

如果用户只是想将paddle模型转化成onnx模型,可以使用下面的命令进行操作。

  • 开发者使用方式

如果用户有一个新的模型要转成onnx模型,想验证模型的精确度,可以使用下面的方式来进行验证。

6.1.4、参数选项

参数 参数说明
fluid_model paddle fluid模型和模型参数所在目录
onnx_model 转化成onnx模型的模型名称
name_prefix [可选]某些paddle模型的模型参数加了前缀,则需要指定模型参数前缀,例如@HUB_mobilenet_v2_imagenet@conv6_2_expand_bn_scale
fluid_model_name [可选]如果导入的paddle模型不是默认__model__,需要指定模型的名字
fluid_params_name [可选]如果导入的paddle模型参数是合并在一个文件里面,需要指定模型参数文件名
debug [可选]如果开发者要对转化的模型进行精度测试,打开此开关
return_variable [可选]在debug模式中,如果paddle模型返回的结果是LoDTensor,需要打开此开关
check_task [可选]在debug模式中,根据不同配置项选择不同的执行器和数据构造器
image_path [可选]在debug模式中,可以选择加载不同的图片进行精度验证

6.2、Onnx2IR

1.进入目录,注意替换openvino安装路径
2.使用mo.py脚本将具有路径的模型转换为输入模型.nnet文件:

更多转换模型命令参数配置

七、参考资料

1.树莓派4B+NCS2代测试yolov3和yolov3_tiny实现object_detection
2.OpenVINO具包中文文档
3.配置win10 +openvino遇到的问题及解决方案
4.运行OpenVINO的demo示例的小问题

来源:黎明丶跌跌撞撞

声明:本站部分文章及图片转载于互联网,内容版权归原作者所有,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2020年5月5日
下一篇 2020年5月5日

相关推荐