Visual Studio 2017 配置OpenVINO开发环境

最近看到一个巨牛的人工智能教程,分享一下给大家。教程不仅是零基础,通俗易懂,而且非常风趣幽默,像看小说一样!觉得太牛了,所以分享给大家。平时碎片时间可以当小说看,【点这里可以去膜拜一下大神的“小说”】

1 下载

前往【OpenVINO官方下载地址】,进入下载页面:

openvino下载页面

选择windows,登录intel账户后,跳转下载页面,选择Full Package按钮

下载安装包

2 解压

从第1小节中下载得到文件w_openvino_toolkit_p_2019.3.379.exe,其实是一个压缩包,双击自动解压。

解压

选择解压路径,我这边选择:E:OpenVINO

选择安装路径

后续选择Next即可,安装完成后,在E:OpenVINO目录下有两个文件夹,如下所示:

OpenVINO

3 Visual Studio 2017中配置OpenVINO

注意:这里只考虑使用CPU运算库,不考虑GPU和其他设备。

3.1 创建工程

在VS2017 中创建一个项目,命名为VINO。

3.2 include目录

首先选中VINO工程,然后点击属性按钮,如下图:

进入属性界面

点开后,选中VC 目录,选中包含目录,Debug模式和Release模式的include都一样,即在包含目录中添加include地址:E:OpenVINOopenvino_2019.3.334deployment_toolsinference_engineinclude,如下图所示:

include设置

3.3 设置库目录和库

3.3.1 库目录

同样在VC 目录中,选择库目录,Debug模式和Release目录分别选择目录E:OpenVINOopenvino_2019.3.334deployment_toolsinference_enginelibintel64下的DebugRelease子目录,以及目录E:OpenVINOopenvino_2019.3.334deployment_toolsinference_enginesamplesintel64下的DebugRelease子目录,如下图所示:

库目录

Release模式如下:

Release模式配置

3.3.2 库名称

点击链接器 > 输入 > 附加依赖项目,Release模式下添加inference_engine.libcpu_extension.lib,如下图:

Release

Debug模式下添加inference_engined.libcpu_extensiond.lib,如下图:

在这里插入图片描述

4 结束

环境以及配置好了,接下来就是开始写代码,下一章介绍如何将Tensorflow模型转为OpenVINO能识别的模型,并运行。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章