Visual Studio 2017 配置OpenVINO開發環境 1 下載 2 解壓 3 Visual Studio 2017中配置OpenVINO 4 結束

最近看到一個巨牛的人工智能教程,分享一下給大家。教程不僅是零基礎,通俗易懂,而且非常風趣幽默,像看小說一樣!覺得太牛了,所以分享給大家。平時碎片時間可以當小說看,【點這裏可以去膜拜一下大神的“小說”】

1 下載

前往【OpenVINO官方下載地址】,進入下載頁面:

選擇windows,登錄intel賬戶後,跳轉下載頁面,選擇Full Package按鈕

2 解壓

從第1小節中下載得到文件w_openvino_toolkit_p_2019.3.379.exe,其實是一個壓縮包,雙擊自動解壓。

選擇解壓路徑,我這邊選擇:E:\OpenVINO

後續選擇Next即可,安裝完成後,在E:\OpenVINO目錄下有兩個文件夾,如下所示:

3 Visual Studio 2017中配置OpenVINO

注意:這裏只考慮使用CPU運算庫,不考慮GPU和其他設備。

3.1 創建工程

在VS2017 中創建一個項目,命名爲VINO。

3.2 include目錄

首先選中VINO工程,然後點擊屬性按鈕,如下圖:

點開後,選中VC++目錄,選中包含目錄,Debug模式和Release模式的include都一樣,即在包含目錄中添加include地址:E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\include,如下圖所示:

3.3 設置庫目錄和庫

3.3.1 庫目錄

同樣在VC++目錄中,選擇庫目錄,Debug模式和Release目錄分別選擇目錄E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\lib\intel64下的DebugRelease子目錄,以及目錄E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\samples\intel64下的DebugRelease子目錄,如下圖所示:

Release模式如下:

3.3.2 庫名稱

點擊鏈接器 > 輸入 > 附加依賴項目,Release模式下添加inference_engine.libcpu_extension.lib,如下圖:

Debug模式下添加inference_engined.libcpu_extensiond.lib,如下圖:

4 結束

環境以及配置好了,接下來就是開始寫代碼,下一章介紹如何將Tensorflow模型轉爲OpenVINO能識別的模型,並運行。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章