最近看到一個巨牛的人工智能教程,分享一下給大家。教程不僅是零基礎,通俗易懂,而且非常風趣幽默,像看小說一樣!覺得太牛了,所以分享給大家。平時碎片時間可以當小說看,【點這裏可以去膜拜一下大神的“小說”】。
1 下載
前往【OpenVINO官方下載地址】,進入下載頁面:
選擇windows
,登錄intel賬戶後,跳轉下載頁面,選擇Full Package按鈕
:
2 解壓
從第1小節中下載得到文件w_openvino_toolkit_p_2019.3.379.exe
,其實是一個壓縮包,雙擊自動解壓。
選擇解壓路徑,我這邊選擇:E:\OpenVINO
後續選擇Next
即可,安裝完成後,在E:\OpenVINO
目錄下有兩個文件夾,如下所示:
3 Visual Studio 2017中配置OpenVINO
注意:這裏只考慮使用CPU運算庫,不考慮GPU和其他設備。
3.1 創建工程
在VS2017 中創建一個項目,命名爲VINO。
3.2 include目錄
首先選中VINO
工程,然後點擊屬性按鈕,如下圖:
點開後,選中VC++目錄
,選中包含目錄
,Debug模式和Release模式的include都一樣,即在包含目錄中添加include地址:E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\include
,如下圖所示:
3.3 設置庫目錄和庫
3.3.1 庫目錄
同樣在VC++目錄
中,選擇庫目錄,Debug
模式和Release
目錄分別選擇目錄E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\lib\intel64
下的Debug
和Release
子目錄,以及目錄E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\samples\intel64
下的Debug
和Release
子目錄,如下圖所示:
Release
模式如下:
3.3.2 庫名稱
點擊鏈接器
> 輸入
> 附加依賴項目
,Release模式下添加inference_engine.lib
和cpu_extension.lib
,如下圖:
Debug
模式下添加inference_engined.lib
和cpu_extensiond.lib
,如下圖:
4 結束
環境以及配置好了,接下來就是開始寫代碼,下一章介紹如何將Tensorflow模型轉爲OpenVINO能識別的模型,並運行。