【openvino系列教程(一)】安装、模型转换、前馈、参考资料


1. Profile

overview

(本节内容引自 Intel NCS2计算棒以及OpenVINO尝鲜
计算棒需要配合Intel出的OpenVINO推理框架,使用时首先需要将模型文件转换为OpenVINO的模型OpenVINO目前支持Caffe、TensorFlow、MXNet等主流的深度学习框架。模型可以直接通过OpenVINO的转换工具进行转换。转换时需要输入网络输入节点的名称以及输入图片的大小,还有一点需要注意,NCS 2计算棒支持的是16位精度的浮点型数据,所以在转换时还需要加上”–data_type=FP16”。

OpenVINO框架中使用NCS 2计算棒和直接使用CPU性能差不多,使用CPU(Intel Core i5 4200M)时,检测一帧需要660ms,使用NCS2计算棒需要590ms。但是在OpenVINO框架中使用CPU速度要比在MXNet中使用CPU快,MXNet中使用CPU检测一帧需要1.1s左右。OpenVINO前向计算能基本比mxnet框架快一倍。
在这里插入图片描述


2. Installation

2.1 Linux

python3
cd Python-3.5.6;
./configure --enable-shared;
make all -j16;
make install;
echo "/usr/local/lib" > /etc/ld.so.conf.d/python3.conf;ldconfig;
vim /usr/bin/yum
#!/usr/bin/python ->#!/usr/bin/python2
rm /usr/bin/python;ln -s /usr/local/bin/python3 /usr/bin/python3;
ln -s /usr/local/bin/python3.5 /usr/bin/python3.5;
ln -s /usr/local/bin/pip3 /usr/bin/pip

yum -y install cmake
cmake --version
cmake version 2.8.12.2

2.1.1 Install Basic Openvino

  1. 下载并解压 Intel® Distribution of OpenVINO™ toolkit for Linux*
    tar -xvzf l_openvino_toolkit_p_<version>.tgz
    cd l_openvino_toolkit_p_<version>
    
  2. 命令行安装
    yum install pciutils;
    yum install redhat-lsb -y; 
    sudo ./install_openvino_dependencies.sh
    sudo ./install.sh
    
  3. 安装路径:/opt/intel/openvino/

2.1.2 Install External Software Dependencies

cd /opt/intel/openvino/install_dependencies
sudo -E ./install_openvino_dependencies.sh

2.1.3 Set the Environment Variables

source /opt/intel/openvino/bin/setupvars.sh
echo source /opt/intel/openvino/bin/setupvars.sh >> ~/.bash_profile
或者全局生效:
echo source /opt/intel/openvino/bin/setupvars.sh >> /etc/profile && source /etc/profile

2.1.4 Configure the Model Optimizer

devnet无法访问外网,这一步装不了,不过应该不映像模型转换

cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites
sudo ./install_prerequisites.sh

2.1.5 Run the Verification Scripts to Verify Installation

devnet无法访问外网,之一步无法进行,提示“没有可用软件包 epel-release”。只要第5章的“Run your demo”可以成功即可。

cd /opt/intel/openvino/deployment_tools/demo
./demo_squeezenet_download_convert_run.sh

2.2 Mac OS

请参考Install Intel® Distribution of OpenVINO™ toolkit for macOS* 官方macOS指南

2.3 FAQ

  • lspci: command not found: yum install pciutils
  • lsb_release: 未找到命令: yum install redhat-lsb -y

3. Model Optimizer

caffe模型转换:

python3 /opt/intel/openvino/deployment_tools/model_optimizer/mo.py --input_model xxxx.caffemodel

更多请参考第六章的“模型”部分。


4. Inference Engine

4.1 Inference Engine Developer Guide

参考官方教程Inference Engine Developer Guide

4.2 Validation Application

参考官方教程Validation Application


5. Run your demo

  1. cd /opt/intel/openvino/inference_engine/samples
  2. ./build_samples.sh
  3. find inference_engine_samples_build result in the last directory.
    更多信息,请参考我的github工程:https://github.com/KindleHe/openvino_totorial

6. Issues


7. References

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章