咖咖下载 - 精品软件高速下载!

当前位置:首页 > 系统教程 > 其它教程 > 详情

安装OpenVINO2022全新C++ SDK使用详解

时间:2022-05-08 来源:咖咖下载

安装OpenVINO2022.1

2022版本的安装包跟之前的不一样地方包括:
​​​​-OpenCV部分不在默认安装包中
-Dev Tools 跟 Runtime安装方式不同
-Dev Tools包模型转换器跟其它开发组件
-Runtime主要负责模型推理,支持Python跟C++

在intel官方下载页面选择如下:

下载之后点击安装,出现的第一个画面如下:

点击【Continue】

选择第一种,推荐安装方式,点击【Continue】

点击【Install】
就会开始正式安装过程!这个过程中如果你没有安装VS2019会有一个警告出现,直接选择忽视,继续安装即可!因为我VS2017。

配置OpenVINO2022开发环境

主要是针对C++部分,使用VS2017配置。这部分跟以前没有太大差异,同样需要配置包含路径,库目录与附加依赖项添加,跟环境变量,这几个部分的配置分别如下:

1. 包含目录

2. 库目录

3. 附加依赖项添加

这样就完成了

最后配置好环境变量

然后重启VS2017,执行如下代码测试:

#include <openvino/openvino.hpp>
#include <opencv2/opencv.hpp>

using namespace cv;
using namespace std;

int main(int argc, char** argv) {
    // 创建IE插件, 查询支持硬件设备
    ov::Core ie;
    vector<string> availableDevices = ie.get_available_devices();
    for (int i = 0; i < availableDevices.size(); i++) {
        printf("supported device name : %s \n", availableDevices[i].c_str());
    }
    return 0;
}

运行结果如下:

最新SDK使用解析

OpenVINO2022版本推理开发跟之前版本最大的不同在于全新的SDK设计,新的SDK设计显然对齐了ONNXRUNTIME,libtorch等这些部署框架简约SDK设计中的优点,从模型的读取,到数据预处理,到模型推理、预测结果解析,在数据流通跟推理流程方面都比之前的SDK简单易学,非常方便开发者使用。

01

模型加载

ov::CompiledModel compiled_model = ie.compile_model(onnx_path, "AUTO");
ov::InferRequest infer_request = compiled_model.create_infer_request();
两行代码就搞定了,之前的SDK比较啰嗦,很不符合设计的KISS规则,现在直接两行代码就可以得到推理请求了。另外支持”AUTO”自动模式硬件支持,让开发这不用在选择硬件平台

02

获取输入

ov::Tensor input_tensor = infer_request.get_input_tensor();
ov::Shape tensor_shape = input_tensor.get_shape();
也是两行代码搞定,另外再也不用手动设置各种数据格式了,这样可以避免开发者犯一些数据类型设置错误,提高了开发接口的易用性,这点必须点赞!

03

把图像填充输入tensor数据

size_t num_channels = tensor_shape[1];
size_t h = tensor_shape[2];
size_t w = tensor_shape[3];
Mat blob_image;
resize(src, blob_image, Size(w, h));
blob_image.convertTo(blob_image, CV_32F);
blob_image = blob_image / 255.0;


// NCHW
float* image_data = input_tensor.data();
for (size_t row = 0; row < h; row++) {
         for (size_t col = 0; col < w; col++) {
                  image_data[row * w + col] = blob_image.at(row, col);
         }
}
跟之前类似,这步一直很简单,这样就OK了。

4

推理跟后处理

// 执行预测
infer_request.infer();

// 获取输出数据
auto output_tensor = infer_request.get_output_tensor();
const float* detection = (float*)output_tensor.data();

很容易获取输出的数据,有了输出数据,下面的解析就会简单很多,可以说相比之前代码,这里是一步获取输出数据。

最终UNet道理裂纹分割的模型运行结果如下:

最后总结

01

输入与输出获取

ov::InferRequest支持直接获取输入跟输出tensor,分别对应方法是

​​​​​​​get_input_tensor()
get_output_tensor()
这两个方法只有在模型只有一个输入跟输出的时候才会正确工作。当模型有多个输入跟输出的时候请使用
​​​​​​​get_tensor(name)
方法, 它支持名称作为参数获取多个输入跟输出tensor。

02

C4996错误

第一次配置VS2017之后,运行会得到C4996错误,请把SDL检查关掉就好拉,怎么关掉看这里即可:

03

代码行变动

升级为OpenVINO2022版本之后,我之前的推理程序代码行数会下降20~30代码行左右,最新版本C++ SDK真的很不错!

04

Python版本支持

只需要再做一步即可,打开环境变量,新建PYTHONPATH,如下图:

记得输入的路径最后版本号一定要跟系统安装的python版本号保持一致。测试:

 

相关内容

pl

系统教程栏目

栏目热门教程

人气教程排行

站长推荐

热门系统下载