【OpenVINO】部署深度学习模型的流程
1. 首先,得有一个由OpenVINO支持的深度学习框架训练好的模型。因为这里只是负责推理而不负责训练。
支持的框架有:
2. 为使用的训练框架配置Model Optimizer,参考链接:【OpenVINO】Win 10安装配置OpenVINO指南的第四步。
3. 生成 优化的Intermediate Representation(IR)文件,参考链接:【OpenVINO】YOLOv3的tensorflow pb模型转换成IR格式数据(.xml和.bin)。
4. 使用Inference Engine测试IR格式的模型,参考链接:【OpenVINO】Intel计算棒2代进行YOLOv3推理。
5. 在目标环境集成Inference Engine到自己的应用中。链接待添加。