English | 简体中文
该仓库包含 OpenVINO™ integration with TensorFlow 的源代码,该产品可提供所需的 OpenVINO™ 内联优化和运行时,显著增强对TensorFlow 的兼容性。该产品专为开发人员设计,支持他们将 OpenVINO™ 运用在自己的推理应用,只需稍微修改代码,就可显著增强推理性能。OpenVINO™ integration with TensorFlow 可在各种英特尔® 芯片上加速AI模型(如下所示) AI 模型的推理速度:
- 英特尔® CPU
- 英特尔® 集成 GPU
- 英特尔® Movidius™ 视觉处理单元 (VPU)
- 支持 8 颗英特尔 Movidius™ MyriadX VPU 的英特尔® 视觉加速器设计(称作 VAD-M 或 HDDL)
[注:为实现最佳的性能、效率、工具定制和硬件控制,我们建议使用原生 OpenVINO™ API 及其运行时。]
- Ubuntu 18.04, 20.04 or macOS 11.2.3
- Python* 3.6, 3.7, 3.8 or 3.9
- TensorFlow* v2.5.1
请参阅我们的交互式安装表,查看安装选项菜单。该表格将引导您完成安装过程。
OpenVINO™ integration with TensorFlow 安装包附带 OpenVINO™ 2021.4.1 的预构建库,这意味着您无需单独安装 OpenVINO™。该安装包支持:
-
英特尔® CPU
-
英特尔® 集成 GPU
-
英特尔® Movidius™ 视觉处理单元 (VPU)
pip3 install pip==21.0.1 pip3 install tensorflow==2.5.1 pip3 install -U openvino-tensorflow
如果您想使用支持 Movidius™ 的英特尔® 视觉加速器设计 (VAD-M) 进行推理,请安装 OpenVINO™ integration with TensorFlow 以及英特尔® OpenVINO™ 工具套件发布版。
更多关于其他安装模式的详情,请参阅 INSTALL.md, 更多构建选项请参阅 BUILD.md
安装 OpenVINO™ integration with TensorFlow 后,您可以在TensorFlow* 上对训练好的模型运行推理操作。
为了获得最佳效果,建议通过设置环境变量 TF_ENABLE_ONEDNN_OPTS=1
来启用oneDNN Deep Neural Network Library (oneDNN)。
如要查看 OpenVINO™ integration with TensorFlow 是否安装正确,请运行
python3 -c "import tensorflow as tf; print('TensorFlow version: ',tf.__version__);\
import openvino_tensorflow; print(openvino_tensorflow.__version__)"
它会生成以下输出:
TensorFlow version: 2.5.1
OpenVINO integration with TensorFlow version: b'1.0.1'
OpenVINO version used for this build: b'2021.4.1'
TensorFlow version used for this build: v2.5.1
CXX11_ABI flag used for this build: 0
默认情况下,英特尔® CPU 用于运行推理。您也可以将默认选项改为英特尔® 集成 GPU 或英特尔® VPU 来进行 AI 推理。调用以下函数,更改执行推理的硬件。
openvino_tensorflow.set_backend('<backend_name>')
支持的后端包括‘CPU'、‘GPU'、‘GPU_FP16'、‘MYRIAD’和‘VAD-M'。
如要确定系统上的哪些处理单元用于推理,可使用以下函数:
openvino_tensorflow.list_backends()
如欲了解更多 API 调用和环境变量的信息,请查看 USAGE.md。
[注意:如果系统中存在支持 CUDA 的设备,则将环境变量 CUDA_VISIBLE_DEVICES 设置为 -1]
如欲了解 OpenVINO™ integration with TensorFlow 的具体功能,请查看示例目录中的演示。
示例教程也托管在 [Intel® DevCloud for the Edge](https://software.intel.com/content/www/us/en/develop/tools/devcloud/edge/build/ ovtfoverview.html)。 演示应用程序是使用 Jupyter Notebooks 实现的。 您可以在Intel® DevCloud 节点上执行它们,比较 OpenVINO™ integration with TensorFlow 原生 TensorFlow 和 OpenVINO™ 不同实现方式的性能结果。
OpenVINO™ integration with TensorFlow 依照 Apache 许可版本 2.0。通过贡献项目,您同意其中包含的许可和版权条款,并根据这些条款发布您的贡献。
通过 GitHub 问题提交您的问题、功能请求和漏洞报告。
我们欢迎您为 OpenVINO™ integration with TensorFlow 做出社区贡献。如您在改进方面有好的想法:
我们将以最快的速度审核您的贡献!如果需要进行其他修复或修改,我们将为您提供引导和反馈。贡献之前,请确保您可以构建 OpenVINO™ integration with TensorFlow 并运行所有示例和修复/补丁。如果您想推出重要特性,可以创建特性测试案例。您的 pull 请求经过验证之后,我们会将其合并到存储库中,前提是 pull 请求满足上述要求并经过认可。
* 其他名称和品牌可能已被声称为他人资产。