ONNXRuntime 是一个开源的推理引擎,它支持 ONNX(Open Neural Network Exchange)格式,旨在提供高性能的推理服务。ONNXRuntime 可以在多种平台上运行,包括 CPU、GPU 和其他加速器。

特点

  • 跨平台支持:ONNXRuntime 支持多种操作系统和硬件平台,包括 Windows、Linux、macOS 和 Android。
  • 高性能:ONNXRuntime 提供了优化的推理引擎,可以加速模型的运行。
  • 易于使用:ONNXRuntime 提供了简单的 API,使得开发者可以轻松地将模型部署到生产环境中。

安装

要安装 ONNXRuntime,您可以使用以下命令:

pip install onnxruntime

示例

以下是一个简单的示例,展示了如何使用 ONNXRuntime 加载和推理一个 ONNX 模型:

import onnxruntime as ort

# 加载模型
session = ort.InferenceSession("model.onnx")

# 准备输入数据
input_data = ort.Tensor("input", [[1.0, 2.0], [3.0, 4.0]])

# 推理
output = session.run(None, {"input": input_data})

print(output)

资源

ONNXRuntime Logo