TensorFlow Serving 是一个高性能的分布式 serving system,用于在生产环境中部署 TensorFlow 模型。本教程将带您了解如何使用 TensorFlow Serving 部署和运行模型。

快速开始

  1. 安装 TensorFlow Serving:首先,您需要在您的服务器上安装 TensorFlow Serving。您可以参考官方文档进行安装。
  2. 准备模型:将您的 TensorFlow 模型转换为 SavedModel 格式。
  3. 创建配置文件:创建一个配置文件,指定模型的位置和其他参数。
  4. 启动 TensorFlow Serving:使用配置文件启动 TensorFlow Serving。
  5. 客户端调用:使用 TensorFlow Serving 客户端进行模型预测。

图像识别示例

假设您有一个图像识别模型,下面是一个简单的示例:

# 1. 安装 TensorFlow Serving
# 2. 将模型转换为 SavedModel 格式
# 3. 创建配置文件
tensorflow_model_server --model_name=mnist --model_base_path=/path/to/mnist/saved_model --port=8501

扩展阅读

图片示例

image_recognition_model