TensorFlow Serving 指南

TensorFlow Serving 是一个用于机器学习模型部署的开源系统。它允许你将训练好的模型作为服务进行部署,从而可以轻松地通过 RESTful API 进行调用。

快速开始

  1. 安装 TensorFlow Serving
    首先,你需要安装 TensorFlow Serving。你可以通过 TensorFlow 官方文档了解如何安装:TensorFlow Serving 安装指南

  2. 准备模型
    接下来,你需要准备你的 TensorFlow 模型。确保你的模型可以被 TensorFlow Serving 识别和加载。

  3. 启动 TensorFlow Serving
    使用以下命令启动 TensorFlow Serving:

    tensorflow_model_server --model_name=my_model --model_base_path=/path/to/my_model
    
  4. 调用模型
    使用 RESTful API 调用你的模型:

    curl -X POST http://localhost:8501/v1/models/my_model:predict -d '{"instances": [{"input1": 1.0, "input2": 2.0}]}' --header "Content-Type: application/json"
    

扩展阅读

TensorFlow Serving 架构图