TensorFlow Serving 指南
TensorFlow Serving 是一个用于机器学习模型部署的开源系统。它允许你将训练好的模型作为服务进行部署,从而可以轻松地通过 RESTful API 进行调用。
快速开始
安装 TensorFlow Serving
首先,你需要安装 TensorFlow Serving。你可以通过 TensorFlow 官方文档了解如何安装:TensorFlow Serving 安装指南。准备模型
接下来,你需要准备你的 TensorFlow 模型。确保你的模型可以被 TensorFlow Serving 识别和加载。启动 TensorFlow Serving
使用以下命令启动 TensorFlow Serving:tensorflow_model_server --model_name=my_model --model_base_path=/path/to/my_model
调用模型
使用 RESTful API 调用你的模型:curl -X POST http://localhost:8501/v1/models/my_model:predict -d '{"instances": [{"input1": 1.0, "input2": 2.0}]}' --header "Content-Type: application/json"
扩展阅读
TensorFlow Serving 架构图