mindspore/serving/README_CN.md

152 lines
5.7 KiB
Markdown
Raw Normal View History

2020-08-20 20:29:32 +08:00
# 基于MindSpore部署推理服务
2020-06-21 14:37:27 +08:00
2020-07-27 14:32:57 +08:00
<!-- TOC -->
2020-08-20 20:29:32 +08:00
- [基于MindSpore部署推理服务](#基于mindspore部署推理服务)
- [概述](#概述)
- [启动Serving服务](#启动serving服务)
- [应用示例](#应用示例)
- [导出模型](#导出模型)
- [启动Serving推理服务](#启动serving推理服务)
- [客户端示例](#客户端示例)
- [Python客户端示例](#python客户端示例)
- [C++客户端示例](#cpp客户端示例)
<!-- /TOC -->
<a href="https://gitee.com/mindspore/docs/blob/master/tutorials/source_zh_cn/advanced_use/serving.md" target="_blank"><img src="../_static/logo_source.png"></a>
2020-06-21 14:37:27 +08:00
2020-07-27 14:32:57 +08:00
## 概述
2020-06-21 14:37:27 +08:00
2020-08-20 20:29:32 +08:00
MindSpore Serving是一个轻量级、高性能的服务模块旨在帮助MindSpore开发者在生产环境中高效部署在线推理服务。当用户使用MindSpore完成模型训练后导出MindSpore模型即可使用MindSpore Serving创建该模型的推理服务。当前Serving仅支持Ascend 910。
2020-06-21 14:37:27 +08:00
2020-07-27 14:32:57 +08:00
## 启动Serving服务
通过pip安装MindSpore后Serving可执行程序位于`/{your python path}/lib/python3.7/site-packages/mindspore/ms_serving` 。
启动Serving服务命令如下
```bash
ms_serving [--help] [--model_path <MODEL_PATH>] [--model_name <MODEL_NAME>]
[--port <PORT>] [--device_id <DEVICE_ID>]
```
参数含义如下
2020-06-21 14:37:27 +08:00
2020-07-27 14:32:57 +08:00
|参数名|属性|功能描述|参数类型|默认值|取值范围|
|---|---|---|---|---|---|
|`--help`|可选|显示启动命令的帮助信息。|-|-|-|
2020-08-20 20:29:32 +08:00
|`--model_path=<MODEL_PATH>`|必选|指定待加载模型的存放路径。|String|空|-|
|`--model_name=<MODEL_NAME>`|必选|指定待加载模型的文件名。|String|空|-|
|`--port=<PORT>`|可选|指定Serving对外的端口号。|Integer|5500|1~65535|
|`--device_id=<DEVICE_ID>`|可选|指定使用的设备号|Integer|0|0~7|
2020-06-21 14:37:27 +08:00
2020-07-27 14:32:57 +08:00
> 执行启动命令前,需将`/{your python path}/lib:/{your python path}/lib/python3.7/site-packages/mindspore/lib`对应的路径加入到环境变量LD_LIBRARY_PATH中 。
2020-06-21 14:37:27 +08:00
2020-07-27 14:32:57 +08:00
## 应用示例
下面以一个简单的网络为例演示MindSpore Serving如何使用。
2020-06-21 14:37:27 +08:00
2020-07-27 14:32:57 +08:00
### 导出模型
使用[add_model.py](https://gitee.com/mindspore/mindspore/blob/master/serving/example/export_model/add_model.py)构造一个只有Add算子的网络并导出MindSpore推理部署模型。
```python
python add_model.py
```
2020-08-20 20:29:32 +08:00
执行脚本,生成`tensor_add.mindir`文件该模型的输入为两个shape为[2,2]的二维Tensor输出结果是两个输入Tensor之和。
2020-07-27 14:32:57 +08:00
### 启动Serving推理服务
```bash
2020-08-20 20:29:32 +08:00
ms_serving --model_path={model directory} --model_name=tensor_add.mindir
2020-07-27 14:32:57 +08:00
```
当服务端打印日志`MS Serving Listening on 0.0.0.0:5500`时表示Serving服务已加载推理模型完毕。
### 客户端示例
2020-08-20 20:29:32 +08:00
#### <span name="python客户端示例">Python客户端示例</span>
获取[ms_client.py](https://gitee.com/mindspore/mindspore/blob/master/serving/example/python_client/ms_client.py)启动Python客户端。
2020-07-27 14:32:57 +08:00
```bash
2020-08-20 20:29:32 +08:00
python ms_client.py
2020-07-27 14:32:57 +08:00
```
2020-08-20 20:29:32 +08:00
2020-07-27 14:32:57 +08:00
显示如下返回值说明Serving服务已正确执行Add网络的推理。
```
2020-08-20 20:29:32 +08:00
ms client received:
[[2. 2.]
[2. 2.]]
2020-07-27 14:32:57 +08:00
```
2020-08-20 20:29:32 +08:00
#### <span name="cpp客户端示例">C++客户端示例</span>
1. 获取客户端示例执行程序
首先需要下载[MindSpore源码](https://gitee.com/mindspore/mindspore)。有两种方式编译并获取客户端示例程序:
+ 从源码编译MindSpore时候将会编译产生Serving C++客户端示例程序,可在`build/mindspore/serving/example/cpp_client`目录下找到`ms_client`可执行程序。
+ 独立编译:
需要先预装[gRPC](https://gRPC.io)。
然后在MindSpore源码路径中执行如下命令编译一个客户端示例程序。
```bash
cd mindspore/serving/example/cpp_client
mkdir build && cd build
cmake -D GRPC_PATH={grpc_install_dir} ..
make
```
其中`{grpc_install_dir}`为gRPC安装时的路径请替换为实际gRPC安装路径。
2. 启动客户端
执行ms_client向Serving服务发送推理请求
```bash
./ms_client --target=localhost:5500
```
显示如下返回值说明Serving服务已正确执行Add网络的推理。
```
Compute [[1, 2], [3, 4]] + [[1, 2], [3, 4]]
Add result is 2 4 6 8
client received: RPC OK
```
2020-07-27 14:32:57 +08:00
客户端代码主要包含以下几个部分:
1. 基于MSService::Stub实现Client并创建Client实例。
```
class MSClient {
public:
explicit MSClient(std::shared_ptr<Channel> channel) : stub_(MSService::NewStub(channel)) {}
private:
std::unique_ptr<MSService::Stub> stub_;
};MSClient client(grpc::CreateChannel(target_str, grpc::InsecureChannelCredentials()));
MSClient client(grpc::CreateChannel(target_str, grpc::InsecureChannelCredentials()));
```
2. 根据网络的实际输入构造请求的入参Request、出参Reply和gRPC的客户端Context。
```
PredictRequest request;
PredictReply reply;
ClientContext context;
//construct tensor
Tensor data;
//set shape
TensorShape shape;
shape.add_dims(4);
*data.mutable_tensor_shape() = shape;
//set type
data.set_tensor_type(ms_serving::MS_FLOAT32);
std::vector<float> input_data{1, 2, 3, 4};
//set datas
data.set_data(input_data.data(), input_data.size());
//add tensor to request
*request.add_data() = data;
*request.add_data() = data;
```
3. 调用gRPC接口和已经启动的Serving服务通信并取回返回值。
```
Status status = stub_->Predict(&context, request, &reply);
```
完整代码参考[ms_client](https://gitee.com/mindspore/mindspore/blob/master/serving/example/cpp_client/ms_client.cc)。
2020-06-21 14:37:27 +08:00