mindspore/serving/README_CN.md

4.3 KiB
Raw Blame History

基于MindSpore部署预测服务

概述

MindSpore Serving是一个轻量级、高性能的服务模块旨在帮助MindSpore开发者在生产环境中高效部署在线预测服务。当用户使用MindSpore完成模型训练后导出MindSpore模型即可使用MindSpore Serving创建该模型的预测服务。当前Serving仅支持Ascend 910。

启动Serving服务

通过pip安装MindSpore后Serving可执行程序位于/{your python path}/lib/python3.7/site-packages/mindspore/ms_serving 。 启动Serving服务命令如下

ms_serving [--help] [--model_path <MODEL_PATH>] [--model_name <MODEL_NAME>]
                  [--port <PORT>] [--device_id <DEVICE_ID>]

参数含义如下

参数名 属性 功能描述 参数类型 默认值 取值范围
--help 可选 显示启动命令的帮助信息。 - - -
--model_path <MODEL_PATH> 必选 指定待加载模型的存放路径。 str -
--model_name <MODEL_NAME> 必选 指定待加载模型的文件名。 str -
--port <PORT> 可选 指定Serving对外的端口号。 int 5500 1~65535
--device_id <DEVICE_ID> 可选 指定使用的设备号 int 0 0~7

执行启动命令前,需将/{your python path}/lib:/{your python path}/lib/python3.7/site-packages/mindspore/lib对应的路径加入到环境变量LD_LIBRARY_PATH中 。

应用示例

下面以一个简单的网络为例演示MindSpore Serving如何使用。

导出模型

使用add_model.py构造一个只有Add算子的网络并导出MindSpore推理部署模型。

python add_model.py

执行脚本生成add.pb文件该模型的输入为两个shape为[4]的一维Tensor输出结果是两个输入Tensor之和。

启动Serving推理服务

ms_serving --model_path={current path} --model_name=add.pb

当服务端打印日志MS Serving Listening on 0.0.0.0:5500表示Serving服务已加载推理模型完毕。

客户端示例

执行如下命令编译一个客户端示例程序并向Serving服务发送推理请求。

cd mindspore/serving/example/cpp_client
mkdir build
cmake ..
make
./ms_client --target=localhost:5500

显示如下返回值说明Serving服务已正确执行Add网络的推理。

Compute [1, 2, 3, 4] + [1, 2, 3, 4]
Add result is [2, 4, 6, 8]
client received: RPC OK

编译客户端要求用户本地已安装c++版本的gRPC,并将对应路径加入到环境变量PATH中。

客户端代码主要包含以下几个部分:

  1. 基于MSService::Stub实现Client并创建Client实例。
    class MSClient {
     public:
      explicit MSClient(std::shared_ptr<Channel> channel) :  stub_(MSService::NewStub(channel)) {}
     private:
      std::unique_ptr<MSService::Stub> stub_;
    };MSClient client(grpc::CreateChannel(target_str, grpc::InsecureChannelCredentials()));
    
    MSClient client(grpc::CreateChannel(target_str, grpc::InsecureChannelCredentials()));
    
    
  2. 根据网络的实际输入构造请求的入参Request、出参Reply和gRPC的客户端Context。
    PredictRequest request;
    PredictReply reply;
    ClientContext context;
    
    //construct tensor
    Tensor data;
    
    //set shape
    TensorShape shape;
    shape.add_dims(4);
    *data.mutable_tensor_shape() = shape;
    
    //set type
    data.set_tensor_type(ms_serving::MS_FLOAT32);
    std::vector<float> input_data{1, 2, 3, 4};
    
    //set datas
    data.set_data(input_data.data(), input_data.size());
    
    //add tensor to request
    *request.add_data() = data;
    *request.add_data() = data;
    
  3. 调用gRPC接口和已经启动的Serving服务通信并取回返回值。
    Status status = stub_->Predict(&context, request, &reply);
    

完整代码参考ms_client