!30531 code_docs_auto_parallel_optimizer

Merge pull request !30531 from zhuyuxiao/I4S85V_doc
This commit is contained in:
i-robot 2022-02-24 11:27:41 +00:00 committed by Gitee
commit 2e091cca4d
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
1 changed files with 2 additions and 1 deletions

View File

@ -215,7 +215,8 @@ MindSpore context用于配置当前执行环境包括执行模式、执行
- **grad_accumulation_step** (int) - 在自动和半自动并行模式下设置梯度的累积step。其值应为正整数。默认值1。
- **parallel_optimizer_config** (dict) - 用于开启优化器并行后的行为配置。仅在enable_parallel_optimizer=True的时候生效。目前它支持关键字如下的关键字
- gradient_accumulation_shard设置累积梯度变量是否在数据并行维度上进行切分。开启后将进一步减小模型的显存占用但是会在反向计算梯度时引入额外的通信算子ReduceScatter。此配置仅在流水线并行训练和梯度累积模式下生效。默认值True。
- gradient_accumulation_shard(bool)设置累积梯度变量是否在数据并行维度上进行切分。开启后将进一步减小模型的显存占用但是会在反向计算梯度时引入额外的通信算子ReduceScatter。此配置仅在流水线并行训练和梯度累积模式下生效。默认值True。
- parallel_optimizer_threshold(int):设置参数切分的阈值。占用内存小于该阈值的参数不做切分。单位: KB。默认值64。
- **comm_fusion** (dict) - 用于设置通信算子的融合配置。可以同一类型的通信算子按梯度张量的大小或者顺序分块传输。输入格式为{"通信类型": {"mode":str, "config": None int 或者 list}},每种通信算子的融合配置有两个键:"mode"和"config"。支持以下通信类型的融合类型和配置: