mindspore/model_zoo/official/cv/resnet/README_CN.md

28 KiB
Executable File
Raw Blame History

目录

ResNet描述

概述

残差神经网络ResNet由微软研究院何凯明等五位华人提出通过ResNet单元成功训练152层神经网络赢得了ILSVRC2015冠军。ResNet前五项的误差率为3.57%参数量低于VGGNet因此效果非常显著。传统的卷积网络或全连接网络或多或少存在信息丢失的问题还会造成梯度消失或爆炸导致深度网络训练失败ResNet则在一定程度上解决了这个问题。通过将输入信息传递给输出确保信息完整性。整个网络只需要学习输入和输出的差异部分简化了学习目标和难度。ResNet的结构大幅提高了神经网络训练的速度并且大大提高了模型的准确率。正因如此ResNet十分受欢迎甚至可以直接用于ConceptNet网络。

如下为MindSpore使用CIFAR-10/ImageNet2012数据集对ResNet18/ResNet50/ResNet101/SE-ResNet50进行训练的示例。ResNet50和ResNet101可参考论文1SE-ResNet50是ResNet50的一个变体可参考论文2论文3。使用8卡Ascend 910训练SE-ResNet50仅需24个周期TOP1准确率就达到了75.9%暂不支持用CIFAR-10数据集训练ResNet101以及用用CIFAR-10数据集训练SE-ResNet50

论文

  1. 论文Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun."Deep Residual Learning for Image Recognition"

  2. 论文Jie Hu, Li Shen, Samuel Albanie, Gang Sun, Enhua Wu."Squeeze-and-Excitation Networks"

  3. 论文Tong He, Zhi Zhang, Hang Zhang, Zhongyue Zhang, Junyuan Xie, Mu Li."Bag of Tricks for Image Classification with Convolutional Neural Networks"

模型架构

ResNet的总体网络架构如下 链接

数据集

使用的数据集:CIFAR-10

  • 数据集大小共10个类、60,000个32*32彩色图像
    • 训练集50,000个图像
    • 测试集10,000个图像
  • 数据格式:二进制文件
    • 数据在dataset.py中处理。
  • 下载数据集。目录结构如下:
├─cifar-10-batches-bin
│
└─cifar-10-verify-bin

使用的数据集:ImageNet2012

  • 数据集大小共1000个类、224*224彩色图像
    • 训练集共1,281,167张图像
    • 测试集共50,000张图像
  • 数据格式JPEG
    • 数据在dataset.py中处理。
  • 下载数据集,目录结构如下:
└─dataset
   ├─ilsvrc                # 训练数据集
   └─validation_preprocess # 评估数据集

特性

混合精度

采用混合精度的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。 以FP16算子为例如果输入数据类型为FP32MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志搜索“reduce precision”查看精度降低的算子。

环境要求

快速入门

通过官方网站安装MindSpore后您可以按照如下步骤进行训练和评估

  • Ascend处理器环境运行
# 分布式训练
用法bash run_distribute_train.sh [resnet18|resnet50|resnet101|se-resnet50] [cifar10|imagenet2012] [RANK_TABLE_FILE] [DATASET_PATH] [PRETRAINED_CKPT_PATH](可选)

# 单机训练
用法bash run_standalone_train.sh [resnet18|resnet50|resnet101|se-resnet50] [cifar10|imagenet2012] [DATASET_PATH]
[PRETRAINED_CKPT_PATH](可选)

# 运行评估示例
用法bash run_eval.sh [resnet18|resnet50|resnet101|se-resnet50] [cifar10|imagenet2012] [DATASET_PATH] [CHECKPOINT_PATH]
  • GPU处理器环境运行
# 分布式训练示例
bash run_distribute_train_gpu.sh [resnet50|resnet101] [cifar10|imagenet2012]  [DATASET_PATH] [PRETRAINED_CKPT_PATH](可选)

# 单机训练示例
bash run_standalone_train_gpu.sh [resnet50|resnet101] [cifar10|imagenet2012] [DATASET_PATH] [PRETRAINED_CKPT_PATH](可选)

# 推理示例
bash run_eval_gpu.sh [resnet50|resnet101] [cifar10|imagenet2012] [DATASET_PATH] [CHECKPOINT_PATH]

脚本说明

脚本及样例代码

.
└──resnet
  ├── README.md
  ├── scripts
    ├── run_distribute_train.sh            # 启动Ascend分布式训练8卡
    ├── run_parameter_server_train.sh      # 启动Ascend参数服务器训练(8卡)
    ├── run_eval.sh                        # 启动Ascend评估
    ├── run_standalone_train.sh            # 启动Ascend单机训练单卡
    ├── run_distribute_train_gpu.sh        # 启动GPU分布式训练8卡
    ├── run_parameter_server_train_gpu.sh  # 启动GPU参数服务器训练8卡
    ├── run_eval_gpu.sh                    # 启动GPU评估
    └── run_standalone_train_gpu.sh        # 启动GPU单机训练单卡
  ├── src
    ├── config.py                          # 参数配置
    ├── dataset.py                         # 数据预处理
    ├─  eval_callback.py                   # 训练时推理回调函数
    ├── CrossEntropySmooth.py              # ImageNet2012数据集的损失定义
    ├── lr_generator.py                    # 生成每个步骤的学习率
    └── resnet.py                          # ResNet骨干网络包括ResNet50、ResNet101和SE-ResNet50
  ├── eval.py                              # 评估网络
  └── train.py                             # 训练网络

脚本参数

在config.py中可以同时配置训练参数和评估参数。

  • 配置ResNet18、ResNet50和CIFAR-10数据集。
"class_num":10,                  # 数据集类数
"batch_size":32,                 # 输入张量的批次大小
"loss_scale":1024,               # 损失等级
"momentum":0.9,                  # 动量
"weight_decay":1e-4,             # 权重衰减
"epoch_size":90,                 # 此值仅适用于训练应用于推理时固定为1
"pretrain_epoch_size":0,         # 加载预训练检查点之前已经训练好的模型的周期大小实际训练周期大小等于epoch_size减去pretrain_epoch_size
"save_checkpoint":True,          # 是否保存检查点
"save_checkpoint_epochs":5,      # 两个检查点之间的周期间隔;默认情况下,最后一个检查点将在最后一步完成后保存
"keep_checkpoint_max":10,        # 只保留最后一个keep_checkpoint_max检查点
"save_checkpoint_path":"./",     # 检查点保存路径
"warmup_epochs":5,               # 热身周期数
"lr_decay_mode":"poly”           # 衰减模式可为步骤、策略和默认
"lr_init":0.01,                  # 初始学习率
"lr_end":0.0001,                  # 最终学习率
"lr_max":0.1,                    # 最大学习率
  • 配置ResNet18、ResNet50和ImageNet2012数据集。
"class_num":1001,                # 数据集类数
"batch_size":256,                # 输入张量的批次大小
"loss_scale":1024,               # 损失等级
"momentum":0.9,                  # 动量优化器
"weight_decay":1e-4,             # 权重衰减
"epoch_size":90,                 # 此值仅适用于训练应用于推理时固定为1
"pretrain_epoch_size":0,         # 加载预训练检查点之前已经训练好的模型的周期大小实际训练周期大小等于epoch_size减去pretrain_epoch_size
"save_checkpoint":True,          # 是否保存检查点
"save_checkpoint_epochs":5,      # 两个检查点之间的周期间隔;默认情况下,最后一个检查点将在最后一个周期完成后保存
"keep_checkpoint_max":10,        # 只保存最后一个keep_checkpoint_max检查点
"save_checkpoint_path":"./",     # 检查点相对于执行路径的保存路径
"warmup_epochs":0,               # 热身周期数
"lr_decay_mode":"Linear",        # 用于生成学习率的衰减模式
"use_label_smooth":True,         # 标签平滑
"label_smooth_factor":0.1,       # 标签平滑因子
"lr_init":0,                     # 初始学习率
"lr_max":0.8,                    # 最大学习率
"lr_end":0.0,                    # 最小学习率
  • 配置ResNet101和ImageNet2012数据集。
"class_num":1001,                # 数据集类数
"batch_size":32,                 # 输入张量的批次大小
"loss_scale":1024,               # 损失等级
"momentum":0.9,                  # 动量优化器
"weight_decay":1e-4,             # 权重衰减
"epoch_size":120,                # 训练周期大小
"pretrain_epoch_size":0,         # 加载预训练检查点之前已经训练好的模型的周期大小实际训练周期大小等于epoch_size减去pretrain_epoch_size
"save_checkpoint":True,          # 是否保存检查点
"save_checkpoint_epochs":5,      # 两个检查点之间的周期间隔;默认情况下,最后一个检查点将在最后一个周期完成后保存
"keep_checkpoint_max":10,        # 只保存最后一个keep_checkpoint_max检查点
"save_checkpoint_path":"./",     # 检查点相对于执行路径的保存路径
"warmup_epochs":0,               # 热身周期数
"lr_decay_mode":"cosine”         # 用于生成学习率的衰减模式
"use_label_smooth":True,         # 标签平滑
"label_smooth_factor":0.1,       # 标签平滑因子
"lr":0.1                         # 基础学习率
  • 配置SE-ResNet50和ImageNet2012数据集。
"class_num":1001,                # 数据集类数
"batch_size":32,                 # 输入张量的批次大小
"loss_scale":1024,               # 损失等级
"momentum":0.9,                  # 动量优化器
"weight_decay":1e-4,             # 权重衰减
"epoch_size":28,                 # 创建学习率的周期大小
"train_epoch_size":24            # 实际训练周期大小
"pretrain_epoch_size":0,         # 加载预训练检查点之前已经训练好的模型的周期大小实际训练周期大小等于epoch_size减去pretrain_epoch_size
"save_checkpoint":True,          # 是否保存检查点
"save_checkpoint_epochs":4,      # 两个检查点之间的周期间隔;默认情况下,最后一个检查点将在最后一个周期完成后保存
"keep_checkpoint_max":10,        # 只保存最后一个keep_checkpoint_max检查点
"save_checkpoint_path":"./",     # checkpoint相对于执行路径的保存路径
"warmup_epochs":3,               # 热身周期数
"lr_decay_mode":"cosine”         # 用于生成学习率的衰减模式
"use_label_smooth":True,         # 标签平滑
"label_smooth_factor":0.1,       # 标签平滑因子
"lr_init":0.0,                   # 初始学习率
"lr_max":0.3,                    # 最大学习率
"lr_end":0.0001,                 # 最终学习率

训练过程

用法

Ascend处理器环境运行

# 分布式训练
用法bash run_distribute_train.sh [resnet18|resnet50|resnet101|se-resnet50] [cifar10|imagenet2012] [RANK_TABLE_FILE] [DATASET_PATH] [PRETRAINED_CKPT_PATH](可选)

# 单机训练
用法bash run_standalone_train.sh [resnet18|resnet50|resnet101|se-resnet50] [cifar10|imagenet2012] [DATASET_PATH]
[PRETRAINED_CKPT_PATH](可选)

# 运行评估示例
用法bash run_eval.sh [resnet18|resnet50|resnet101|se-resnet50] [cifar10|imagenet2012] [DATASET_PATH] [CHECKPOINT_PATH]

分布式训练需要提前创建JSON格式的HCCL配置文件。

具体操作,参见hccn_tools中的说明。

训练结果保存在示例路径中文件夹名称以“train”或“train_parallel”开头。您可在此路径下的日志中找到检查点文件以及结果如下所示。

运行单卡用例时如果想更换运行卡号,可以通过设置环境变量 export DEVICE_ID=x 或者在context中设置 device_id=x指定相应的卡号。

GPU处理器环境运行

# 分布式训练示例
bash run_distribute_train_gpu.sh [resnet50|resnet101] [cifar10|imagenet2012]  [DATASET_PATH] [PRETRAINED_CKPT_PATH](可选)

# 单机训练示例
bash run_standalone_train_gpu.sh [resnet50|resnet101] [cifar10|imagenet2012] [DATASET_PATH] [PRETRAINED_CKPT_PATH](可选)

# 推理示例
bash run_eval_gpu.sh [resnet50|resnet101] [cifar10|imagenet2012] [DATASET_PATH] [CHECKPOINT_PATH]

运行参数服务器模式训练

  • Ascend参数服务器训练示例
bash run_parameter_server_train.sh [resnet18|resnet50|resnet101] [cifar10|imagenet2012] [RANK_TABLE_FILE] [DATASET_PATH] [PRETRAINED_CKPT_PATH](可选)
  • GPU参数服务器训练示例
bash run_parameter_server_train_gpu.sh [resnet50|resnet101] [cifar10|imagenet2012] [DATASET_PATH] [PRETRAINED_CKPT_PATH](可选)

训练时推理

训练时推理需要在启动文件中添加run_eval 并设置为True。与此同时需要设置: eval_dataset_path, save_best_ckpt, eval_start_epoch, eval_interval

结果

  • 使用CIFAR-10数据集训练ResNet18
# 分布式训练结果8P
epoch: 1 step: 195, loss is 1.5783054
epoch: 2 step: 195, loss is 1.0682616
epoch: 3 step: 195, loss is 0.8836588
epoch: 4 step: 195, loss is 0.36090446
epoch: 5 step: 195, loss is 0.80853784
...
  • 使用ImageNet2012数据集训练ResNet18
# 分布式训练结果8P
epoch: 1 step: 625, loss is 4.757934
epoch: 2 step: 625, loss is 4.0891967
epoch: 3 step: 625, loss is 3.9131956
epoch: 4 step: 625, loss is 3.5302577
epoch: 5 step: 625, loss is 3.597817
...
  • 使用CIFAR-10数据集训练ResNet50
# 分布式训练结果8P
epoch:1 step:195, loss is 1.9601055
epoch:2 step:195, loss is 1.8555021
epoch:3 step:195, loss is 1.6707983
epoch:4 step:195, loss is 1.8162166
epoch:5 step:195, loss is 1.393667
...
  • 使用ImageNet2012数据集训练ResNet50
# 分布式训练结果8P
epoch:1 step:5004, loss is 4.8995576
epoch:2 step:5004, loss is 3.9235563
epoch:3 step:5004, loss is 3.833077
epoch:4 step:5004, loss is 3.2795618
epoch:5 step:5004, loss is 3.1978393
...
  • 使用ImageNet2012数据集训练ResNet101
# 分布式训练结果8P
epoch:1 step:5004, loss is 4.805483
epoch:2 step:5004, loss is 3.2121816
epoch:3 step:5004, loss is 3.429647
epoch:4 step:5004, loss is 3.3667371
epoch:5 step:5004, loss is 3.1718972
...
epoch:67 step:5004, loss is 2.2768745
epoch:68 step:5004, loss is 1.7223864
epoch:69 step:5004, loss is 2.0665488
epoch:70 step:5004, loss is 1.8717369
...
  • 使用ImageNet2012数据集训练SE-ResNet50
# 分布式训练结果8P
epoch:1 step:5004, loss is 5.1779146
epoch:2 step:5004, loss is 4.139395
epoch:3 step:5004, loss is 3.9240637
epoch:4 step:5004, loss is 3.5011306
epoch:5 step:5004, loss is 3.3501816
...

评估过程

用法

Ascend处理器环境运行

# 评估
Usage: bash run_eval.sh [resnet18|resnet50|resnet101|se-resnet50] [cifar10|imagenet2012] [DATASET_PATH] [CHECKPOINT_PATH]
# 评估示例
bash run_eval.sh resnet50 cifar10 ~/cifar10-10-verify-bin ~/resnet50_cifar10/train_parallel0/resnet-90_195.ckpt

训练过程中可以生成检查点。

GPU处理器环境运行

bash run_eval_gpu.sh [resnet50|resnet101] [cifar10|imagenet2012] [DATASET_PATH] [CHECKPOINT_PATH]

结果

评估结果保存在示例路径中文件夹名为“eval”。您可在此路径下的日志找到如下结果

  • 使用CIFAR-10数据集评估ResNet18
result: {'acc': 0.9402043269230769} ckpt=~/resnet50_cifar10/train_parallel0/resnet-90_195.ckpt
  • 使用ImageNet2012数据集评估ResNet18
result: {'acc': 0.7053685897435897} ckpt=train_parallel0/resnet-90_5004.ckpt
  • 使用CIFAR-10数据集评估ResNet50
result:{'acc':0.91446314102564111} ckpt=~/resnet50_cifar10/train_parallel0/resnet-90_195.ckpt
  • 使用ImageNet2012数据集评估ResNet50
result:{'acc':0.7671054737516005} ckpt=train_parallel0/resnet-90_5004.ckpt
  • 使用ImageNet2012数据集评估ResNet101
result:{'top_5_accuracy':0.9429417413572343, 'top_1_accuracy':0.7853513124199744} ckpt=train_parallel0/resnet-120_5004.ckpt
  • 使用ImageNet2012数据集评估SE-ResNet50
result:{'top_5_accuracy':0.9342589628681178, 'top_1_accuracy':0.768065781049936} ckpt=train_parallel0/resnet-24_5004.ckpt

模型描述

性能

评估性能

CIFAR-10上的ResNet18

参数 Ascend 910
模型版本 ResNet18
资源 Ascend 910CPU2.60GHz192核内存755G
上传日期 2021-02-25
MindSpore版本 1.1.1-alpha
数据集 CIFAR-10
训练参数 epoch=90, steps per epoch=195, batch_size = 32
优化器 Momentum
损失函数 Softmax交叉熵
输出 概率
损失 0.0002519517
速度 13毫秒/步8卡
总时长 4分钟
参数(M) 11.2
微调检查点 86.ckpt文件
脚本 链接

ImageNet2012上的ResNet18

参数 Ascend 910
模型版本 ResNet18
资源 Ascend 910CPU2.60GHz192核内存755G
上传日期 2020-04-01 ;
MindSpore版本 1.1.1-alpha
数据集 ImageNet2012
训练参数 epoch=90, steps per epoch=626, batch_size = 256
优化器 Momentum
损失函数 Softmax交叉熵
输出 概率
损失 2.15702
速度 110毫秒/步8卡 (可能需要在datasetpy中增加set_numa_enbale绑核操作)
总时长 110分钟
参数(M) 11.7
微调检查点 90M.ckpt文件
脚本 链接

CIFAR-10上的ResNet50

参数 Ascend 910 GPU
模型版本 ResNet50-v1.5 ResNet50-v1.5
资源 Ascend 910CPU2.60GHz192核内存755G GPU(Tesla V100 SXM2)CPU2.1GHz24核内存128G
上传日期 2020-04-01 2020-08-01
MindSpore版本 0.1.0-alpha 0.6.0-alpha
数据集 CIFAR-10 CIFAR-10
训练参数 epoch=90, steps per epoch=195, batch_size = 32 epoch=90, steps per epoch=195, batch_size = 32
优化器 Momentum Momentum
损失函数 Softmax交叉熵 Softmax交叉熵
输出 概率 概率
损失 0.000356 0.000716
速度 18.4毫秒/步8卡 69毫秒/步8卡
总时长 6分钟 20.2分钟
参数(M) 25.5 25.5
微调检查点 179.7M.ckpt文件 179.7M.ckpt文件
脚本 链接 链接

ImageNet2012上的ResNet50

参数 Ascend 910 GPU
模型版本 ResNet50-v1.5 ResNet50-v1.5
资源 Ascend 910CPU2.60GHz192核内存755G GPU(Tesla V100 SXM2)CPU2.1GHz24核内存128G
上传日期 2020-04-01 ; 2020-08-01
MindSpore版本 0.1.0-alpha 0.6.0-alpha
数据集 ImageNet2012 ImageNet2012
训练参数 epoch=90, steps per epoch=626, batch_size = 256 epoch=90, steps per epoch=5004, batch_size = 32
优化器 Momentum Momentum
损失函数 Softmax交叉熵 Softmax交叉熵
输出 概率 概率
损失 1.8464266 1.9023
速度 118毫秒/步8卡 67.1毫秒/步8卡
总时长 114分钟 500分钟
参数(M) 25.5 25.5
微调检查点 197M.ckpt文件 197M.ckpt文件
脚本 链接 链接

ImageNet2012上的ResNet101

参数 Ascend 910 GPU
模型版本 ResNet101 ResNet101
资源 Ascend 910CPU2.60GHz192核内存755G GPU(Tesla V100 SXM2)CPU2.1GHz24核内存128G
上传日期 2020-04-01 ; 2020-08-01
MindSpore版本 0.1.0-alpha 0.6.0-alpha
数据集 ImageNet2012 ImageNet2012
训练参数 epoch=120, steps per epoch=5004, batch_size = 32 epoch=120, steps per epoch=5004, batch_size = 32
优化器 Momentum Momentum
损失函数 Softmax交叉熵 Softmax交叉熵
输出 概率 概率
损失 1.6453942 1.7023412
速度 30.3毫秒/步8卡 108.6毫秒/步8卡
总时长 301分钟 1100分钟
参数(M) 44.6 44.6
微调检查点 343M.ckpt文件 343M.ckpt文件
脚本 链接 链接

ImageNet2012上的SE-ResNet50

参数 Ascend 910
模型版本 SE-ResNet50
资源 Ascend 910CPU2.60GHz192核内存755G
上传日期 2020-08-16
MindSpore版本 0.7.0-alpha
数据集 ImageNet2012
训练参数 epoch=24, steps per epoch=5004, batch_size = 32
优化器 Momentum
损失函数 Softmax交叉熵
输出 概率
损失 1.754404
速度 24.6毫秒/步8卡
总时长 49.3分钟
参数(M) 25.5
微调检查点 215.9M .ckpt文件
脚本 链接

随机情况说明

dataset.py中设置了“create_dataset”函数内的种子同时还使用了train.py中的随机种子。

ModelZoo主页

请浏览官网主页