Skip to content

Latest commit

 

History

History
119 lines (86 loc) · 3.53 KB

finetune_fast_scnn.md

File metadata and controls

119 lines (86 loc) · 3.53 KB

Fast-SCNN模型训练教程

  • 本教程旨在介绍如何通过使用PaddleSeg提供的 Fast_scnn_cityscapes 预训练模型在自定义数据集上进行训练。

  • 在阅读本教程前,请确保您已经了解过PaddleSeg的快速入门基础功能等章节,以便对PaddleSeg有一定的了解

  • 本教程的所有命令都基于PaddleSeg主目录进行执行

一. 准备待训练数据

我们提前准备好了一份数据集,通过以下代码进行下载

python dataset/download_pet.py

二. 下载预训练模型

python pretrained_model/download_model.py fast_scnn_cityscapes

三. 准备配置

接着我们需要确定相关配置,从本教程的角度,配置分为三部分:

  • 数据集
    • 训练集主目录
    • 训练集文件列表
    • 测试集文件列表
    • 评估集文件列表
  • 预训练模型
    • 预训练模型名称
    • 预训练模型的backbone网络
    • 预训练模型的Normalization类型
    • 预训练模型路径
  • 其他
    • 学习率
    • Batch大小
    • ...

在三者中,预训练模型的配置尤为重要,如果模型或者BACKBONE配置错误,会导致预训练的参数没有加载,进而影响收敛速度。预训练模型相关的配置如第二步所展示。

数据集的配置和数据路径有关,在本教程中,数据存放在dataset/mini_pet

其他配置则根据数据集和机器环境的情况进行调节,最终我们保存一个如下内容的yaml配置文件,存放路径为configs/fast_scnn_pet.yaml

# 数据集配置
DATASET:
    DATA_DIR: "./dataset/mini_pet/"
    NUM_CLASSES: 3
    TEST_FILE_LIST: "./dataset/mini_pet/file_list/test_list.txt"
    TRAIN_FILE_LIST: "./dataset/mini_pet/file_list/train_list.txt"
    VAL_FILE_LIST: "./dataset/mini_pet/file_list/val_list.txt"
    VIS_FILE_LIST: "./dataset/mini_pet/file_list/test_list.txt"

# 预训练模型配置
MODEL:
    MODEL_NAME: "fast_scnn"
    DEFAULT_NORM_TYPE: "bn"

# 其他配置
TRAIN_CROP_SIZE: (512, 512)
EVAL_CROP_SIZE: (512, 512)
AUG:
    AUG_METHOD: "unpadding"
    FIX_RESIZE_SIZE: (512, 512)
BATCH_SIZE: 4
TRAIN:
    PRETRAINED_MODEL_DIR: "./pretrained_model/fast_scnn_cityscapes/"
    MODEL_SAVE_DIR: "./saved_model/fast_scnn_pet/"
    SNAPSHOT_EPOCH: 10
TEST:
    TEST_MODEL: "./saved_model/fast_scnn_pet/final"
SOLVER:
    NUM_EPOCHS: 100
    LR: 0.005
    LR_POLICY: "poly"
    OPTIMIZER: "sgd"

四. 配置/数据校验

在开始训练和评估之前,我们还需要对配置和数据进行一次校验,确保数据和配置是正确的。使用下述命令启动校验流程

python pdseg/check.py --cfg ./configs/fast_scnn_pet.yaml

五. 开始训练

校验通过后,使用下述命令启动训练

python pdseg/train.py --use_gpu --cfg ./configs/fast_scnn_pet.yaml

六. 进行评估

模型训练完成,使用下述命令启动评估

python pdseg/eval.py --use_gpu --cfg ./configs/fast_scnn_pet.yaml

七. 实时分割模型推理时间比较

模型 eval size inference time mIoU on cityscape val
DeepLabv3+/MobileNetv2/bn (1024, 2048) 16.14ms 0.698
ICNet/bn (1024, 2048) 8.76ms 0.6831
Fast-SCNN/bn (1024, 2048) 6.28ms 0.6964

上述测试环境为v100. 测试使用paddle的推理接口zero_copy的方式,模型输出是类别,即argmax后的值。