diff --git a/examples/finetune_SHWD/README.md b/examples/finetune_SHWD/README.md index 4f8c0144..1f31bbd6 100644 --- a/examples/finetune_SHWD/README.md +++ b/examples/finetune_SHWD/README.md @@ -104,11 +104,12 @@ optimizer: 自定义数据集类别数通常与COCO数据集不一致,MindYOLO中各模型的检测头head结构跟数据集类别数有关,直接将预训练模型导入可能会因为shape不一致而导入失败,可以在yaml配置文件中设置strict_load参数为False,MindYOLO将自动舍弃shape不一致的参数,并抛出该module参数并未导入的告警 #### 模型微调(Finetune) -模型微调过程中,可首先按照默认配置进行训练,如效果不佳,可考虑调整一下参数: +模型微调过程中,可首先按照默认配置进行训练,如效果不佳,可考虑调整以下参数: * 学习率可调小一些,防止loss难以收敛 * per_batch_size可根据实际显存占用调整,通常per_batch_size越大,梯度计算越精确 * epochs可根据loss是否收敛进行调整 * anchor可根据实际物体大小进行调整 + 由于SHWD训练集只有约6000张图片,选用yolov7-tiny模型进行训练。 * 在多卡NPU/GPU上进行分布式模型训练,以8卡为例: