省流:训练自己的
如果不想用预训练好的权重,想自己搞怎么办呢
几个方法
微调权重
迁移学习到时候,可以不改前面backbone而只修改后面的分类头
脚本
官方提供了一些示例脚本,可以在github中下载
然后按照实列来运行
比如
1 | ./distributed_train.sh 2 /imagenet -b 64 --model resnet50 --sched cosine --epochs 200 --lr 0.05 --amp --remode pixel --reprob 0.6 --aug-splits 3 --aa rand-m9-mstd0.5-inc1 --resplit --split-bn --jsd --dist-bn reduce |
resnet50在imagenet上训练200epochs 余弦学习率 初始lr0.05 使用2张GPU分布式训练
之后会讲到train.py的代码解析