动手学深度学习-37
微调
应用迁移学习(transfer learning)将从源数据集学到的知识迁移到目标数据集。例如,尽管ImageNet数据集中的大多数图像与椅子无关,但在此数据集上训练的模型可能会提取更通用的图像特征,这有助于识别边缘、纹理、形状和对象组合。这些类似的特征也可能有效地识别椅子。
步骤
迁移学习中的常见技巧:微调(fine-tuning)。包括以下四个步骤:
- 在源数据集(例如ImageNet数据集)上预训练神经网络模型,即源模型。
- 创建一个新的神经网络模型,即目标模型。这将复制源模型上的所有模型设计及其参数(输出层除外)。我们假定这些模型参数包含从源数据集中学到的知识,这些知识也将适用于目标数据集。我们还假设源模型的输出层与源数据集的标签密切相关;因此不在目标模型中使用该层。
- 向目标模型添加输出层,其输出数是目标数据集中的类别数。然后随机初始化该层的模型参数。
- 在目标数据集(如椅子数据集)上训练目标模型。输出层将从头开始进行训练,而所有其他层的参数将根据源模型的参数进行微调。
当目标数据集比源数据集小得多时,微调有助于提高模型的泛化能力
热狗识别
让我们通过具体案例演示微调:热狗识别。
我们将在一个小型数据集上微调ResNet模型。该模型已在ImageNet数据集上进行了预训练。
这个小型数据集包含数千张包含热狗和不包含热狗的图像,我们将使用微调模型来识别图像中是否包含热狗。
获取数据集
使用的热狗数据集来源于网络。该数据集包含1400张热狗的“正类”图像,以及包含尽可能多的其他食物的“负类”图像。含着两个类别的1000张图片用于训练,其余的则用于测试。
1 | %matplotlib inline |
分别读取训练和测试数据集中的所有图像文件
1 | train_imgs = torchvision.datasets.ImageFolder(os.path.join(data_dir, "train")) |
数据增广
1 | # 使用RGB通道的均值和标准差,以标准化每个通道(因为预训练模型在ImageNet上做了标准化) |
定义和初始化模型
使用在ImageNet数据集上预训练的ResNet-18作为源模型。在这里,我们指定pretrained=True
以自动下载预训练的模型参数。如果首次使用此模型,则需要连接互联网才能下载。
1 | pretrained_net = torchvision.models.resnet18(pretrained=True) |
预训练的源模型实例包含许多特征层和一个输出层fc
。此划分的主要目的是促进对除输出层以外所有层的模型参数进行微调。
在ResNet的全局平均汇聚层后,全连接层转换为ImageNet数据集的1000个类输出。之后,我们构建一个新的神经网络作为目标模型。它的定义方式与预训练源模型的定义方式相同,只是最终层中的输出数量被设置为目标数据集中的类数(而不是1000个)。
在下面的代码中,目标模型finetune_net
中成员变量features
的参数被初始化为源模型相应层的模型参数。由于模型参数是在ImageNet数据集上预训练的,并且足够好,因此通常只需要较小的学习率即可微调这些参数。
成员变量output
的参数是随机初始化的,通常需要更高的学习率才能从头开始训练。假设Trainer
实例中的学习率为output
中参数的学习率设置为
1 | finetune_net = torchvision.models.resnet18(pretrained=True) |
微调模型
定义一个训练函数train_fine_tuning
,该函数使用微调,因此可以多次调用
1 | # 如果param_group=True, 输出层中的模型参数将使用十倍的学习率 |
小结
- 迁移学习将从源数据集中学到的知识迁移到目标数据集,微调是迁移学习的常见技巧。
- 除输出层外,目标模型从源模型中复制所有模型设计及其参数,并根据目标数据集对这些参数进行微调。但是,目标模型的输出层需要从头开始训练。
- 通常,微调参数使用较小的学习率,而从头开始训练输出层可以使用更大的学习率。
- 标题: 动手学深度学习-37
- 作者: 敖炜
- 创建于 : 2023-09-03 17:08:03
- 更新于 : 2024-04-19 09:29:13
- 链接: https://ao-wei.github.io/2023/09/03/动手学深度学习-37/
- 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。