动手学深度学习-22
池化层(汇聚层)
通常当我们处理图像时,我们希望逐渐降低隐藏表示的空间分辨率、聚集信息,这样随着我们在神经网络中层叠的上升,每个神经元对其敏感的感受野(输入)就越大。
而我们的机器学习任务通常会跟全局图像的问题有关(例如,“图像是否包含一只猫呢?”),所以我们最后一层的神经元应该对整个输入的全局敏感。通过逐渐聚合信息,生成越来越粗糙的映射,最终实现学习全局表示的目标,同时将卷积图层的所有优势保留在中间层。
此外,当检测较底层的特征时(如垂直边缘检测),我们通常希望这些特征保持某种程度上的平移不变性
接下来将介绍汇聚(pooling)层,它具有双重目的:降低卷积层对位置的敏感性,同时降低对空间降采样表示的敏感性。
最大汇聚层和平均汇聚层
与卷积层类似,汇聚层运算符由一个固定形状的窗口组成,该窗口根据其步幅大小在输入的所有区域上滑动,为固定形状窗口(有时称为汇聚窗口)遍历的每个位置计算一个输出。然而,不同于卷积层中的输入与卷积核之间的互相关计算,汇聚层不包含参数。相反,池运算是确定性的,我们通常计算汇聚窗口中所有元素的最大值或平均值。这些操作分别称为最大汇聚层(maximum pooling)和平均汇聚层(average pooling)。在这两种情况下,与互相关运算符一样,汇聚窗口从输入张量的左上角开始,从左往右、从上往下的在输入张量内滑动。在汇聚窗口到达的每个位置,它计算该窗口中输入子张量的最大值或平均值。计算最大值或平均值是取决于使用了最大汇聚层还是平均汇聚层。
汇聚窗口形状为
比如说,进行简单的1,0边缘检测时,使用
在下面的代码中的pool2d
函数,我们实现汇聚层的前向传播。
1 | import torch |
填充和步幅
与卷积层一样,汇聚层也可以改变输出形状。和以前一样,我们可以通过填充和步幅以获得所需的输出形状。下面,我们用深度学习框架中内置的二维最大汇聚层,来演示汇聚层中填充和步幅的使用。我们首先构造了一个输入张量X
,它有四个维度,其中样本数(批量大小)和通道数都是1。
1 | X = torch.arange(16, dtype=torch.float32).reshape((1, 1, 4, 4)) |
默认情况下,深度学习框架中的步幅与汇聚窗口的大小相同。因此,如果我们使用形状为(3, 3)
的汇聚窗口,那么默认情况下,我们得到的步幅形状为(3, 3)
。
1 | pool2d = nn.MaxPool2d(3) |
填充和步幅可以手动设定
1 | pool2d = nn.MaxPool2d(3, padding=1, stride=2) |
可以设定一个任意大小的矩形汇聚窗口,并分别设定填充和步幅的高度和宽度
1 | pool2d = nn.MaxPool2d((2, 3), stride=(2, 3), padding=(0, 1)) |
多个通道
在处理多通道输入数据时,汇聚层在每个输入通道上单独运算,而不是像卷积层一样在通道上对输入进行汇总。这意味着汇聚层的输出通道数与输入通道数相同。下面,我们将在通道维度上连结张量X
和X + 1
,以构建具有2个通道的输入。
1 | X = torch.cat((X, X + 1), 1) |
汇聚后输出通道的数量仍然是2。
1 | pool2d = nn.MaxPool2d(3, padding=1, stride=2) |
小结
- 对于给定输入元素,最大汇聚层会输出该窗口内的最大值,平均汇聚层会输出该窗口内的平均值。
- 汇聚层的主要优点之一是减轻卷积层对位置的过度敏感。
- 我们可以指定汇聚层的填充和步幅。
- 使用最大汇聚层以及大于1的步幅,可减少空间维度(如高度和宽度)。
- 汇聚层的输出通道数与输入通道数相同。
- 标题: 动手学深度学习-22
- 作者: 敖炜
- 创建于 : 2023-08-19 14:04:59
- 更新于 : 2024-04-19 09:28:46
- 链接: https://ao-wei.github.io/2023/08/19/动手学深度学习-22/
- 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。