自行设计基础分类网络的几点思考

1、卷积不一定只在同一组中进行---Group convolution

优点:可以有效的减少网络的参数(参考AlexNet和Shuffle Net)

2、卷积核不一定越大越好

之前的观念是,卷积核尺度越大,则感受野越大,看到的图片信息越多,因此获得的特征越好。但是大的卷积核会导致计算量的暴增,不利于模型深度的增加,计算性能也会降低。在VGG(最早使用)、Inception网络中,利用2个3×3卷积核的组合比1个5×5卷积核的效果更佳,同时参数量(3×3×2+1 VS 5×5×1+1)被降低,因此采用3×3卷积核是更好的选择。

3、每层卷积层可以采用多种尺度卷积核的组合

传统的层叠式网络,基本上都是卷积层的堆叠,每层只用一个尺寸的卷积核,例如VGG结构中使用了大量的3×3卷积层。事实上,同一层feature map可以分别使用多个不同尺寸的卷积核,以获得不同尺度的特征,再把这些特征结合起来,得到的特征往往比使用单一卷积核的要好,Inception系列的网络,就使用了多个卷积核的结构,证明了该结构的有效性。

自行设计基础分类网络的几点思考

4、如何减少卷积层参数量—Bottleneck

如果仅仅引入多个尺寸的卷积核,会带来大量的额外的参数,为了解决这个问题,引入1×1的卷积核。

自行设计基础分类网络的几点思考

5、对于深层网络,引入ResNet/DenseNet残差结构

当层数加深时,网络的表现越来越差,很大程度上的原因是因为当层数加深时,梯度消散得越来越严重,以至于反向传播很难训练到浅层的网络。而skip connection可以有效的解决。

自行设计基础分类网络的几点思考

6、卷积操作必须同时考虑特征通道和区域吗?---DepthWise操作(MobileNet)

自行设计基础分类网络的几点思考

(a)

自行设计基础分类网络的几点思考

(b)

标准的卷积过程如左上图,一个2×2的卷积核在卷积时,对应图像区域中的所有通道均被同时考虑,问题在于,为什么一定要同时考虑图像区域和通道?我们为什么不能把通道和空间区域分开考虑?

Xception和上述介绍的MobileNet就是给予上述的问题进行了改进,提出了DepthWise connection(简称DW)。一个depthwise操作比标准的卷积操作降低不少的参数量,同时相关论文中指出这个模型得到了更好的分类效果。

7、卷积网络中的特征通道不一定都是平等的—---SENet

自行设计基础分类网络的几点思考

无论是在VGG16、Inception、DenseNet或者ShuffleNet里面,我们对所有通道产生的特征都是不分权重直接结合的,那为什么要认为所有通道的特征对模型的作用就是相等的呢?ImageNet2017 冠军SENet的出现,证明了不同的特征不一定是平等的(有点类似注意力机制)。

8、让固定大小的卷积核有更大的感受野-----dilated convolution

在设计网络时候,可以考虑引入空洞卷积,如RFBNet根据人类的视觉特点设计了拥有不同尺度的空洞卷积的组合。


分享到:


相關文章: