• 如果您觉得本站非常有看点,那么赶紧使用Ctrl+D 收藏吧

DeepLab系列

开发技术 开发技术 1个月前 (08-11) 37次浏览

论文:

  • (DeepLabV1)Semantic image segmentation with deep convolutional nets and fully connected CRFs

  • (DeepLabV2)DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs

  • (DeepLabV3)Rethinking Atrous Convolution for SemanticImage Segmentation

  • (DeepLabV3+)Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation

 

目录
  • 0.简介
  • 1.DeepLab V1
  • 2. DeepLab V2
    • 整体结构
    • 空洞卷积
    • ASSP
    • Fully Connected CRF
  • 3.DeepLab V3
    • 串联结构
    • 并联结构
      • ASSP改进
      • image-level feature
  • 4.DeepLab V3+
    • 加入decoder
    • 深度可分离卷积(depthwise separable convolution)

 

0.简介

DeepLab为一系列的工作,从14年到现在跨度也比较久,我会把每篇工作的关键点都梳理一下,这四篇工作本身也是一代代改进来的,所以会有一些一直延用并改进的东西,也会有DeepLab放弃了的东西,前者我们深入学习,后者简单了解。

 

1.DeepLab V1

这里只简单说下V1做了什么,详细的讲解我想放到V2里开始讲,因为那时候的研究已经有更深的认识。这里就当作个前情提要吧。

 

2014年,正是DCNN在图像领域爆发后的那段时间,图像分类、目标检测等领域基于DCNN取得空前进展,语义分割领域当然也会一头扎进去。但对于语义分割这一需要准确位置信息的像素级任务,使用DCNN还需要解决如下问题:

  • 重复池化下采样导致分辨率大幅下降,位置信息难以恢复。
  • DCNN的空间不变性,位置信息丢失会使最后的分割结果粗糙,丢失细节。

所以本文也出一下两点来解决:

  1. 空洞卷积。基于VGG-16改造:

    • 因为是做分割,所以把全连接层改成卷积层。
    • 把最后两个池化层去掉,后续使用空洞卷积。

    DeepLab系列

  2. Fully Connected CRFs(条件随机场)。

    改善DCNN的输出结果,更好捕捉边缘细节。

 

2. DeepLab V2

到了DeepLabV2的时候,多尺度问题已经被研究着们广泛且深刻的认识到,所以在V2的原文中,把DCNN应用到语义分割需要解决的问题又多了一个多尺度方面的,由原来v1中的两大问题变成此时的三个:

  • 重复池化下采样导致分辨率大幅下降,位置信息难以恢复。
  • 不同尺度物体的存在。
  • DCNN的空间不变性,位置信息丢失会使最后的分割结果粗糙,丢失细节

然后原文给出了对应的三个解决方法:

  • 空洞卷积
  • ASSP(Atrous Spatial Pyramid Pooling)
  • Fully Connected CRF

 

整体结构

DeepLab系列

图像输入,进入到改造过的DCNN(VGG-16或ResNet-101,空洞卷积、ASSP都是在这里),得到分辨率略小的特征图,然后进行双线性插值恢复分辨率,使用全连接CRFl来改善分割结果(去噪、平滑、更好的捕捉边界)。

 

空洞卷积

DCNN随着进行,会使feature map变小,得到更high-level的特征。主要是因为:

  1. conv的stride>1 —— 为了得到更大感受野
  2. max pooling操作 —— 为了得到更high-level的特征

得到这样high-level的特征有利于图像分类、目标检测等任务,但DCNN这样的特点不能直接用于语义分割这样的要求高精密的像素级任务。

对于这一问题,作者强调(卷积+上采样滤波器)or(空洞卷积)是有力的解决工具,实际使用空洞卷积来解决,空洞卷积由两个优势:一是可以控制图像的分辨率不至于太小,解决上述问题;二是增加感受野。

首先要明白,通过控制参数,在紧密特征图上的空洞卷积可以产生和在系数特征图上标准卷积一模一样的结果;也可以产生更紧密的特征,即高分辨率的特征图,如下图所示:

DeepLab系列

DeepLab系列

再结合第三节DeepLabV3串联结构中讲的,应该就完全理解了。

 

ASSP

图像中存在多种尺度的物体,这是影响视觉检测、分割等任务精度的一大问题,如果网络抽象能力较强则更容易识别大尺度的物体但会忽略小尺度的物体,如果抽象能力较弱则可以较好识别小物体但抽象大物体的能力势必较弱,就是这样一种矛盾,研究者们提出各种方法来解决,本文基于空洞卷积设计了ASSP结构(Atrous Spatial Pyramid Pooling)。

即得到一feature map后,接入一个并行结构,并行结构中的每个分支结构都一样,唯一不一样的就是各自卷积的膨胀率。如下图所示。不同膨胀率的卷积可以得到不同的感受野,膨胀率小的卷积感受野小,对小尺度的物体识别效果较好;膨胀率大的卷积感受野大,对大尺度的物体识别效果好。空洞卷积对于感受野、并行空洞卷积解决多尺度问题,推荐阅读目标检测领域的一项工作,原理解释、实验非常充实——TridentNet。Scale-Aware Trident Networks for Object Detection

DeepLab系列

DeepLab系列

Fully Connected CRF

(这一方法在之后的版本就放弃了,我对此暂时也没有多大兴趣,仅限于跟着论文学习了一遍,这里就简单介绍吧,数学及原理就不再梳理了)

条件随机场(CRF,Conditional Random Field)一般用来处理分割不平滑问题,它只考虑到目标像素点的附近点,是一个短距离的CRFs。由于网络中得到的结果已经比较光滑了,更希望的是修复一些小的结构,处理边缘细节,所以用到了全连接CRF模型。能量函数中有一部分高斯核函数,其值由两点间的位置和颜色决定,位置为主,颜色为辅,算是一句话说一下浅显的说明一下原理吧。

 

3.DeepLab V3

串联结构

DeepLab系列

基于ResNet。使用标准卷积时,当网络越来越深,output stride越大,feature map越小。每一个block中有三个3×3的卷积,最后一个卷积的stride=2,feature map就是因为这个变小的(除最后一个block的最后一个卷积,它的stride=1)。

低分辨率的feature map难以恢复位置信息得到好的分割结果。分辨率变低是因为stride=2,令stride=2的原因是,希望随着网络的深入,感受野越来越大,越有利于获得high-level的信息。

那有没有什么办法既能获得较大感受野,又能有高分辨率(output stride低)的特征图呢?就是DeepLab在使用的空洞卷积了!有了第二节DeepLabV2中的空洞卷积介绍基础,看到这里应该完全理解了。

作者设计的这一使用空洞卷积的串联结构,把block4重复了四遍,即block5, block6, block7都是block4的复制品,唯一不同的是其中的膨胀率(rate / dilation),取决于想要的output stride。

作者还考虑了multi-grid方法,即每个block中的三个卷积有各自unit rate,例如Multi Grid = (1, 2, 4),block的dilate rate=2,则block中每个卷积的实际膨胀率=2* (1, 2, 4)=(2,4,8)。

 

并联结构

DeepLab系列

如上图所示,block4之后连接并联结构,其中上面四个为ASSP,下面一个为image-level feature,他们的输入都为前面的feature map,最后这五个结果拼接成一组特征,看源码torch.cat就很好理解了。

ASSP改进

相校对DeepLabV2的ASSP,唯一的区别就是加了BN层…

当想让output stride=16时,ASSP包括了一个1×1卷积,和rate=(6,12 ,18)的3×3卷积,都是256通道。

image-level feature

用ASSP并列加入image-level feature是因为作者为了解决空洞卷积带来的一个问题:

DeepLab系列

随着空洞卷积的膨胀率(rate/dilation)增大,卷积核有效参数越来越少。是的,这个很容易理解,3×3、rate=1即标准卷积,只有在feature map最外面一圈会有卷积核参数超出边界而无效,当rate变大,越来越多外圈的位置是有卷积核参数失效的,用极限思想思考一下,如果rate=size(feature map),那么每次卷积都是卷核中心对应的feature map像素点被计算了,卷积核参数也只有中心那个点没有失效,退化成了1×1卷积核。

作者正式为了解决这一问题,才在并联结构中加入image-level feature。做法是对输入的feature map全局平均池化(global average pooling),256通道的1×1卷积层,BN层,最后用户双线性插值的方法上采样到目标大小,即与ASSP输出的feature map尺寸相同。

 

4.DeepLab V3+

加入decoder

DeepLab系列

作者把DeepLavV3作为Encoder部分,加入decoder部分,称形成了一种融合了SSP和Encoder-Decoder的新方法。

DeepLab系列

把整个网络DeepLabV3作为Encoder,提取融合多尺度特征;加入一个简单的结构作为Decoder,能够改善分割结构的物体边界。

图中的decoder的输入,即low-level features,并不是和ASSP的输入一样,而是backbone的某个中间计算结果,然后通过一个1×1卷积(为了减少通道数),结果与encoder输出(1×1卷积减少通道数,也上采样了到原来4倍)融合,再经过3×3卷积,再上采样4倍(至此16倍,已经恢复到原图大小)。

 

深度可分离卷积(depthwise separable convolution)

本作中使用了depthwise separable convolution代替标准卷积,Depthwise separable convolution由depthwise convolution和pointwise convoution两步完成。因为它能通过将标准卷积运算分为两步从而减少参数,但实现和标准卷积操作相同的效果。即depthwise separable convolution = depthwise convolution + pointwise convolution(既指流程,也值参数量)。详细内容和具体参数量计算请见下面的个人独立博客,因为我也是学习来的,而且博主写的很清晰明了,所以就不板门弄斧了:https://yinguobing.com/separable-convolution/

当然作者虽然使用了depthwise separable convolution方法来代替标准卷积操作,但依然是还是空洞卷积,看完上面那篇博客(或者本身就掌握深度可分离卷积),应该很容易就明白这句话。Atrous separable convolution只需要更改第一步为间隔取样,第二部pointwise convolution无需特别处理。

DeepLab系列

 

 

 

DeepLab系列,尤其是后面两作,他们的贡献除了提出新算法模型以外,还包括进行了大量的实验,包括模型中选择某些小结构、参数的对比实验,对于后面的研究者提供了宝贵的经验,节省了大量的实验资源与时间。

另外,学习时参考的代码是第三方pytorch实现的,Github地址放在参考链接里。

 

 

 

参考及引图:

  • Semantic image segmentation with deep convolutional nets and fully connected CRFs

  • DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs

  • Rethinking Atrous Convolution for SemanticImage Segmentation

  • Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation

  • https://yinguobing.com/separable-convolution/

  • https://github.com/fregu856/deeplabv3


程序员灯塔 , 版权所有
转载请注明原文链接:https://www.wangt.cc/2020/08/deeplab%e7%b3%bb%e5%88%97/
喜欢 (0)