论文地址:https://arxiv.org/pdf/2011.12289
 中文翻译:https://hpg123.blog.csdn.net/article/details/141772832?spm=1001.2014.3001.5502
 发表时间:2022
 项目地址:https://github.com/liyunsheng13/micronet
在MicroNet论文中提出了Micro-block与Dynamic Shift-Max,这里对其代码实现进行深入分析。最终结论是Micro-block的定义实现十分混乱,MicroNet比Moblienet强主要是深度分离卷积的性能没有充分挖掘到位,可以替换成conv1xk_group+convkx1_group的组合,从而在低flop的约束条件下实现了5个点左右的提升;另外一点是使用了带参数的激活函数,同时激活函数中提供了group间的数据交互,故再次提升了模型精度。
1、Micro-block
1.1 模块定义
在MicroNet论文中一共有Micro-Block-A、Micro-Block-B、Micro-Block-C三种模块设计。
Micro-Block-A 采用微因式点卷积和深度卷积的精简组合(见图 2-右),它主要适用在模型的浅层。需要注意的是,微因数深度卷积扩大了通道数,而分组自适应卷积则压缩了通道数。
Micro-Block-B 用于连接 Micro-Block-A 和 Micro-Block-C。与 Micro-Block-A 不同的是,它使用的是全 Micro-Factorized 点式卷积,其中包括两个组自适应卷积(如图 5b 所示)。前者压缩了通道数,后者则扩大了通道数。
微块-C(如图 5c 所示)使用了常规组合。 深度卷积和点卷积的正则组合。它用于模型的深层,因为与精简组合相比,它在通道融合(点上)上花费的计算量更大。
 
基于下列图片可以发现,Micro-block虽然使用了group conv,但基于Φ函数的shitf操作,是可以实现数据在不同group间的交互。
 
1.2 模块效果
首先通过论文中的表1可以发现Micro-Block-B 是一直只有一个,且介于A与C之间。
 
 在block级别的对比中,可以发现Micro-block具备明显的涨点效果。
 
 在与MobileNet的对比中可以发现在没有Shift-Max操作时,Micro就可以比Mobile高6个点了。这主要是因为MobileNet只是将conv拆解为深度分离卷积与点卷积,conv3x3的操作没有拆解;而在Micro中,将conv拆解为了conv3x1_group+full_group_connect+conv1x3_group,这种拆解相比MobileNet更高效。同时在保证相同flop的时候能具备更深的网络结构。
 
1.3 代码实现
以下代码推测是Micro-Block-A 的实现,可以发现是 kx1+bn+1xk+ChannelShuffle操作,对比DepthSpatialSepConv函数,发现实现上高度接近。
class ChannelShuffle(nn.Module):
    def __init__(self, groups):
        super(ChannelShuffle2, self).__init__()
        self.groups = groups
    def forward(self, x):
        b, c, h, w = x.size()
        channels_per_group = c // self.groups
        # reshape
        x = x.view(b, self.groups, channels_per_group, h, w)
        x = torch.transpose(x, 1, 2).contiguous()
        out = x.view(b, -1, h, w)
        return out
######################################################################3
# part 3: new block
#####################################################################3
class SpatialSepConvSF(nn.Module):
    def __init__(self, inp, oups, kernel_size, stride):
        super(SpatialSepConvSF, self).__init__()
        oup1, oup2 = oups
        self.conv = nn.Sequential(
            nn.Conv2d(inp, oup1,
                (kernel_size, 1),
                (stride, 1),
                (kernel_size//2, 0),
                bias=False, groups=1
            ),
            nn.BatchNorm2d(oup1),
            nn.Conv2d(oup1, oup1*oup2,
                (1, kernel_size),
                (1, stride),
                (0, kernel_size//2),
                bias=False, groups=oup1
            ),
            nn.BatchNorm2d(oup1*oup2),
            ChannelShuffle(oup1),
        )
    def forward(self, x):
        out = self.conv(x)
        return out
在追溯DYMicroBlock代码中并为明确发现Micro-Block-A、Micro-Block-B、Micro-Block-C的定义。但发现了不少ChannelShuffle操作,这表明在conv_group模型中,通道间的交互是不可少的。
 
2、Dynamic Shift-Max
2.1 模块定义
在MicroNet中提到了一种新的激活函数–动态 Shift-Max函数,以增强非线性。它能动态地将输入特征图与它的环形组移动进行动态融合,以group为移动单位进行移动。Dynamic Shift-Max 还能
 加强组之间的联系。这是对Micro-Factorized pointwise convolution的补充,侧重于组内连接的互补性。
其具体作用如图4所示,对channel以group为单位进行循环移动,并基于fc映射后动态输出max值。
 
2.2 模块效果
Shift-Max模块的效果如下所示,可以看到相比于不加之前,top1 acc提升了2.7%,而当使用dynamic shift-max后,top1 acc相比于不加提升了6.8%。可以发现Shift-Max模块是MicroNet的涨点关键。其对于分组卷积提供了group间的特征互动,同时相比于普通的激活函数,其是带可训练参数的模型。
 
 同时在与其他同类型激活函数对比中,可以发现使用Dynamic Shift-Max时更加有效;同时Dynamic ReLU也证明了在低flop模型中也具有显著的作用,只是在group conv中略有不殆。
 
2.3 代码实现
class DYShiftMax(nn.Module):
    def __init__(self, inp, oup, reduction=4, act_max=1.0, act_relu=True, init_a=[0.0, 0.0], init_b=[0.0, 0.0], relu_before_pool=False, g=None, expansion=False):
        super(DYShiftMax, self).__init__()
        self.oup = oup
        self.act_max = act_max * 2
        self.act_relu = act_relu
        self.avg_pool = nn.Sequential(
                nn.ReLU(inplace=True) if relu_before_pool == True else nn.Sequential(),
                nn.AdaptiveAvgPool2d(1)
            )
        self.exp = 4 if act_relu else 2
        self.init_a = init_a
        self.init_b = init_b
        # determine squeeze
        squeeze = _make_divisible(inp // reduction, 4)
        if squeeze < 4:
            squeeze = 4
        print('reduction: {}, squeeze: {}/{}'.format(reduction, inp, squeeze))
        print('init-a: {}, init-b: {}'.format(init_a, init_b))
        self.fc = nn.Sequential(
                nn.Linear(inp, squeeze),
                nn.ReLU(inplace=True),
                nn.Linear(squeeze, oup*self.exp),
                h_sigmoid()
        )
        if g is None:
            g = 1
        self.g = g[1]
        if self.g !=1  and expansion:
            self.g = inp // self.g
        print('group shuffle: {}, divide group: {}'.format(self.g, expansion))
        self.gc = inp//self.g
        index=torch.Tensor(range(inp)).view(1,inp,1,1)
        index=index.view(1,self.g,self.gc,1,1)
        indexgs = torch.split(index, [1, self.g-1], dim=1)
        indexgs = torch.cat((indexgs[1], indexgs[0]), dim=1)
        indexs = torch.split(indexgs, [1, self.gc-1], dim=2)
        indexs = torch.cat((indexs[1], indexs[0]), dim=2)
        self.index = indexs.view(inp).type(torch.LongTensor)
        self.expansion = expansion
    def forward(self, x):
        x_in = x
        x_out = x
        b, c, _, _ = x_in.size()
        y = self.avg_pool(x_in).view(b, c)
        y = self.fc(y).view(b, self.oup*self.exp, 1, 1)
        y = (y-0.5) * self.act_max
        n2, c2, h2, w2 = x_out.size()
        x2 = x_out[:,self.index,:,:]
        if self.exp == 4:
            a1, b1, a2, b2 = torch.split(y, self.oup, dim=1)
            a1 = a1 + self.init_a[0]
            a2 = a2 + self.init_a[1]
            b1 = b1 + self.init_b[0]
            b2 = b2 + self.init_b[1]
            z1 = x_out * a1 + x2 * b1
            z2 = x_out * a2 + x2 * b2
            out = torch.max(z1, z2)
        elif self.exp == 2:
            a1, b1 = torch.split(y, self.oup, dim=1)
            a1 = a1 + self.init_a[0]
            b1 = b1 + self.init_b[0]
            out = x_out * a1 + x2 * b1
        return out



















![[Leetcode 216][Medium]组合总和 III--回溯(组合问题)](https://i-blog.csdnimg.cn/direct/8dada381aa1d456ba1a8aa9456a676bd.png)