当前位置:首页 » 《随便一记》 » 正文

RepVGG网络简介

21 人参与  2022年08月04日 08:25  分类 : 《随便一记》  评论

点击全文阅读


论文名称:RepVGG: Making VGG-style ConvNets Great Again
论文下载地址:https://arxiv.org/abs/2101.03697
官方源码(Pytorch实现):https://github.com/DingXiaoH/RepVGG

bilibili视频讲解:https://www.bilibili.com/video/BV15f4y1o7QR


文章目录

0 前言1 RepVGG Block详解2 结构重参数化2.1 融合Conv2d和BN2.2 Conv2d+BN融合实验(Pytorch)2.3 将1x1卷积转换成3x3卷积2.4 将BN转换成3x3卷积2.5 多分支融合2.6 结构重参数化实验(Pytorch) 3 模型配置


0 前言

VGG网络是2014年由牛津大学著名研究组VGG (Visual Geometry Group) 提出的。在2014到2016年(ResNet提出之前),VGG网络可以说是当时最火并被广泛应用的Backbone。后面由于各种新的网络提出,论精度VGG比不上ResNet,论速度和参数数量VGG比不过MobileNet等轻量级网络,慢慢的VGG开始淡出人们的视线。当VGG已经被大家遗忘时,2021年清华大学、旷视科技以及香港科技大学等机构共同提出了RepVGG网络,希望能够让VGG-style网络Great Again。

在这里插入图片描述通过论文的图一可以看出,RepVGG无论是在精度还是速度上都已经超过了ResNet、EffcientNet以及ReNeXt等网络。那RepVGG究竟用了什么方法使得VGG网络能够获得如此大的提升呢,在论文的摘要中,作者提到了structural re-parameterization technique方法,即结构重参数化。实际上就是在训练时,使用一个类似ResNet-style的多分支模型,而推理时转化成VGG-style的单路模型。如下图所示,图(B)表示RepVGG训练时所采用的网络结构,而在推理时采用图(C)的网络结构。关于如何将图(B)转换到图(C)以及为什么要这么做后面再细说,如果对模型优化部署有了解就会发现这和做网络图优化或者说算子融合非常类似。

在这里插入图片描述


1 RepVGG Block详解

其实关于RepVGG整个模型没太多好说的,就是在不断堆叠RepVGG Block,只要之前看过VGG以及ResNet的代码,那么RepVGG也不在话下。这里主要还是聊下RepVGG Block中的一些细节。由于论文中的图都是简化过的,于是我自己根据源码绘制了下图的RepVGG Block(注意是针对训练时采用的结构)。其中图(a)是进行下采样(stride=2)时使用的RepVGG Block结构,图(b)是正常的(stride=1)RepVGG Block结构。通过图(b)可以看到训练时RepVGG Block并行了三个分支:一个卷积核大小为3x3的主分支,一个卷积核大小为1x1的shortcut分支以及一个只连了BN的shortcut分支。

在这里插入图片描述这里首先抛出一个问题,为什么训练时要采用多分支结构。如果之前看过像Inception系列、ResNet以及DenseNet等模型,我们能够发现这些模型都并行了多个分支。至少根据现有的一些经验来看,并行多个分支一般能够增加模型的表征能力。所以你会发现一些论文喜欢各种魔改网络并行分支。在论文的表6中,作者也做了个简单的消融实验,在使用单路结构时(不使用其他任何分支)Acc大概为72.39,在加上Identity branch以及1x1 branch后Acc达到了75.14

在这里插入图片描述

接着再问另外一个问题,为什么推理时作者要将多分支模型转换成单路模型。根据论文3.1章节的内容可知,采用单路模型会更快、更省内存并且更加的灵活。

更快:主要是考虑到模型在推理时硬件计算的并行程度以及MAC(memory access cost),对于多分支模型,硬件需要分别计算每个分支的结果,有的分支计算的快,有的分支计算的慢,而计算快的分支计算完后只能干等着,等其他分支都计算完后才能做进一步融合,这样会导致硬件算力不能充分利用,或者说并行度不够高。而且每个分支都需要去访问一次内存,计算完后还需要将计算结果存入内存(不断地访问和写入内存会在IO上浪费很多时间)。更省内存:在论文的图3当中,作者举了个例子,如图(A)所示的Residual模块,假设卷积层不改变channel的数量,那么在主分支和shortcut分支上都要保存各自的特征图或者称Activation,那么在add操作前占用的内存大概是输入Activation的两倍,而图(B)的Plain结构占用内存始终不变。
在这里插入图片描述更加灵活:作者在论文中提到了模型优化的剪枝问题,对于多分支的模型,结构限制较多剪枝很麻烦,而对于Plain结构的模型就相对灵活很多,剪枝也更加方便。

其实除此之外,在多分支转化成单路模型后很多算子进行了融合(比如Conv2d和BN融合),使得计算量变小了,而且算子减少后启动kernel的次数也减少了(比如在GPU中,每次执行一个算子就要启动一次kernel,启动kernel也需要消耗时间)。而且现在的硬件一般对3x3的卷积操作做了大量的优化,转成单路模型后采用的都是3x3卷积,这样也能进一步加速推理。如下图多分支模型(B)转换成单路模型图(C)。

在这里插入图片描述


2 结构重参数化

在简单了解RepVGG Block的训练结构后,接下来再来聊聊怎么将训练好的RepVGG Block转成推理时的模型结构,即structural re-parameterization technique过程。 根据论文中的图4(左侧)可以看到,结构重参数化主要分为两步,第一步主要是将Conv2d算子和BN算子融合以及将只有BN的分支转换成一个Conv2d算子,第二步将每个分支上的3x3卷积层融合成一个卷积层。关于参数具体融合的过程可以看图中右侧的部分,如果你能看懂图中要表达的含义,那么ok你可以跳过本文后续所有内容干其他事去了,如果没看懂可以接着往后看。

在这里插入图片描述


2.1 融合Conv2d和BN

关于Conv2d和BN的融合对于网络的优化而言已经是基操了。因为Conv2d和BN两个算子都是做线性运算,所以可以融合成一个算子。如果不了解卷积层的计算过程以及BN的计算过程的话建议先了解后再看该部分的内容。这里还需要强调一点,融合是在网络训练完之后做的,所以现在讲的默认都是推理模式,注意BN在训练以及推理时计算方式是不同的。对于卷积层,每个卷积核的通道数是与输入特征图的通道数相同,卷积核的个数决定了输出特征图的通道个数。对于BN层(推理模式),主要包含4个参数: μ \mu μ(均值)、 σ 2 \sigma^2 σ2(方差)、 γ \gamma γ和 β \beta β,其中 μ \mu μ和 σ 2 \sigma^2 σ2是训练过程中统计得到的, γ \gamma γ和 β \beta β是训练学习得到的。对于特征图第i个通道BN的计算公式如下,其中 ϵ \epsilon ϵ是一个非常小的常量,防止分母为零:
y i = x i − μ i σ i 2 + ϵ ⋅ γ i + β i y_i = \frac{x_i - \mu_i}{\sqrt{\sigma^2_i + \epsilon }} \cdot \gamma_i + \beta_i yi​=σi2​+ϵ ​xi​−μi​​⋅γi​+βi​
在论文的3.3章节中,作者给出了转换公式(对于通道i),其中 M M M代表输入BN层的特征图(Activation),这里忽略了 ϵ \epsilon ϵ,因为:
b n ( M , μ , σ , γ , β ) : , i , : , : = ( M : , i , : , : − μ i ) γ i σ i + β i bn(M, \mu, \sigma, \gamma, \beta)_{:, i,:,:} = (M_{:, i,:,:} - \mu_i)\frac{\gamma_i}{\sigma_i} + \beta_i bn(M,μ,σ,γ,β):,i,:,:​=(M:,i,:,:​−μi​)σi​γi​​+βi​

所以转换后新的卷积层权重计算公式为(对于第i个卷积核), W ′ W^{\prime} W′和 b ′ b^{\prime} b′是新的权重和偏执:
W i , : , : , : ′ = γ i σ i W i , : , : , : , b i ′ = β i − μ i γ i σ i W^{\prime}_{i,:,:,:} = \frac{\gamma_i}{\sigma_i}W_{i,:,:,:}, \quad b^{\prime}_i = \beta_i -\frac{\mu_i \gamma_i}{\sigma_i} Wi,:,:,:′​=σi​γi​​Wi,:,:,:​,bi′​=βi​−σi​μi​γi​​
如果看懂了,可以直接跳过该小结,如果没看懂可以再看看下面的例子。

这里假设输入的特征图(Input feature map)如下图所示,输入通道数为2,然后采用两个卷积核(图中只画了第一个卷积核对应参数)。

在这里插入图片描述接着计算一下输出特征图(Output feature map)通道1上的第一个元素,即当卷积核1在输入特征图红色框区域卷积时得到的值(为了保证输入输出特征图高宽不变,所以对Input feature map进行了Padding)。其他位置的计算过程类似这里就不去演示了。

在这里插入图片描述然后再将卷积层输出的特征图作为BN层的输入,这里同样计算一下输出特征图(Output feature map)通道1上的第一个元素,按照上述BN在推理时的计算公式即可得到如下图所示的计算结果。

在这里插入图片描述最后对上述计算公式进行简单的变形,可以得到转化后新卷积层只需在对应第i个卷积核的权重上乘以 γ i σ i 2 + ϵ \frac{\gamma_i}{\sqrt{\sigma^2_i+\epsilon}} σi2​+ϵ ​γi​​系数即可,对应第i个卷积核新的偏执就等于 β i − μ i γ i σ i 2 + ϵ \beta_i-\frac{\mu_i \gamma_i}{\sqrt{\sigma^2_i + \epsilon}} βi​−σi2​+ϵ ​μi​γi​​(因为之前采用Conv2d+BN的组合中Conv2d默认是不采用偏执的或者说偏执为零)。

在这里插入图片描述


2.2 Conv2d+BN融合实验(Pytorch)

下面是参考作者提供的源码改的一个小实验,首先创建了一个module包含了卷积和BN模块,然后按照上述转换公式将卷积层的权重和BN的权重进行融合转换,接着载入到新建的卷积模块fused_conv中,最后随机创建一个Tensor(f1)将它分别输入到module以及fused_conv中,通过对比两者的输出可以发现它们的结果是一致的。

from collections import OrderedDictimport numpy as npimport torchimport torch.nn as nndef main():    torch.random.manual_seed(0)    f1 = torch.randn(1, 2, 3, 3)    module = nn.Sequential(OrderedDict(        conv=nn.Conv2d(in_channels=2, out_channels=2, kernel_size=3, stride=1, padding=1, bias=False),        bn=nn.BatchNorm2d(num_features=2)    ))    module.eval()    with torch.no_grad():        output1 = module(f1)        print(output1)    # fuse conv + bn    kernel = module.conv.weight     running_mean = module.bn.running_mean    running_var = module.bn.running_var    gamma = module.bn.weight    beta = module.bn.bias    eps = module.bn.eps    std = (running_var + eps).sqrt()    t = (gamma / std).reshape(-1, 1, 1, 1)  # [ch] -> [ch, 1, 1, 1]    kernel = kernel * t    bias = beta - running_mean * gamma / std    fused_conv = nn.Conv2d(in_channels=2, out_channels=2, kernel_size=3, stride=1, padding=1, bias=True)    fused_conv.load_state_dict(OrderedDict(weight=kernel, bias=bias))    with torch.no_grad():        output2 = fused_conv(f1)        print(output2)    np.testing.assert_allclose(output1.numpy(), output2.numpy(), rtol=1e-03, atol=1e-05)    print("convert module has been tested, and the result looks good!")if __name__ == '__main__':    main()

终端输出结果:

tensor([[[[ 0.2554, -0.0267,  0.1502],          [ 0.8394,  1.0100,  0.5443],          [-0.7252, -0.6889,  0.4716]],         [[ 0.6937,  0.1421,  0.4734],          [ 0.0168,  0.5665, -0.2308],          [-0.2812, -0.2572, -0.1287]]]])tensor([[[[ 0.2554, -0.0267,  0.1502],          [ 0.8394,  1.0100,  0.5443],          [-0.7252, -0.6889,  0.4716]],         [[ 0.6937,  0.1421,  0.4734],          [ 0.0168,  0.5665, -0.2308],          [-0.2812, -0.2572, -0.1287]]]])convert module has been tested, and the result looks good!

2.3 将1x1卷积转换成3x3卷积

这个过程比较简单,如下图所示,以1x1卷积层中某一个卷积核为例,只需在原来权重周围补一圈零就行了,这样就变成了3x3的卷积层,注意为了保证输入输出特征图高宽不变,此时需要将padding设置成1(原来卷积核大小为1x1时padding为0)。最后按照上述2.1中讲的内容将卷积层和BN层进行融合即可。

在这里插入图片描述


2.4 将BN转换成3x3卷积

对于只有BN的分支由于没有卷积层,所以我们可以先自己构建出一个卷积层来。如下图所示,构建了一个3x3的卷积层,该卷积层只做了恒等映射,即输入输出特征图不变。既然有了卷积层,那么又可以按照上述2.1中讲的内容将卷积层和BN层进行融合。

在这里插入图片描述


2.5 多分支融合

在上面的章节中,我们已经讲了怎么把每个分支融合转换成一个3x3的卷积层,接下来需要进一步将多分支转换成一个单路3x3卷积层。

在这里插入图片描述
合并的过程其实也很简单,直接将这三个卷积层的参数相加即可,具体推理过程就不讲了,如果不了解的可以自己动手算算。
在这里插入图片描述
最后我们再来看下原论文中的图4就非常清晰了。

在这里插入图片描述


2.6 结构重参数化实验(Pytorch)

下面是参考作者提供的源码改的一个小实验,在该实验中测试了 结构重参数化 前后推理速度的比较,以及检查转换前后的输出是否一致。

import timeimport torch.nn as nnimport numpy as npimport torchdef conv_bn(in_channels, out_channels, kernel_size, stride, padding, groups=1):    result = nn.Sequential()    result.add_module('conv', nn.Conv2d(in_channels=in_channels, out_channels=out_channels,                                        kernel_size=kernel_size, stride=stride, padding=padding,                                        groups=groups, bias=False))    result.add_module('bn', nn.BatchNorm2d(num_features=out_channels))    return resultclass RepVGGBlock(nn.Module):    def __init__(self, in_channels, out_channels, kernel_size=3,                 stride=1, padding=1, dilation=1, groups=1, padding_mode='zeros', deploy=False):        super(RepVGGBlock, self).__init__()        self.deploy = deploy        self.groups = groups        self.in_channels = in_channels        self.nonlinearity = nn.ReLU()        if deploy:            self.rbr_reparam = nn.Conv2d(in_channels=in_channels, out_channels=out_channels,                                         kernel_size=kernel_size, stride=stride,                                         padding=padding, dilation=dilation, groups=groups,                                         bias=True, padding_mode=padding_mode)        else:            self.rbr_identity = nn.BatchNorm2d(num_features=in_channels) \                if out_channels == in_channels and stride == 1 else None            self.rbr_dense = conv_bn(in_channels=in_channels, out_channels=out_channels, kernel_size=kernel_size,                                     stride=stride, padding=padding, groups=groups)            self.rbr_1x1 = conv_bn(in_channels=in_channels, out_channels=out_channels, kernel_size=1,                                   stride=stride, padding=0, groups=groups)    def forward(self, inputs):        if hasattr(self, 'rbr_reparam'):            return self.nonlinearity(self.rbr_reparam(inputs))        if self.rbr_identity is None:            id_out = 0        else:            id_out = self.rbr_identity(inputs)        return self.nonlinearity(self.rbr_dense(inputs) + self.rbr_1x1(inputs) + id_out)    def get_equivalent_kernel_bias(self):        kernel3x3, bias3x3 = self._fuse_bn_tensor(self.rbr_dense)        kernel1x1, bias1x1 = self._fuse_bn_tensor(self.rbr_1x1)        kernelid, biasid = self._fuse_bn_tensor(self.rbr_identity)        return kernel3x3 + self._pad_1x1_to_3x3_tensor(kernel1x1) + kernelid, bias3x3 + bias1x1 + biasid    def _pad_1x1_to_3x3_tensor(self, kernel1x1):        if kernel1x1 is None:            return 0        else:            return torch.nn.functional.pad(kernel1x1, [1, 1, 1, 1])    def _fuse_bn_tensor(self, branch):        if branch is None:            return 0, 0        if isinstance(branch, nn.Sequential):            kernel = branch.conv.weight            running_mean = branch.bn.running_mean            running_var = branch.bn.running_var            gamma = branch.bn.weight            beta = branch.bn.bias            eps = branch.bn.eps        else:            assert isinstance(branch, nn.BatchNorm2d)            if not hasattr(self, 'id_tensor'):                input_dim = self.in_channels // self.groups                kernel_value = np.zeros((self.in_channels, input_dim, 3, 3), dtype=np.float32)                for i in range(self.in_channels):                    kernel_value[i, i % input_dim, 1, 1] = 1                self.id_tensor = torch.from_numpy(kernel_value).to(branch.weight.device)            kernel = self.id_tensor            running_mean = branch.running_mean            running_var = branch.running_var            gamma = branch.weight            beta = branch.bias            eps = branch.eps        std = (running_var + eps).sqrt()        t = (gamma / std).reshape(-1, 1, 1, 1)        return kernel * t, beta - running_mean * gamma / std    def switch_to_deploy(self):        if hasattr(self, 'rbr_reparam'):            return        kernel, bias = self.get_equivalent_kernel_bias()        self.rbr_reparam = nn.Conv2d(in_channels=self.rbr_dense.conv.in_channels,                                     out_channels=self.rbr_dense.conv.out_channels,                                     kernel_size=self.rbr_dense.conv.kernel_size, stride=self.rbr_dense.conv.stride,                                     padding=self.rbr_dense.conv.padding, dilation=self.rbr_dense.conv.dilation,                                     groups=self.rbr_dense.conv.groups, bias=True)        self.rbr_reparam.weight.data = kernel        self.rbr_reparam.bias.data = bias        for para in self.parameters():            para.detach_()        self.__delattr__('rbr_dense')        self.__delattr__('rbr_1x1')        if hasattr(self, 'rbr_identity'):            self.__delattr__('rbr_identity')        if hasattr(self, 'id_tensor'):            self.__delattr__('id_tensor')        self.deploy = Truedef main():    f1 = torch.randn(1, 64, 64, 64)    block = RepVGGBlock(in_channels=64, out_channels=64)    block.eval()    with torch.no_grad():        output1 = block(f1)        start_time = time.time()        for _ in range(100):            block(f1)        print(f"consume time: {time.time() - start_time}")        # re-parameterization        block.switch_to_deploy()        output2 = block(f1)        start_time = time.time()        for _ in range(100):            block(f1)        print(f"consume time: {time.time() - start_time}")        np.testing.assert_allclose(output1.numpy(), output2.numpy(), rtol=1e-03, atol=1e-05)        print("convert module has been tested, and the result looks good!")if __name__ == '__main__':    main()

终端输出结果如下:

consume time: 0.6152701377868652consume time: 0.30626463890075684convert module has been tested, and the result looks good!

通过对比能够发现,结构重参数化后推理速度翻倍了,并且转换前后的输出保持一致。


3 模型配置

在论文中对模型进一步细分有RepVGG-ARepVGG-B以及RepVGG-Bxgy三种配置。
在这里插入图片描述

根据表2可以看出RepVGG-BRepVGG-A要更深。可以细看这两种配置在每个stage重复block的次数。RepVGG-A中的base Layers of each stage为1, 2, 3, 14, 1RepVGG-B中的base Layers of each stage为1, 4, 6, 16, 1,更加详细的模型配置可以看表3. 其中a代表模型stage2~4的宽度缩放因子,b代表模型最后一个stage的宽度缩放因子。

在这里插入图片描述

RepVGG-Bxgy配置是在RepVGG-B的基础上加入了组卷积(Group Convolution),其中gy表示组卷积采用的groups参数为y,注意并不是所有卷积层都采用组卷积,根据源码可以看到,是从Stage2开始(索引从1开始)的第2, 4, 6, 8, 10, 12, 14, 16, 18, 20, 22, 24, 26的卷积层采用组卷积。

optional_groupwise_layers = [2, 4, 6, 8, 10, 12, 14, 16, 18, 20, 22, 24, 26]

到此,有关RepVGG的内容就基本讲完了。如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦?。


点击全文阅读


本文链接:http://m.zhangshiyu.com/post/44016.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

关于我们 | 我要投稿 | 免责申明

Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1