当前位置:首页 » 《随便一记》 » 正文

GAM注意力机制

9 人参与  2022年11月29日 10:49  分类 : 《随便一记》  评论

点击全文阅读


1.GAM注意力机制:

图像解析:
GAM注意力结构图
从整体上可以看出,GAM和CBAM注意力机制还是比较相似的,同样是使用了通道注意力机制和空间注意力机制。但是不同的是对通道注意力和空间注意力的处理。

2.CBAM注意力解析

CBAM = CAM + BAM
CBAM注意力结构图

对于通道注意力的处理:
CAM
首先对输入特征图进行最大池化和平均池化,再经过MLP分别处理,最终经过Sigmoid激活。对于空间注意力的处理
SAM
对特征图进行最大池化和平均池化后叠加在一起,再进行卷积,经过Sigmoid激活函数处理。

3.GAM改进

了解了CBAM,我们来看GAM是怎么处理CAM 和SAM的,同样是先通道后空间。

CAM
CAM
对于输入特征图,首先进行维度转换,经过维度转换的特征图输入到MLP,再转换为原来的维度,进行Sigmoid处理输出。SAMSAM
对于SAM,GAM主要使用了卷积处理,对于这里有点像SE注意力机制,先将通道数量减少,再将通道数量增加。首先通过卷积核为7的卷积缩减通道数量,缩小计算量,在经过一个卷积核为7的卷积操作,增加通道数量,保持通道数量的一致。最后经过Sigmoid输出。

4.GAM的pytorch实现

这里给出GAM的pytorch实现代码:代码可能跟官方有些差异,是看图复现的

"""GAM 注意力机制:对CBAM注意力进行改进先通道注意力,再空间注意力"""import torchimport torch.nn as nn# 通道注意力class Channel_Attention(nn.Module):    def __init__(self, in_channel, out_channel, ratio=4):        super(Channel_Attention, self).__init__()        self.fc1 = nn.Linear(in_channel, in_channel // ratio)        self.relu = nn.ReLU()        self.fc2 = nn.Linear(in_channel // ratio, in_channel)        self.sig = nn.Sigmoid()    def forward(self, x):        # b, c, h, w = x.size()        input = x.permute(0, 3, 2, 1)        output = self.fc2(self.relu(self.fc1(input)))        output = output.permute(0, 3, 2, 1)        return output * x# 空间注意力class Spatial(nn.Module):    def __init__(self, in_channel, out_channel, ratio, kernel_size=7):        super(Spatial, self).__init__()        padding = kernel_size // 2        self.conv1 = nn.Conv2d(            in_channel, in_channel // ratio, kernel_size=7, padding=padding        )        self.bn = nn.BatchNorm2d(in_channel // ratio)        self.act = nn.ReLU()        self.conv2 = nn.Conv2d(            in_channel // ratio, in_channel, kernel_size=kernel_size, padding=padding        )        self.bn1 = nn.BatchNorm2d(in_channel)        self.sig = nn.Sigmoid()    def forward(self, x):        conv1 = self.act(self.bn(self.conv1(x)))        conv2 = self.bn1(self.conv2(conv1))        output = self.sig(conv2)        return x * outputclass GAM(nn.Module):    def __init__(self,in_channel, out_channel, ratio = 4, kernel_size = 7):        super(GAM, self).__init__()        self.channel_attention = Channel_Attention(in_channel,out_channel,ratio)        self.spatial_attention = Spatial(in_channel,out_channel,ratio,kernel_size)    def forward(self, x):        input = self.channel_attention(x)        output= self.spatial_attention(input)        return outputinput = torch.randn(1, 4, 24, 24).cuda()model = GAM(4, 4).cuda()output = model(input)print(output)print(output.size())# 20220928

5 Reference

YOLOv5使用GAM


点击全文阅读


本文链接:http://m.zhangshiyu.com/post/49248.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

最新文章

  • 热文推荐凤显,沐倾城附加(废后归来:嫡女狠角色)(凤显,沐倾城)最新章节列表
  • 24张化疗单无错版_任行洲舒卿小姐必读文_小说后续在线阅读_无删减免费完结_
  • 小说大结局小说沈黎小说已更新+特别篇(恶毒女配作上天冷面大佬跪地哄)纯净版
  • 装穷老婆为男大买YU7后悔疯了后续_沈如烟傅斯书傅先生精校文本_小说后续在线阅读_无删减免费完结_
  • 最新章节_笔趣阁(江东)江东小说(抗战之重整河山)在线畅读阅读
  • 恶毒女配作上天,冷面大佬跪地哄小说(沈黎)小说全集阅读连载中(恶毒女配作上天,冷面大佬跪地哄)_笔趣阁
  • 恶毒女配作上天冷面大佬跪地哄小说完结篇(沈黎)(恶毒女配作上天冷面大佬跪地哄)全书无套路阅读无广告小说大结局
  • 重生后我把妈妈换了,她却后悔了后续加长_妹妹林清母亲节精选作品_小说后续在线阅读_无删减免费完结_
  • 全网首发苏娆时砚清:+后续+番外(我曾经天真地以为,他也有片刻动心的牀)全本完整阅读无弹窗
  • 帮堂哥联系外科专家后,我上了手术台大反击_大伯母小凡明白后续更新+番外_小说后续在线阅读_无删减免费完结_
  • 兽世:穿成恶毒雌性后被反派大佬们强宠了小说(思雅)(兽世:穿成恶毒雌性后被反派大佬们强宠了)完整章节列表_笔趣阁
  • 迟暮不归推文_慕承川许依柔迟清夏爽文_小说后续在线阅读_无删减免费完结_

    关于我们 | 我要投稿 | 免责申明

    Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1