当前位置: 首页 > news >正文

做网站什么空间比较好网站模板怎么使用教程

做网站什么空间比较好,网站模板怎么使用教程,热门国际新闻,承德网站建设规划一、SEBlock(通道注意力机制) 先在H*W维度进行压缩#xff0c;全局平均池化将每个通道平均为一个值。 #xff08;B, C, H, W#xff09;---- (B, C, 1, 1) 利用各channel维度的相关性计算权重 (B, C, 1, 1) --- (B, C//K, 1, 1) --- (B, C, 1, 1) --- sigmoid 与原特征相…一、SEBlock(通道注意力机制) 先在H*W维度进行压缩全局平均池化将每个通道平均为一个值。 B, C, H, W---- (B, C, 1, 1) 利用各channel维度的相关性计算权重 (B, C, 1, 1) --- (B, C//K, 1, 1) --- (B, C, 1, 1) --- sigmoid 与原特征相乘得到加权后的。 import torch import torch.nn as nnclass SELayer(nn.Module):def __init__(self, channel, reduction 4):super(SELayer, self).__init__()self.avg_pool nn.AdaptiveAvgPool2d(1) //自适应全局池化只需要给出池化后特征图大小self.fc1 nn.Sequential(nn.Conv2d(channel, channel//reduction, 1, bias False),nn.ReLu(implace True),nn.Conv2d(channel//reduction, channel, 1, bias False),nn.sigmoid())def forward(self, x):y self.avg_pool(x)y_out self.fc1(y)return x * y 二、CBAM(通道注意力空间注意力机制) CBAM里面既有通道注意力机制也有空间注意力机制。 通道注意力同SE的大致相同但额外加入了全局最大池化与全局平均池化并行。 空间注意力机制先在channel维度进行最大池化和均值池化然后在channel维度合并MLP进行特征交融。最终和原始特征相乘。  import torch import torch.nn as nnclass ChannelAttention(nn.Module):def __init__(self, channel, rate 4):super(ChannelAttention, self).__init__()self.avg_pool nn.AdaptiveAvgPool2d(1)self.max_pool nn.AdaptiveMaxPool2d(1)self.fc1 nn.Sequential(nn.Conv2d(channel, channel//rate, 1, bias False)nn.ReLu(implace True)nn.Conv2d(channel//rate, channel, 1, bias False) )self.sig nn.sigmoid()def forward(self, x):avg sefl.avg_pool(x)avg_feature self.fc1(avg)max self.max_pool(x)max_feature self.fc1(max)out max_feature avg_featureout self.sig(out)return x * out import torch import torch.nn as nnclass SpatialAttention(nn.Module):def __init__(self):super(SpatialAttention, self).__init__()//(B,C,H,W)---(B,1,H,W)---(B,2,H,W)---(B,1,H,W)self.conv1 nn.Conv2d(2, 1, kernel_size 3, padding 1, bias False)self.sigmoid nn.sigmoid()def forward(self, x):mean_f torch.mean(x, dim 1, keepdim True)max_f torch.max(x, dim 1, keepdim True)cat torch.cat([mean_f, max_f], dim 1)out self.conv1(cat)return x*self.sigmod(out) 三、transformer里的注意力机制  Scaled Dot-Product Attention 该注意力机制的输入是QKV。 1.先Q,K相乘。 2.scale 3.softmax 4.求output import torch import torch.nn as nnclass ScaledDotProductAttention(nn.Module):def __init__(self, scale):super(ScaledDotProductAttention, self)self.scale scaleself.softmax nn.softmax(dim 2)def forward(self, q, k, v):u torch.bmm(q, k.transpose(1, 2))u u / scaleattn self.softmax(u)output torch.bmm(attn, v)return outputscale np.power(d_k, 0.5) //缩放系数为K维度的根号。 //Q (B, n_q, d_q) , K (B, n_k, d_k) V (B, n_v, d_v),Q与K的特征维度一定要一样。KV的个数一定要一样。 MultiHeadAttention 将QKVchannel维度转换为n*C的形式,相当于分成n份分别做注意力机制。 1.QKV单头变多头  channel ----- n * new_channel通过linear变换,然后把head和batch先合并 2.求单头注意力机制输出 3.维度拆分   将最终的head和channel合并。 4.linear得到最终输出维度 import torch import torch.nn as nnclass MultiHeadAttention(nn.Module):def __init__(self, n_head, d_k, d_k_, d_v, d_v_, d_o):super(MultiHeadAttention, self)self.n_head n_headself.d_k d_kself.d_v d_vself.fc_k nn.Linear(d_k_, n_head * d_k)self.fc_v nn.Linear(d_v_, n_head * d_v)self.fc_q nn.Linear(d_k_, n_head * d_k)self.attention ScaledDotProductAttention(scalenp.power(d_k, 0.5))self.fc_o nn.Linear(n_head * d_v, d_0)def forward(self, q, k, v):batch, n_q, d_q_ q.size()batch, n_k, d_k_ k.size()batch, n_v, d_v_ v.size()q self.fc_q(q)k self.fc_k(k)v self.fc_v(v)q q.view(batch, n_q, n_head, d_q).permute(2, 0, 1, 3).contiguous().view(-1, n_q, d_q)k k.view(batch, n_k, n_head, d_k).permute(2, 0, 1, 3).contiguous().view(-1, n_k, d_k)v v.view(batch, n_v, n_head, d_v).permute(2, 0, 1, 3).contiguous().view(-1. n_v, d_v) output self.attention(q, k, v)output output.view(n_head, batch, n_q, d_v).permute(1, 2, 0, 3).contiguous().view(batch, n_q, -1)output self.fc_0(output)return output
http://wiki.neutronadmin.com/news/389241/

相关文章:

  • 无锡机关单位建设网站平台设计图
  • 企业网站管理系统怎么用做设计不进设计公司网站
  • 汽车零部件公司网站建设方案wordpress 任务管理系统
  • 滨海做网站需要多少钱广东响应式网站
  • 怎么更改网站名称代理记账公司如何寻找客户
  • 网站优化总结报告网站开发案列
  • 企业网站的建设有哪些经典问题房地产企业网站模板免费下载
  • 国内专业网站制作js 网站开发
  • 网站找到后台了 如何破解账号 密码营销成功的案例
  • 网站内部资源推广案例wordpress文字替换
  • 公明网站建设公司临沂百度seo
  • 个人怎么做电影相关的网站电脑中安装wordpress
  • 舟山 做企业网站做网站建设找哪家好
  • 网站开发网站说明怎么写html5 动态效果 手机网站
  • 中国空间站最新视频自己做网站网站资源哪里来
  • 自己做的网站与ie不兼容美团网站界面设计
  • 无锡网站建设 君通科技坪山网站建设服务
  • 重庆建网站诚选快忻科技悉心如需锦州网站建设
  • 官方网站欣赏微官网 入口
  • 北京网站建设过程网站怎么做数据接口
  • 图库素材网站模板为什么公司网站打不开
  • 建设京东商城网站中国能源建设集团有限公司级别
  • wordpress常常被用来做什么网站庆阳做网站
  • 网站建设 翰臣科技公司中建一局招聘网
  • 建设部网站 注册违规做汽车介绍视频的网站
  • 设计类哪个专业好网站内部链接如何进行优化建设
  • 网站相互推广怎么做设计公司起名两个字
  • 什么情况下网站需要备案网站开发与维护专业前景
  • 如何提升网站访问速度构建一个网站需要什么
  • 网站建设图片怎么调做农产品交易网站