当前位置: 首页 > news >正文

网页设计与网站建设分析刚刚发布了天津的最新消息

网页设计与网站建设分析,刚刚发布了天津的最新消息,建管家企业网站,wordpress火车头插件一.前提知识 多层感知机#xff1a;由一个输入层#xff0c;一个或多个隐藏层和一个输出层组成。#xff08;至少有一个隐藏层#xff0c;即至少3层#xff09; 全连接层#xff1a;是MLP的一种特殊情况#xff0c;每个节点都与前一层的所有节点连接#xff0c;全连接…一.前提知识 多层感知机由一个输入层一个或多个隐藏层和一个输出层组成。至少有一个隐藏层即至少3层 全连接层是MLP的一种特殊情况每个节点都与前一层的所有节点连接全连接层可以解决线性可分问题无法学习到非线性特征。只有输入和输出层 二.NiN模型特点 NiN与过去模型的区别AlexNet和VGG对LeNet的改进在于如何扩大和加深这两个模块。他们都使用了全连接层使用全连接层就可能完全放弃表征的空间结构。 NiN放弃了使用全连接层而是使用两个1x1卷积层(将空间维度中的每个像素视为单个样本将通道维度视为不同特征。)相当于在每个像素的通道上分别使用多层感知机。 优点:NiN去除了全连接层可以减少过拟合同时显著减少NiN的参数数量 三.模型架构 四.代码 import torch from torch import nn from d2l import torch as d2l import timedef nin_block(in_channels,out_channels,kernel_size,strides,padding):return nn.Sequential(# 卷积层nn.Conv2d(in_channels,out_channels,kernel_size,strides,padding),nn.ReLU(),# 两个带有ReLU激活函数的 1x1卷积层nn.Conv2d(out_channels,out_channels,kernel_size1),nn.ReLU(),nn.Conv2d(out_channels,out_channels,kernel_size1),nn.ReLU())net nn.Sequential(nin_block(1,96,kernel_size11,strides4,padding0),nn.MaxPool2d(3,stride2),nin_block(96,256,kernel_size5,strides1,padding2),nn.MaxPool2d(3,stride2),nin_block(256,384,kernel_size3,strides1,padding1),nn.MaxPool2d(3,stride2),nn.Dropout(0.5),# 标签类别是10nin_block(384,10,kernel_size3,strides1,padding1),# 二维自适应平均池化不用指定池化窗口大小nn.AdaptiveAvgPool2d((1,1)),# 将(样本通道w,h) 批量1011四维的输出转成2维的输出其形状为(批量大小,10)nn.Flatten() )X torch.rand(size(1,1,224,224)) for layer in net:X layer(X)print(layer.__class__.__name__,output shape:\t,X.shape)Sequential output shape: torch.Size([1, 96, 54, 54]) MaxPool2d output shape: torch.Size([1, 96, 26, 26]) Sequential output shape: torch.Size([1, 256, 26, 26]) MaxPool2d output shape: torch.Size([1, 256, 12, 12]) Sequential output shape: torch.Size([1, 384, 12, 12]) MaxPool2d output shape: torch.Size([1, 384, 5, 5]) Dropout output shape: torch.Size([1, 384, 5, 5]) Sequential output shape: torch.Size([1, 10, 5, 5]) AdaptiveAvgPool2d output shape: torch.Size([1, 10, 1, 1]) Flatten output shape: torch.Size([1, 10])六.不同参数训练结果 学习率是0.1的情况 # 训练模型 lr,num_epochs,batch_size 0.1,10,128 train_iter,test_iter d2l.load_data_fashion_mnist(batch_size,resize224) d2l.train_ch6(net,train_iter,test_iter,num_epochs,lr,d2l.try_gpu())学习率是0.05的情况提升了6个点 开始计时 start_time time.time() # 训练模型 lr,num_epochs,batch_size 0.05,10,128 train_iter,test_iter d2l.load_data_fashion_mnist(batch_size,resize224) d2l.train_ch6(net,train_iter,test_iter,num_epochs,lr,d2l.try_gpu()) 计时结束 end_time time.time() run_time end_time - start_time # 将输出的秒数保留两位小数 print(f{round(run_time,2)}s)学习率为0.01批次等于30的情况(反而下降了) 思考 为什么NiN块中有两个1x1卷积层 从NiN替换掉全连接层使用多层感知机角度来说 因为1个1x1卷基层相当于全连接层两个1x1卷积层使输入和输出层中间有了隐藏层才相当于多层感知机。
http://www.yutouwan.com/news/358033/

相关文章:

  • 徐州网站开发信息社团网站建设
  • 高校网站建设意义杭州seo管理
  • wordpress小说站主题河南工程建设信息网站
  • 简单商业网站模板网站建设默认字体
  • v9做的网站被攻击链接吧跳转如何建设网站安全
  • 如何将vs做的网站备份出来舟山公司网站制作
  • 漯河网站制作本地工程招标网
  • 新公司成立如何建设网站投资公司网站设计
  • 企业官网怎么和别的网站做链接廊坊百度推广seo
  • 给我推荐一个网站中国最顶尖的广告设计公司
  • 深圳建网站的网络公司最近一周热点新闻
  • 专业开发手机网站建设模拟网站效果
  • 浙江省建设注册管理中心网站做外贸怎么做
  • 美工做网站尺寸多少钱优化方案生物必修一答案
  • 品牌标志logo大全东莞seo网络营销策划
  • 网站优化推广公司龙岩北京网站建设
  • 做数学题赚钱的网站优秀品牌策划方案
  • 吧网站做软件的软件remix做歌网站
  • 怎么在windows做网站建设厅安检局网站
  • 上饶网站开发 app开发软件开发公司网站设计
  • 王建设的网站企业建设企业网站的好处
  • 计算机网站建设和维护计算机应用是做什么的
  • 大型租车门户网站商业版源码网站建设 保密
  • 网站制作流程 优帮云亚马逊网站开发设计
  • 58同城北京网站建设wordpress 自定义类型
  • 建立个公司网站门户网站技术方案
  • 毕业设计网站成品百度爱采购官网首页
  • 如何看网站是否优化青岛网站seo价格
  • 沧州网站备案大恒建设集团有限公司网站
  • 网站推广服务方案小程序商城开发方案