当前位置: 首页 > news >正文

网站开发需要什么语言网站搭建设计课程报告

网站开发需要什么语言,网站搭建设计课程报告,模具配件东莞网站建设技术支持,wordpress登录错误同学你好#xff01;本文章于2021年末编写#xff0c;获得广泛的好评#xff01; 故在2022年末对本系列进行填充与更新#xff0c;欢迎大家订阅最新的专栏#xff0c;获取基于Pytorch1.10版本的理论代码(2023版)实现#xff0c; Pytorch深度学习理论篇(2023版)目录地址…同学你好本文章于2021年末编写获得广泛的好评 故在2022年末对本系列进行填充与更新欢迎大家订阅最新的专栏获取基于Pytorch1.10版本的理论代码(2023版)实现 Pytorch深度学习·理论篇(2023版)目录地址为 CSDN独家 | 全网首发 | Pytorch深度学习·理论篇(2023版)目录本专栏将通过系统的深度学习实例从可解释性的角度对深度学习的原理进行讲解与分析通过将深度学习知识与Pytorch的高效结合帮助各位新入门的读者理解深度学习各个模板之间的关系这些均是在Pytorch上实现的可以有效的结合当前各位研究生的研究方向设计人工智能的各个领域是经过一年时间打磨的精品专栏https://v9999.blog.csdn.net/article/details/127587345欢迎大家订阅(2023版)理论篇 以下为2021版原文~~~~ 1 ResNet模型 在深度学习领域中模型越深意味着拟合能力越强出现过拟合问题是正常的训练误差越来越大却是不正常的。 1.1 训练误差越来越大的原因 在反向传播中每一层的梯度都是在上一层的基础上计算的。随着层数越来越多梯度在多层传播时会越来越小直到梯度消失于是随着层数越来越多训练误差会越来越大。 ResNet模型的动机是要解决网络层次比较深时无法训练的问题借鉴了高速网络模型的思想设计出了一个残差连接模块。这种模块可以让模型的深度达到152层。 1.2 残差连接的结构 在标准的前馈卷积神经网络上加一个直接连接绕过中间层的连接方式使得输入可以直达输出。 1.2.1 残差连接的结构图 1.2.2 残差连接的定义描述 1.3  残差连接的原理 残差连接通过将原始的输入绕过中间的变化直接传给Addiion在反向传播的过程中误差传到输入层时会得到两个误差的加和一个是左侧的多层网络误差一个是右侧的原始误差。左侧会随着层数变多而梯度越来越小右侧则是由Addition直接连到输入层所以还会保留Addition的梯度。这样输入层得到的加和后的梯度就没有那么小了可以保证接着将误差往下传。 1.3.1 残差连接的原理 这种方式看似解决了梯度越传越小的问题但是残差连接在正向同样也起到作用。 由于正向的作用网络结构是并行的模型即残差连接的作用是将网络串行改成并行。 这就是lnception V4模型结合残差网络的原理没有使用残差连接反而实现了与Inception-ResNet V2模型等同的效果的原因。 2 DenSeNet模型 DenseNet模型于2017年被提出该模型是密集连接的卷积神经网络CNN每个网络层都会接受前面所有层作为其输入也就是说网络每一层的输入都是前面所有层输出的并集。 2.1 DenSeNet模型的网络结构 2.1.1 DenSeNet模型 每一个特征图都与前面所有层的特征图相连即每一层都会接受前面所有层作为其输入。对于一个L层的网络DenseNet模型共包含L(L1)2个连接。 2.1.2  DenSeNet模型图 2.2 DenseNet模型的优势 DenseNet模型的每一层都与前面所有层紧密连接、可以直达最后的误差信号升梯度的反向传播减轻梯度消失的问题使得网络更容易训练。DenseNet模型通过拼接特征图来实现短路连接从而实现特征重用并且采用较小的增长率每个层所独有的特征图比较小。增强特征图的传播前面层的特征图直接传给后面层可以充分利用不同层级的特征。 2.3 DenseNet模型的缺陷 DenseNet模型可能耗费很多GPU显存一般显卡无法存放更深的DenseNet模型需要经过精心优化。 2.4 稠密快 稠密块是DenseNet模型中的特有结构。 2.4.1 稠密块的组成 稠密块中含有两个卷积层这两个卷积层的卷积核尺寸各不相同分别为1×1和3×3)。每一个稠密块由L个全连接层组成。 全连接仅在一个稠密块中不同稠密块之间是没有全连接的即全连接只发生在稠密块中。 3 EffcientNet模型 MnasNet模型是谷歌团队提出的一种资源约束的终端CNN模型的自动神经结构搜索方法。该方法使用强化学习的思路进行实现。 3.1 EffcientNet模型的步骤 1、使用强化学习算法实现的MnasNet模型生成基准模型EfficientNet-B0。 2、采用复合缩放的方法在预先设定的内存和计算量大小的限制条件下对EfficientNet-BO模型的深度、宽度特征图的通道数、图片尺寸这3个维度同时进行缩放这3个维度的缩放比例由网格搜索得到最终输出了EfficientNet模型。 3.2 EffcientNet模型的调参示意图 图1-12(a)是基准模型。图1-12(b)是在基准模型的基础上进行宽度缩放即增加图片的通道数量。图1-12(c)是在基准模型的基础上进行深度缩放即增加网络的层数。图1-12(d)是在基准模型的基础上对图片尺寸进行缩放。图1-12(e)是在基准模型的基础上对图片的深度、宽度、尺寸同时进行缩放。 3.3 EfficientNet模型的效果 在ImageNet数据集上Top-1准确率达到84.4%Top-5准确率达到97.1%但是其大小仅仅为已知最好深度卷积模型的1/8.4而且速度比已知最好深度卷积模型快6.1倍。 EfcientNet模型满足了在不降低模型准确率的条件下减少模型的计算量或内存需求参见arXⅳ网站上编号为“1905.11946”的论文)。 3.4 MBConv卷积块 EficientNet模型的内部是通过多个MBConv卷积块实现。 3.4.1 MBConv卷积块特点 MBConv卷积块使用类似残差连接的结构不同的是在短连接部分使用了SE模块并且将常用的ReLU激活函数换成了Swish激活函数还使用DropConnect层来代替传统的Dropout层。 3.4.2 MBConv卷积块的结构 3.4.3  Tip 在SE模块中没有使用BN操作而且其中的Sigmoid激活函数也没有被Swish激活函数替换。 3.5 DropConnect 在深度神经网络中DropConnect层与Dropout层的作用都是防止模型产生过拟合的情况。DropConnect层的效果会更好一些。 3.5.1 DropConnect层与Dropout层对比 DropConnect层在训练神经网络模型的过程中对隐藏层节点的输入进行随机的丢弃。 Dropout层在训练神经网络模型的过程中对隐藏层节点的输出进行随机的丢弃 3.5.2  DropConnect层与Dropout层结构图
http://www.yutouwan.com/news/89814/

相关文章:

  • 兰州网站建设q.479185700棒计算机网站开发国外参考文献
  • 政务网站建设信息怎么设置公司网址
  • 凤岗网站设计门户网站建设技术要求
  • 里水网站开发做网站公司松江
  • 企业网站备案域名信息陕西省建设监理协会查询官方网站
  • 珠宝企业的门户网站开发如何查询网站建设者
  • 网站建设外包给外企移动平台开发技术
  • 组建一个网站wordpress th7
  • 电商网页精品欣赏网站如何使用seo进行综合查询
  • 鄂州网站建设qq营销
  • 网站开发 html外贸邦官网
  • 泸州作网站建设联系电话上海企业网站模板建站费用
  • 临沂网站建设培训学校开发一个软件的流程是什么
  • 用python做网站不常见徐州seo关键词
  • 呼市赛罕区信息网站做一顿饭工作网站定位模板
  • 黄石网站建设wordpress登陆不上
  • 易进网站建设推广运城做网站公司
  • 菏泽做企业网站海门网站建设培训
  • 宣传型电子商务网站男人和女人做污的视频网站
  • 代做宝网站百度163黄页关键词挖掘
  • 备案查询站长之家中国纪检监察报电子版在线阅读
  • 网站建设免费模板下载中山 网站推广
  • 网络营销之网站建设wordpress获取文章所有标签
  • dedecms织梦系统网站防会员注册机工业软件开发技术专业
  • 福建省建设继续教育网站深圳关键词优化报价
  • 优创智汇高端网站建设汉中网站建设电话
  • 电子商务毕业设计设计网站建设海南的网站建设公司哪家好
  • 农业网站建设网站代理加盟赚钱吗
  • 网站域名收费标准龙元建设集团有限公司网站
  • 贵阳网站开发招聘做公众号链接的网站