当前位置: 首页 > news >正文

招个网站建设维护采购招标网

招个网站建设维护,采购招标网,网站备案号被注销怎么办,wordpress积分来源#xff1a;AI量化百科神经网络技术起源于上世纪五、六十年代#xff0c;当时叫感知机#xff08;perceptron#xff09;#xff0c;拥有输入层、输出层和一个隐含层。输入的特征向量通过隐含层变换达到输出层#xff0c;在输出层得到分类结果。早期感知机的推动者是… 来源AI量化百科神经网络技术起源于上世纪五、六十年代当时叫感知机perceptron拥有输入层、输出层和一个隐含层。输入的特征向量通过隐含层变换达到输出层在输出层得到分类结果。早期感知机的推动者是Rosenblatt。扯一个不相关的由于计算技术的落后当时感知器传输函数是用线拉动变阻器改变电阻的方法机械实现的脑补一下科学家们扯着密密麻麻的导线的样子…但是Rosenblatt的单层感知机有一个严重得不能再严重的问题即它对稍复杂一些的函数都无能为力比如最为典型的“异或”操作。连异或都不能拟合你还能指望这货有什么实际用途么o(╯□╰)o随着数学的发展这个缺点直到上世纪八十年代才被Rumelhart、Williams、Hinton、LeCun等人反正就是一票大牛发明的多层感知机multilayer perceptron克服。多层感知机顾名思义就是有多个隐含层的感知机废话……。好好我们看一下多层感知机的结构图1上下层神经元全部相连的神经网络——多层感知机多层感知机可以摆脱早期离散传输函数的束缚使用sigmoid或tanh等连续函数模拟神经元对激励的响应在训练算法上则使用Werbos发明的反向传播BP算法。对这货就是我们现在所说的神经网络NN——神经网络听起来不知道比感知机高端到哪里去了这再次告诉我们起一个好听的名字对于研zhuang究bi很重要多层感知机解决了之前无法模拟异或逻辑的缺陷同时更多的层数也让网络更能够刻画现实世界中的复杂情形。相信年轻如Hinton当时一定是春风得意。多层感知机给我们带来的启示是神经网络的层数直接决定了它对现实的刻画能力——利用每层更少的神经元拟合更加复杂的函数[1]。Bengio如是说functions that can be compactly represented by a depth k architecture might require an exponential number of computational elements to be represented by a depth k − 1 architecture.即便大牛们早就预料到神经网络需要变得更深但是有一个梦魇总是萦绕左右。随着神经网络层数的加深优化函数越来越容易陷入局部最优解并且这个“陷阱”越来越偏离真正的全局最优。利用有限数据训练的深层网络性能还不如较浅层网络。同时另一个不可忽略的问题是随着网络层数增加“梯度消失”现象更加严重。具体来说我们常常使用sigmoid作为神经元的输入输出函数。对于幅度为1的信号在BP反向传播梯度时每传递一层梯度衰减为原来的0.25。层数一多梯度指数衰减后低层基本上接受不到有效的训练信号。2006年Hinton利用预训练方法缓解了局部最优解问题将隐含层推动到了7层[2]神经网络真正意义上有了“深度”由此揭开了深度学习的热潮。这里的“深度”并没有固定的定义——在语音识别中4层网络就能够被认为是“较深的”而在图像识别中20层以上的网络屡见不鲜。为了克服梯度消失ReLU、maxout等传输函数代替了sigmoid形成了如今DNN的基本形式。单从结构上来说全连接的DNN和图1的多层感知机是没有任何区别的。值得一提的是今年出现的高速公路网络highway network和深度残差学习deep residual learning进一步避免了梯度消失网络层数达到了前所未有的一百多层深度残差学习152层[3,4]具体结构题主可自行搜索了解。如果你之前在怀疑是不是有很多方法打上了“深度学习”的噱头这个结果真是深得让人心服口服。图2缩减版的深度残差学习网络仅有34层终极版有152层自行感受一下如图1所示我们看到全连接DNN的结构里下层神经元和所有上层神经元都能够形成连接带来的潜在问题是参数数量的膨胀。假设输入的是一幅像素为1K*1K的图像隐含层有1M个节点光这一层就有10^12个权重需要训练这不仅容易过拟合而且极容易陷入局部最优。另外图像中有固有的局部模式比如轮廓、边界人的眼睛、鼻子、嘴等可以利用显然应该将图像处理中的概念和神经网络技术相结合。此时我们可以祭出题主所说的卷积神经网络CNN。对于CNN来说并不是所有上下层神经元都能直接相连而是通过“卷积核”作为中介。同一个卷积核在所有图像内是共享的图像通过卷积操作后仍然保留原先的位置关系。两层之间的卷积传输的示意图如下图3卷积神经网络隐含层摘自Theano教程通过一个例子简单说明卷积神经网络的结构。假设图3中m-11是输入层我们需要识别一幅彩色图像这幅图像具有四个通道ARGB透明度和红绿蓝对应了四幅相同大小的图像假设卷积核大小为100100共使用100个卷积核w1到w100从直觉来看每个卷积核应该学习到不同的结构特征。用w1在ARGB图像上进行卷积操作可以得到隐含层的第一幅图像这幅隐含层图像左上角第一个像素是四幅输入图像左上角100100区域内像素的加权求和以此类推。同理算上其他卷积核隐含层对应100幅“图像”。每幅图像对是对原始图像中不同特征的响应。按照这样的结构继续传递下去。CNN中还有max-pooling等操作进一步提高鲁棒性。图4一个典型的卷积神经网络结构注意到最后一层实际上是一个全连接层摘自Theano教程在这个例子里我们注意到输入层到隐含层的参数瞬间降低到了10010010010^6个这使得我们能够用已有的训练数据得到良好的模型。题主所说的适用于图像识别正是由于CNN模型限制参数了个数并挖掘了局部结构的这个特点。顺着同样的思路利用语音语谱结构中的局部信息CNN照样能应用在语音识别中。全连接的DNN还存在着另一个问题——无法对时间序列上的变化进行建模。然而样本出现的时间顺序对于自然语言处理、语音识别、手写体识别等应用非常重要。对了适应这种需求就出现了题主所说的另一种神经网络结构——循环神经网络RNN。在普通的全连接网络或CNN中每层神经元的信号只能向上一层传播样本的处理在各个时刻独立因此又被成为前向神经网络(Feed-forward Neural Networks)。而在**RNN中神经元的输出可以在下一个时间戳直接作用到自身即第i层神经元在m时刻的输入除了i-1层神经元在该时刻的输出外还包括其自身在m-1时刻的输出表示成图就是这样的图5RNN网络结构我们可以看到在隐含层节点之间增加了互连。为了分析方便我们常将RNN在时间上进行展开得到如图6所示的结构图6RNN在时间上进行展开Coolt1时刻网络的最终结果O(t1)是该时刻输入和所有历史共同作用的结果这就达到了对时间序列建模的目的。不知题主是否发现RNN可以看成一个在时间上传递的神经网络它的深度是时间的长度正如我们上面所说“梯度消失”现象又要出现了只不过这次发生在时间轴上。对于t时刻来说它产生的梯度在时间轴上向历史传播几层之后就消失了根本就无法影响太遥远的过去。因此之前说“所有历史”共同作用只是理想的情况在实际中这种影响也就只能维持若干个时间戳。为了解决时间上的梯度消失机器学习领域发展出了长短时记忆单元LSTM通过门的开关实现时间上记忆功能并防止梯度消失一个LSTM单元长这个样子图7LSTM的模样除了题主疑惑的三种网络和我之前提到的深度残差学习、LSTM外深度学习还有许多其他的结构。举个例子RNN既然能继承历史信息是不是也能吸收点未来的信息呢因为在序列信号分析中如果我能预知未来对识别一定也是有所帮助的。因此就有了双向RNN、双向LSTM同时利用历史和未来的信息。图8双向RNN事实上不论是那种网络他们在实际应用中常常都混合着使用比如CNN和RNN在上层输出之前往往会接上全连接层很难说某个网络到底属于哪个类别。不难想象随着深度学习热度的延续更灵活的组合方式、更多的网络结构将被发展出来。尽管看起来千变万化但研究者们的出发点肯定都是为了解决特定的问题。如果想进行这方面的研究不妨仔细分析一下这些结构各自的特点以及它们达成目标的手段。入门的话可以参考Ng写的UfldlUFLDL教程 - Ufldl也可以看Theano内自带的教程例子非常具体Deep Learning Tutorials未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。  如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
http://wiki.neutronadmin.com/news/27379/

相关文章:

  • 怎样做网站排名优化深圳网站制作公司咨询
  • 免费项目网站优化的定义
  • 清远市专业网站制作文化建设新闻
  • 学做面包到什么网站交互式网站开发技术asp
  • 网站演示程序建设银行手机登录网站
  • 科技网站 网站建设自媒体营销的策略和方法
  • 网站做法广州黄埔区建设局网站局
  • 网站建设的风险识别织梦网站怎么把index.html去掉
  • 中山微网站建设报价素材网
  • 企业网站需要多大带宽云建站规划图
  • 网站备案幕布要求山西专业网站建设价目
  • 买东西网站抖音推广
  • 电子商务网站建设维护实训报告他达拉非
  • 网站建设的小结国内做网站群平台的公司
  • 做网站公司的年终总结动漫设计哪个大学好
  • 网站建设模范代码山西制作网站
  • 大连哪家公司做网站好嘉兴网站制作哪里好
  • 客户关系管理定义seo的作用
  • 网站搭建什么意思网站底部留言代码
  • 用于网站建设的图片网店美工具体要求
  • 企业网站建设2017sem工作内容
  • 小红书网站开发形式选择wordpress模板知更鸟
  • 企业网站源码打包wordpress菜单怎么添加图片
  • 查建筑企业信息的网站安徽省建设信息管理平台
  • 长沙专业网站建设运营向wordpress发帖插件
  • 学网站开发应该学什么网站建设的定位是什么意思
  • 丽江建设网站电商网站开发技术与维护
  • 网站如何做抖音推广入侵网站被判多少年
  • 建设企业手机银行电商seo搜索引擎优化
  • 旅游网站专业化建设的要点腾讯公司