当前位置: 首页 > news >正文

建设企业手机银行电商seo搜索引擎优化

建设企业手机银行,电商seo搜索引擎优化,5g创业网站建设,本地wordpress怎么弄网站原文#xff1a;Label-Specific Document Representation for Multi-Label Text Classification#xff08;EMNLP 2019#xff09;多标签文本分类摘要#xff1a;本文使用标签相关的注意力网络学习文档表示。该方法在构建文档表示时使用了标签的语义信息来决定标签和文档的…原文Label-Specific Document Representation for Multi-Label Text ClassificationEMNLP 2019多标签文本分类摘要本文使用标签相关的注意力网络学习文档表示。该方法在构建文档表示时使用了标签的语义信息来决定标签和文档的语义联系。并且根据文档内容信息使用了自注意力机制识别标签特定的文档表示。为了整合以上两部分使用了自适应的融合机制这样可以输出全面的文档表示。1 Introduction类似CNN、RNN、注意力机制的方法已经很好的实现了文档的表示。但是其中的大多数方法仅仅关注文档而忽略了标签。近期的一些工作通过探索标签结构或标签内容捕获标签相关性。尽管其已经取得了一些成果但是这些方法无法在标签文本有巨大差异的情况下取得好的效果。比如Management vs Management moves就很难区分。2 Label-Specific Attention Network model (LSAN)模型包含两部分。第一部分通过利用文档内容和标签文本从每一个文档中捕获标签相关的部分。第二部分旨在从两个方面自适应的提取正确的信息。最终分类器基于融合的标签特定的文档表示。2.1 Input Text Representation:使用Bi-LSTM捕获双向的语义信息从而学习每一个输入文档的word embedding。在第p个时间步隐藏状态可以被更新。是第p个单词的embedding向量是其相应的正向/反向词表示。从而整个文档可以被表示为2.2 Label-Specific Attention Network这一部分旨在于获取每个文档的标签相关的内容。这种策略受启发于文本分类。例子June a Friday, in the lawn, a war between the young boys of the football game start.属于类别youth和sports。内容young boys与youth更相关而不是sports。而football game直接与sports相关。2.2.1 Self-attention Mechanism一篇文档中的每一个单词对每一个标签的贡献程度不同。为了捕获文档与每个标签的相关性本文采取自注意力机制。标签-单词注意力分数可以通过以下公式获得是自注意力参数。代表着所有词对第j个标签的贡献度。接下来可以获取文本单词对每一个标签的加权和是输入文档结合第j个标签的表示。就是标签特定的文档表示2.2.2 Label-Attention Mechanism刚刚的自注意力部分可以看作是基于内容的注意力机制只考虑到了文档内容信息。然而标签在文本分类中具有特定的语义信息。为了利用到标签的语义信息他们被预处理和表示为一个可训练的矩阵在同一个潜在的k维空间一旦得到Bi-LSTM输出的word embedding以及标签embedding C我们可以显式的得到每一对单词和标签的语义联系。一个简单的方法是计算词表示和标签表示的点积以上两者分别是词和标签正向和反向的语义联系。与刚刚的自注意力机制类似标签特定的文档表示可以通过标签词的线性组合被构建最后文档可以被重表示这一部分的表示是基于标签文本所以我们将其命名为标签注意力机制。2.3 Adaptive Attention Fusion Strategy为了对以上两者基于内容的注意力机制基于标签的注意力机制结合在这一部分我们探究使用了注意力融合机制自适应的从以上两部分中提取正确的信息并建立更全面的文档表示。具体来讲两个权重向量用于得到以上两部分文档表示的重要程度可以通过一个全连接层得到两个W是参数。分别是自注意力机制和标签注意力机制的重要程度沿着第j个标签。所以为这两对参数添加限制得到最终的文档表示2.4 Label Prediction在得到最终的文档表示后我们可以通过含两个全连接层的多层感知机建立一个多标签文本分类器。每个标签的预测概率可以通过如下公式得到Sigmoid输出的值可以看作概率所以我们最后使用交叉熵损失。N是训练集文档数目是标签数量是零一变量代表文档是否有标签。3 ExperimentsDatasets:不同数据集的标签数量L有多有少。Baseline Models:一些经典的文本多标签分类方法XML-CNN: (Liu et al., 2017)SGM: (Yang et al., 2018)DXML: (Zhang et al., 2018)。AttentionXML: (You et al., 2018) 可以看作本文模型的特殊情况即只考虑到了文本内容没有考虑到标签语义。EXAM: (Du et al., 2018) 与本文模型最接近的工作但是本文模型处理的更好。3.2 Comparison Results and DiscussionXML-CNN的效果最差原因是其没有考虑到标签相关性。在RCV1和Kanshan-Cup数据集上AttentionXML比EXAM效果好。因为这两个数据集具有层级标签结构。此时父标签和子标签可能包含相同的文本内容使得其更难区分。在EUR-Lex数据集上AttentionXML效果最差因为其只关注文档内容信息EXAM和LSAN都受益于标签文本信息所以效果更好。3.3 Comparison on Sparse Data为了验证本文方法LSAN在低频标签上的效果我们将EUR-Lex根据频率划分为三个组。三个方法在三个组上的效果特别是在低频标签上本文提出的方法获得了更大的提升。3.4 Ablation Test文本提出的LSAN方法可以看作是三部分的结合自注意力部分A标签注意力部分L和融合注意力部分W。自注意力部分A用来找到有用的文档内容标签注意力部分L利用到了标签文本信息显式得得到了文档和标签的语义联系。然而有些标签不易被区分(e.g., Management vs. Management movies).所以结合两者也很重要。注意力权重展示为了进一步展示融合注意力机制的重要性展示自注意力和标签注意力在两个数据集上的权重分布。其中EUR-Lex数据比较稀疏AAPD不稀疏。正如我们预料的在稀疏数据集上标签注意力机制比自注意力机制更有效。在不稀疏的数据集上每个标签有充分的文档所以自注意力机制就够了。可视化探究标签注意力机制的效果。Computer Vision和Neural and Evolutionary Computing是该例子的两个类别我们可以看出其各自在文本中对应的单词。启发注意力机制可以拿来进行自适应学习学习两部分的动态加权。但是需要两部分都有好的性能才能取得更好的效果。
http://wiki.neutronadmin.com/news/27100/

相关文章:

  • 旅游网站专业化建设的要点腾讯公司
  • 做网站还 淘宝广州seo优化电话
  • 在线教育网站有哪些东台网站设计
  • 做贸易要看什么网站网站建设+泰安
  • 做网站推广的 什么是开户在云服务器上搭建网站
  • 网站建设行业发展方向常州做网站基本流程
  • 素材网站怎么推广重庆市建设工程信息网上查询
  • 专业的网站开发团队需要哪些人泰安企业建站公司排行
  • 网站开发算互联网公司吗wordpress 小工具添加图片大小
  • 网站被k 如何恢复南宁网站seo顾问
  • 个人怎么建立网站万网 网站空间
  • 制作企业网站一般多少钱慈溪网站建设哪家好
  • 做的新网站网上搜不到有什么网站用名字做图片
  • 贵州建设厅网站首页wordpress 漂浮窗口
  • 个人网站建设yxhuying网站平台维护
  • 四川省建设三类职称网站个人怎么做贷款网站
  • 家居网站应该怎么做阳江招聘网最新消息
  • 通过平台建网站网站制作方案专业乐云seo
  • 国际网站设计北京近期传染病情况
  • 东莞建站公司快荐全网天下特别好四川住房和城乡建设部官方网站
  • 手机网站模板设计软件自贡普通网站建设费用
  • 南京做网站需要多少钱手机软件开发培训
  • 芙蓉区网站建设继续网站建设
  • 太原网站建设方案优秀企业网站建设公司
  • 贵州网站推广济南建设工程交易中心
  • 网站网络优化wordpress站点搭建
  • 网站制作合同书手机版网站建设合同范本
  • 网站做著作权修改wordpress后台登陆地址
  • 做养生网站怎么样温州网络网
  • 手机传奇网站创意视觉网站