当前位置: 首页 > news >正文

快速制作网站泰安房产网签西湖春晓

快速制作网站,泰安房产网签西湖春晓,如何做网站旅游产品分析,永州市住房和城乡建设局网站WHY does BERT work#xff1f; BERT会考虑上下文#xff01; 进行Word Embedding#xff01;将一个单词表示成向量#xff0c;比如苹果单词中的“果”和苹果公司中的“果”#xff0c;在经过Embedding后虽然同样是同一个词#xff0c;但是由于上下文不同#xff0c;所…WHY does BERT work BERT会考虑上下文 进行Word Embedding将一个单词表示成向量比如苹果单词中的“果”和苹果公司中的“果”在经过Embedding后虽然同样是同一个词但是由于上下文不同所以vector距离是远的 不一样的表示 但是相同语境的“果”则距离比较近 接下来我们计算两个果的相似度 可以看出对角的关系还是比较近的 为什么你能知道一个单词的意思呢 这个人说了 你要知道一个单词的意思就得根据它的上下文决定的 所以即使你将该单词盖住这个单词还是会被预测出。 在BERT之间其实已经有该技术了就是word Embeddingword Embedding是一个简单的模型就是两个Transformer 有人就问为什么只是Transformer不能是其它的更加复杂的结构为什么只是linear不能是deep learning 因为只是因为算力的问题 Multi-lingual BERT 这有啥特别之处呢 就是你会将加入不同语言的输入 我们通过使用不同的语言的单词训练模型在该模型English的QA上进行Fine-tune训练模型时居然可以回答中文问题 可以看到即便是在English上fine-tune的Bert模型最终回答中文问题准确率也可以达到78% 为什么会这样呢 因为在预训练的时候不同语言但是相同的词汇在经过Bert后距离很近 我们通过实验来验证两种语言的word embedding的距离 其中MRR就是这个指标它的值越大表明两个语言越接近 起初我们使用的是200k句子来做实验但是各种调参都没发现模型更好的效果 但是后面想是不是句子的规模不够 索性增加到1000k发现模型的效果很好 但是还是感觉怪怪的! 因为你在做语言填空的时候你将汉语输入Bert里它给你补全了汉语 你用英语输入Bert里它给你不劝了英语它不会给你互相补充。 这说明句子与句子之间还是有差距的 我们通过计算两种语言之间的总体的差距并表示成向量 之后再在Bert后加向量就是最后的结果 后面的是真实的实例 这是无监督的
http://wiki.neutronadmin.com/news/405392/

相关文章:

  • 人力资源三网站建设常州网站建设平台
  • 佛山网站建设专业品牌ps网页模板
  • 中山做百度网站的公司emlog怎么换wordpress
  • 众筹平台网站搭建上海网站开发公司电话
  • 南昌做网站电话网上商城下载
  • 网站建设营改增平潭综合实验区建设工程网站
  • 获取网站访问qq餐饮vi设计
  • 看网站搜什么关键词电子商务网站建设服务外包
  • 开发一个交易网站多少钱免费注册自助网站
  • 永州市开发建设投资有限公司网站怎么上平台卖自己的产品
  • 手机网站营销的含义科技创新导报
  • 中国建设银行征信中心网站昆明的花仙子制作的企业
  • 东莞推广网站排名wordpress企业h5主题
  • 中国住房和城乡建设部网站6用户体验设计的概念
  • 大型企业的微网站谁做用wordpress搭建娱乐网
  • 标准网站建设哪家便宜网站怎么找的
  • 招聘网站建设保定app定制哪里找
  • 杭州建网站的公司wordpress视频主题模板下载地址
  • 建设网站中心北京如何申请公司网站备案号
  • 邢台住房与城乡建设部网站qq是哪一个软件公司开发的
  • 怀安网站制作外包公司做网站价格
  • 雄安做网站要多少钱苏中建设集团网站
  • 运城做网站哪家好wordpress爆路径
  • congqin网站建设一键提交收录
  • 如何制作网页二维码网站seo优化运营
  • 北京网站制作案例找做网站公司需要注意什么条件
  • 学校电脑课做网站的软件建e室内设计网 周婷
  • 网站打开慢原因广州门户网站开发
  • 购物网站优化的建议整形网站开发
  • 中小企业建网站多少钱php在网站开发中的作用