提供徐州网站建设,常州优化网站,总裁班课程培训,iis wordpress安装教程PS#xff1a;本文分析略深#xff0c;需要一定的RL和GAN的基础。前两天#xff0c;Stanford的NLP小组出了一篇神经网络对话生成的论文#xff1a;标题就是使用对抗学习来做神经对话生成。这个idea非常的赞#xff01;在我看来是通往图灵测试的正确一步。以前的对话生成本文分析略深需要一定的RL和GAN的基础。前两天Stanford的NLP小组出了一篇神经网络对话生成的论文标题就是使用对抗学习来做神经对话生成。这个idea非常的赞在我看来是通往图灵测试的正确一步。以前的对话生成我们使用Seq2Seq的监督学习其实也就是模仿学习。但是模仿学习的问题是神经网络的理解能力有限训练样本有限只能生成一定程度的对话。那么有没有可能让计算机真正理解对话的意思然后自己学会对话呢有了深度增强学习有了AlphaGo大家可以知道这是可能的。事实上这篇论文的作者Jiwei Li之前的一篇文章就是用深度增强学习来做对话生成。但是使用深度增强学习最大的问题就是需要有reward。没有reward没法训练。但是怎么定义一个对话的reward呢好困难有太多评价标准。但是有一个标准是绝对的就是图灵测试的标准。只要这个对话看起来像人说的就行了。这就不得不联系到了GAN生成对抗网络。把GAN中的分类器用来对对话做分类就行了。这样训练出来的分类器可以一定程度上判断计算机生成的对话与人的对话的差距。而这个 差距就是reward 这篇文章可以说把DRL和GAN的思想很好的结合起来并应用在对话生成问题上也取得了比较好的效果。相信在这个方法的基础上进一步发展比如改进网络结构将对话拓展到段落更多的训练等等。 也许3-5年图灵测试就真正通过了而这一次是机器自己真正学会了交流PS本文同步发于“智能单元”微信公众号欢迎大家关注第一时间获取通用人工智能原创资讯