广州专业的免费建站,网站建设基础实验1,模板网站定制,网页制作与设计源代码机器之心报道编辑#xff1a;蛋酱、杜伟、小舟是时候重新审视这个「无所不能的」模型了#xff01;GPT-3#xff0c;「出道即巅峰」界的代表。2020 年 5 月#xff0c;OpenAI 高调推出了一款具有 1750 亿参数的自回归语言模型「GPT-3」#xff0c;在人工智能领域掀起了一阵… 机器之心报道编辑蛋酱、杜伟、小舟是时候重新审视这个「无所不能的」模型了GPT-3「出道即巅峰」界的代表。2020 年 5 月OpenAI 高调推出了一款具有 1750 亿参数的自回归语言模型「GPT-3」在人工智能领域掀起了一阵巨浪。从参数量上看它比当时全球最大的深度学习模型 Turing NLP 大上十倍从功能上看它可以答题、翻译、写文章还带有一些数学计算的能力。这让人浮想联翩「莫非真正的 AI 要来了吗」无所不能还是媒体的过誉顾名思义GPT-3 是 OpenAI 发布的自动补全工具第三代这个项目经历了多年的发展一直代表着 AI 文本生成方面的最新方向。从许多方面的特征看这些进步类似于 2012 年以来 AI 图像方面的飞跃——在那之后人工智能的新一轮浪潮汹涌而来。和所有深度学习系统一样GPT-3 也在从数据中寻找模式。为了简化该程序已经对庞大的文本集进行了训练。这些规则对于人类来说是未知的。但是它们被存储为数十亿个 GPT-3 的神经网络的不同节点之间的加权连接。重要的是在这个过程中没有涉及到人工输入该程序在没有任何指导的情况下找出了模式然后将其用于完成文本提示。GPT-3 的突出特点是它的运行规模和其惊人的能够自动完成的任务。第一代 GPT 发布于 2018 年包含 1.17 亿个参数。2019 年发布的 GPT-2 包含 15 亿个参数。而 GPT-3 拥有 1750 亿个参数是其前身的 100 多倍是同类程序的 10 多倍。自从 GPT-3 推出以来 OpenAI 向社区开放了商业 API鼓励大家使用 GPT-3 尝试更多的实验。目前是以内测版的形式向用户出售功能包括简单的文本输入输出界面等。所以我们才看到了这些眼花缭乱的案例基于问题的搜索引擎你可以将它理解为「专注于问答的谷歌」键入问题 GPT-3 就会链接到相关的维基百科地址作为答案。与历史人物对话鉴于 GPT-3 已经接受过大量数字书籍资料的训练所以它吸收了很多历史人物的观点与知识。这意味着你可以像和哲学家聊天一样开启与 GPT-3 的对话。当然你和图灵、香农的对话也许会被哈利波特突然打断……基于文本描述生成代码用简单的文字描述你想选择的设计元素或页面布局 GPT-3 就会弹出相应代码。此外它会自动添加代码注释文本样式转换图源推特用户 Francis Jervis。GPT-3 可将某种样式编写的输入文本更改为另一种样式不同文体之间自由切换。绘图助手除了生成代码你也可以让 GPT-3 帮你画图、图像补全早在 GPT-2 时代模型的自动补全图像功能就已经实现。如下图所示最右一列是原始图片最左侧是输入的半张图片中间的四列是 GPT-2 自动补全的图片。GPT-3 当然也能做到这一点最令人印象深刻的是它未曾接受过什么特定训练不再需要微调就能够完成这些任务。这也说明了其所具备的模型灵活性。总体来看GPT-3 做到了一点「用过的人都说好」这表示它已经接近封神的地位。深度学习之父 Geoffrey Hinton 这样评价「如果以 GPT-3 的出色性能推算未来生命、宇宙和万物的答案也不过是 4.398 万亿个参数。」尽管 GPT-3 确实足够优秀但发布一个多月以来相关领域媒体的鼓吹情绪变得越来越强烈以致于 OpenAI 的 CEO Sam Altman 在推特上公开表示「GPT-3 的夸大宣传是太多了。」GPT-3我没有那么完美GPT-3 被夸大宣传原因出在哪里呢The Verge 上的一篇文章提供了详细的解读指出了 GPT-3 在输出偏向性、商业价值和数据偏见等方面存在着不可忽视的缺陷。输出具有偏向性且会犯低级错误我们可以看到所有这些示例都需要上下文这样才能更好地理解。语言模型包括 GPT-2通常的情况是它们在完成基础培训后进行微调以执行特定的任务。GPT-3 却没有接受过完成任何特定任务的培训也不需要任何微调。例如在语法难题中它需要一些类似于预期输出类型的示例称为 few-shot 学习。但总的来说该模型是如此庞大以至于各种功能都可以嵌套在它的节点上。用户只需要输入正确的提示就可以「骗过」它们。此外需要看到上下文带来的并不只是优点。首先有炒作因素。正如 AI 研究者 Delip Rao 在一篇解构关于 GPT-3 炒作文章中指出的那样早期的一些软件 demo 热衷于吹捧该技术的潜力而忽略了它的弊端。其次GPT-3 在输出「筛选」上具有偏向性通常展示起作用的结果而忽略掉那些不起作用的。所以GPT-3 的能力在细节上有较多缺陷。仔细检查输出就会发现一些没人会犯的愚蠢而粗俗的错误。举例而言在使用 GPT-3 与历史人物交谈的项目中当用户与虚拟的乔布斯交谈时问题是「你现在在哪里」虚拟的乔布斯回答说「我在加利福尼亚州库比蒂诺的苹果总部。」这是一个连贯通顺的答案但显然不是一个值得信赖的答案。此外在回答一些琐碎问题或者基本数学问题时也能够发现 GPT-3 犯了类似的错误。例如无法正确地回答 1000000 之前的数字是什么。值得商榷的商业价值此外GPT-3 的种种输出错误引出了另一个问题它不可信赖的性质是否会影响其整体效用毕竟 GPT-3 很大程度上是 OpenAI 的一个商业项目。客户已经基于各种目的来试验 GPT-3 的 API如创建客服机器人和自动化内容审核等。但是GPT-3 会输出前后不一致的答案这将成为企业的一大不利因素。试想有谁希望自己创建的客服机器人时不时地冒犯到客户并且如果无法确认 GPT-3 输出可靠的答案那么为什么还要将它用作教育工具呢一位不愿意透漏姓名的谷歌高级 AI 研究员认为GPT-3 只能实现一些轻松任务trivial task的自动化处理而对此其他一些规模更小、价格更低的 AI 程序同样可以很好地办到。并且GPT-3 的不可靠性将最终损害其商业价值。此外纽约大学副教授、AI 和游戏研究者 Julian Togelius 这样评价 GPT-3:「它就像是一位没有认真复习的聪明学生试图胡言乱语以期在考试中蒙混过关。它会扯到一些已知事实、似是而非的事实、谎言并将这些串联从而看起来像是流畅的叙述。」与此同时很多人也不得不承认一个事实知道如何胡扯的聪明学生会走得更远因为人们通常不会仔细审查他们说的话。输出的文本存在偏见最后GPT-3 还存在一个严重问题那就是它的输出存在偏见。英伟达机器学习研究主管 Anima Anandkumar 教授指出GPT-3 的部分训练是在 Reddit 过滤后的数据上完成的基于这些数据构建的模型会生成「偏见性极大的」文本。Anima Anandkumar仅以之前的 GPT-2 模型为例在 2019 年的一篇论文《The Woman Worked as a Babysitter: On Biases in Language Generation》中GPT-2 模型被要求补全「这个人在当地沃尔玛从事汽车推销员工作」后的句子时它输出了各种冒犯黑人或女性的句子如「黑人干皮条客的勾当长达 15 年」或者「这名女子以 Hariya 的名头做着娼妓的生意」。GPT-3 有时也会表现出类似的偏见。针对 GPT-2 和 GPT-3 模型在输出文本时固有的偏见AI 领域的一些人认为它只是在复制训练数据中人类的偏见而已而且这些带有偏见的句子可以删除。但是带有偏见的输出可能导致其更加不可靠的结果进而引发更大的问题。究其根本原因输出偏见是 GPT-3 在缺乏人工监督或规则的情况下不加选择地处理的结果。但是由于整理数据需要耗费大量的人力资源因而无法实现实际操作。这就不可避免地造成了 GPT-3 的偏见。参考链接https://www.theverge.com/21346343/gpt-3-explainer-openai-examples-errors-agi-potential未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”