南宁建设信息网站,如何用代码做网站,企业微信第三方应用开发,销售怎么找客户源来源#xff1a;ScienceAI编辑#xff1a;绿萝想象一下#xff0c;你去当地的五金店#xff0c;在货架上看到一种新的锤子。你听说过这把锤子#xff1a;它比其他锤子敲得更快、更准确#xff0c;在过去的几年里#xff0c;它已经淘汰了许多其他锤子#xff0c;至少在大… 来源ScienceAI编辑绿萝想象一下你去当地的五金店在货架上看到一种新的锤子。你听说过这把锤子它比其他锤子敲得更快、更准确在过去的几年里它已经淘汰了许多其他锤子至少在大多数用途中是这样。还有更多通过一些调整——这里有一个附件那里有一个扭曲——这个工具变成了一把锯它的切割速度至少和其他任何选择的一样准确。事实上一些处于工具开发前沿的专家表示这把锤子可能只是预示着所有工具将融合到一个设备中。类似的故事正在人工智能工具中上演。这种多功能的新锤子是一种人工神经网络——一种通过对现有数据进行训练来「学习」如何完成某些任务的节点网络——称为 Transformer。它最初旨在处理语言但最近开始影响其他 AI 领域。2017 年Transformer 首次出现在一篇论文中该论文神秘地宣称「注意力就是你所需要的一切」。在人工智能的其他方法中系统将首先关注输入数据局部的块然后构建整体。例如在语言模型中附近的单词首先会被组合在一起。相比之下转换器运行进程以便输入数据中的每个元素都连接或关注每个其他元素。研究人员将此称为「自我注意」。这意味着一旦开始训练Transformer 就可以看到整个数据集的痕迹。论文链接https://arxiv.org/abs/1706.03762在 Transformer 出现之前人工智能语言任务的进展在很大程度上落后于其他领域的发展。「在过去 10 年左右发生的这场深度学习革命中自然语言处理在某种程度上是后来者」马萨诸塞大学洛厄尔分校的计算机科学家 Anna Rumshisky 说。「所以从某种意义上说NLP 落后于计算机视觉。Transformer 改变了这一点。」很快Transformer 就成为专注于分析和预测文本的单词识别等应用程序的领跑者。它引发了一波工具浪潮例如 OpenAI 的 Generative Pre-trained Transformer 3 (GPT-3)它可以训练数千亿个单词并生成一致的新文本智能到令人不安。Transformer 的成功促使人工智能人群问他们还能做什么。答案现在正在展开因为研究人员报告说Transformer 被证明具有惊人的多功能性。在某些视觉任务中例如图像分类使用 Transformer 的神经网络比不使用 Transformer 的神经网络变得更快、更准确。其他人工智能领域的新兴工作——比如一次处理多种输入或计划任务——表明 Transformer 可以处理更多。「在包括计算机视觉在内的机器学习中的许多问题上Transformer 似乎真的有相当大的变革性。」在慕尼黑的宝马BMW从事与自动驾驶汽车相关的计算机视觉工作的 Vladimir Haltakov 说。就在 10 年前AI 的不同子领域之间几乎没有共通语言。但 Transformer 的到来表明了融合的可能性。德克萨斯大学奥斯汀分校的计算机科学家 Atlas Wang 说「我认为 Transformer 之所以如此受欢迎是因为它暗示着全领域通用的潜力。我们有充分的理由想要在整个 AI 任务范围内尝试使用 Transformer」。从语言到视觉在「Attention Is All You Need」发布几个月后扩大 Transformer 的最有希望的举措之一就开始了。当时在柏林的谷歌研究部门工作的计算机科学家Alexey Dosovitskiy正在研究计算机视觉这是一个专注于教计算机如何处理和分类图像的 AI 子领域。与该领域的几乎所有其他人一样他当时的常用工具卷积神经网络 (CNN) 该网络多年来推动了深度学习尤其是计算机视觉领域的所有重大飞跃。CNN 通过对图像中的像素重复应用过滤器来建立特征识别来工作。正是由于卷积照片应用程序可以按面孔组织您的图书馆或者将鳄梨与云区分开来。CNN 被认为是视觉任务必不可少的。Dosovitskiy 正在研究该领域最大的挑战之一即扩大 CNN 的规模以在不增加处理时间的情况下在代表分辨率越来越高的图像的越来越大的数据集上进行训练。但随后他看到 Transformer 取代了以前几乎所有与语言相关的人工智能任务的首选工具。「我们显然受到了正在发生的事情的启发」他说。「他们得到了所有这些惊人的结果。我们开始想知道我们是否可以在视觉上做类似的事情。」 这个想法有一定的意义——毕竟如果 Transformer 可以处理大数据集的单词为什么不能处理图片呢最终的结果是一个名为 Vision Transformer 或 ViT 的网络研究人员在 2021 年 5 月的一次会议上展示了该网络。该模型的架构与 2017 年提出的第一个Transformer 的架构几乎相同只进行了微小的更改使其能够分析图像而不是文字。「语言往往是离散的」Rumshisky 说「所以很多改编必须使图像离散化。」论文链接https://arxiv.org/abs/2010.11929ViT 团队知道他们无法完全模仿语言方法因为每个像素的自注意力在计算时间上会非常昂贵。相反他们将较大的图像划分为正方形的单元也就是所谓的词元token。词元大小是任意的因为可以根据原始图像的分辨率变大或变小默认是每边 16 像素。但是通过分组处理像素并对每个像素应用自我关注ViT 可以快速处理大量训练数据集输出越来越准确的分类。Transformer 以超过 90% 的准确率对图像进行分类——比 Dosovitskiy 预期的结果要好得多——在 ImageNet 分类挑战赛一项开创性的图像识别比赛中迅速将其推向了榜首。ViT 的成功表明卷积可能不像研究人员认为的那样是计算机视觉的基础。与 Dosovitskiy 合作开发 ViT 的 Google Brain Zurich 的 Neil Houlsby 说「我认为 CNN 很可能在中期被视觉 Transformer 或其衍生产品所取代。」他说这些未来的模型可能是纯粹的 Transformer或者是为现有模型增加自我关注的方法。其他结果也支持了这些预测。研究人员定期在 ImageNet 数据库上测试他们的图像分类模型在 2022 年初ViT 的更新版本仅次于将 CNN 与 Transformer 相结合的新方法。没有 Transformer 的 CNN长期的冠军现在勉强进入前 10 名。Transformer 的工作原理ImageNet 结果表明Transformer 可以与领先的 CNN 竞争。但谷歌的计算机科学家 Maithra Raghu 想知道他们是否像 CNN 一样「看到」图像。神经网络因其难以辨认的黑匣子而臭名昭著但有一些方法可以窥探内部——例如通过逐层检查网络的输入和输出以了解训练数据是如何流过的。她的小组确定了自注意力在算法中导致不同感知方式的方式。归根结底Transformer 的力量来自于它处理图像编码数据的方式。「在 CNN 中你从非常本地化开始然后慢慢获得全球视野」Raghu 说。CNN 逐个像素地识别图像通过构建从局部到全局的方式来识别角或线等特征。但是在带有自注意力的 Transformer 中即使是第一层信息处理也会在遥远的图像位置之间建立联系就像语言一样。如果 CNN 的方法就像从单个像素开始并缩小那么 Transformer 会慢慢地将整个模糊图像聚焦。这种差异在语言领域更容易理解Transformer 最初是在这里构思的。考虑这些句子「猫头鹰发现了一只松鼠。它试图用爪子抓住它但只抓住了尾巴的末端。」 第二句的结构令人困惑那些「它」指的是什么只关注「它」周围的单词的 CNN 会遇到困难但是将每个单词与其他单词连接起来的 Transformer 可以识别出猫头鹰在抓人而松鼠失去了部分尾巴。现在很明显Transformer 处理图像的方式与卷积网络根本不同研究人员只会变得更加兴奋。Transformer 在将数据从一维字符串如句子转换为二维数组如图像方面的多功能性表明这样的模型可以处理许多其他类型的数据。例如Wang 认为Transformer 可能是朝着实现一种神经网络架构的融合迈出的一大步从而产生了一种通用的计算机视觉方法——也许也适用于其他 AI 任务。「当然要让它真正实现是有局限性的」他说「但如果有一种可以通用的模型你可以将各种数据放在一台机器上那肯定是非常棒的。」融合正在发生现在研究人员希望将 Transformer 应用于一项更艰巨的任务生成新图像。GPT-3 等语言工具可以根据其训练数据生成新文本。在去年发表的一篇论文中Wang 结合了两个 Transformer 模型试图对图像做同样的事情这是一个困难得多的问题。当双 Transformer 网络在超过 200,000 名名人的面部上进行训练时它以中等分辨率合成了新的面部图像。根据初始分数一种评估神经网络生成的图像的标准方法发明的名人令人印象深刻并且至少与 CNN 创建的名人一样令人信服。论文链接https://arxiv.org/abs/2010.11929Wang 认为Transformer 在生成图像方面的成功比 ViT 在图像分类方面的能力更令人惊讶。「生成模型需要综合需要能够添加信息以使其看起来合理」他说。与分类一样Transformer 方法正在取代卷积网络。Raghu 和 Wang 看到了 Transformer 在多模态处理中的新用途——一种可以同时处理多种类型数据的模型如原始图像、视频和语言。「以前做起来比较棘手」Raghu 说因为这种孤立的方法每种类型的数据都有自己的专门模型。但是 Transformer 提出了一种组合多个输入源的方法。「有很多有趣的应用程序结合了其中一些不同类型的数据和图像。」例如多模式网络可能会为一个系统提供动力该系统除了听一个人的声音外还可以读取一个人的嘴唇。「你可以拥有丰富的语言和图像信息表示」Raghu 说「而且比以前更深入。」新兴工作表明了 Transformer 在其他人工智能领域的一系列新用途包括教机器人识别人体运动、训练机器识别语音中的情绪以及检测心电图中的压力水平。另一个带有 Transformer 组件的程序是 AlphaFold它去年因其快速预测蛋白质结构的能力而成为头条新闻——这项任务过去需要十年的深入分析。权衡即使 Transformer 可以帮助联合和改进人工智能工具新兴技术通常也会付出高昂的代价这一点也不例外。Transformer 在预训练阶段需要更高的计算能力支出然后才能击败传统竞争对手的准确性。那可能是个问题。「人们总是对高分辨率图像越来越感兴趣」Wang 说。这种训练费用可能是 Transformer 广泛实施的一个缺点。然而Raghu 认为训练障碍可以通过复杂的过滤器和其他工具轻松克服。Wang 还指出尽管视觉 Transformer 已经引发了推动人工智能发展的新努力——包括他自己的——但许多新模型仍然包含了卷积的最佳部分。他说这意味着未来的模型更有可能同时使用这两种方法而不是完全放弃 CNN。它还暗示了一些混合架构的诱人前景这些架构以当今研究人员无法预测的方式利用 Transformer 的优势。「也许我们不应该急于得出 Transformer 将成为最终模型的结论」Wang 说。但是Transformer 越来越有可能至少成为你附近的 AI 商店的任何新超级工具的一部分。参考内容https://www.quantamagazine.org/will-transformers-take-over-artificial-intelligence-20220310/未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市大脑研究计划构建互联网城市大脑技术和企业图谱为提升企业行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。 如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”