西安招聘网,win7系统优化软件,wordpress建站双语,网站推广策划书目录人工智能#xff08;AI#xff09;主要包括三大要素#xff0c;分别是数据、算法和算力。其中数据是基础#xff0c;正是因为在实际应用当中的数据量越来越大#xff0c;使得传统计算方式和硬件难以满足要求#xff0c;才催生了AI应用的落地。而算法是连接软件、数据、应…人工智能AI主要包括三大要素分别是数据、算法和算力。其中数据是基础正是因为在实际应用当中的数据量越来越大使得传统计算方式和硬件难以满足要求才催生了AI应用的落地。而算法是连接软件、数据、应用和硬件的重要桥梁非常关键。算力方面主要靠硬件实现也就是各种实现AI功能的处理器而随着应用和技术的发展能实现各种算力、满足不同应用的AI处理器陆续登场经过不同的发展阶段发挥着各自的作用。
在比较成熟的AI平台方面在2012年出现了AlexNet一直到最近2018年出现了AlphaGo Zero在短短的6年内算力提高了20多万倍这完全不同于传统计算硬件如CPU、MCU等的演进轨迹速度之惊人令我们难以预测。
来自OpenAI的分析显示近几年AI训练所需的算力每3个多月就会翻倍这比著名的摩尔定律每18~24个月芯片的性能翻倍演进速度快多了。而提升算力的关键是芯片设计特别是底层的架构设计目前来看传统的芯片架构已经难以满足AI应用的需要。包括IC厂商和互联网企业在内越来越多的厂商开始投入研发或已经推出AI专用芯片。根据Gartner统计AI芯片在2017年的市场规模约为46亿美元而到2020年预计将会达到148亿美元年均复合增长率为47%。而据麦肯锡预测未来10年人工智能和深度学习将成为提升硅片需求的主要因素2025年在AI的推动下全球硅片营收将超过600亿美元接近全球半导体销售额的20%。
三种AI芯片的对比
从AI芯片的应用场景类别来看主要分为云端和终端。目前AI在云端应用的更多相对成熟而其在云端应用又可分为训练和推理两种其中训练的市场规模占比较高。另外训练需要的数据量和计算量较大所用的处理器主要是GPU。至于推理也以GPU为主此外还有FPGA以及专用的AI芯片ASIC其中ASIC还不是很成熟量产的产品也不多因此用量有限还处于发展初期如果能实现大规模量产其性能和成本是最优的主要推进厂商是Google其标志性产品就是TPU。
综上目前行业为实现AI计算主要采用的芯片有三种分别是通用型的GPU可定制的FPGA以及专用的ASIC。
在计算层面芯片的晶体管数量和芯片面积决定了算力面积越大算力越强但功耗也将随之增加。过去几年在AI处理器的选择上可用于通用基础计算且运算速率更快的GPU迅速成为实现AI计算的主流芯片英伟达也因此占据着数据中心AI芯片的主要市场份额。
FPGA是典型的半定制化芯片其功能可以通过编程来修改并行计算能力很强但是延迟和功耗远低于GPU而与ASIC相比FPGA的一次性成本要低很多但其量产成本很高。因此在实际应用需求还未成规模且算法需要不断迭代、改进的情况下利用FPGA的可重构特性来实现半定制的AI芯片是最佳选择。
AI专用芯片ASIC是面向特定应用需求而定制的芯片一旦流片其功能无法更改因此必须要有量的保证且应用需求稳定不会发生大的变化。专用ASIC芯片的性能高于FPGA如果出货量可观其单颗成本可做到远低于FPGA和GPU。
目前来看由于GPU具备强大的并行计算能力和完善的生态系统现在云端AI应用方面处于主导地位。FPGA方面由于是半定制化的可以通过编程来实现不同的功能电路因此其在通用性和性能之间取得了比较好的平衡但是较高的开发门槛和量产成本对其应用是个限制。 图在实现AI功能方面GPU、FPGA和ASIC的优缺点对比来源长城证券研究所
专用的AI芯片应该是未来的发展趋势无论是在云端还是在边缘侧随着应用的逐渐落地应用场景和各种专用功能会愈加清晰市场需求也会越来越多。另外与GPU和FPGA相比ASIC的专利壁垒要小得多而且其设计难度也是最小的。随着AI应用场景的落地专用的ASIC芯片量产成本低、性能高、功耗低的优势会逐渐凸显出来。
AI芯片案例
目前在AI应用方面全球数据中心用GPU市场基本被英伟达垄断这里用到的都是高性能GPU其门槛很高又是用于AI因此还没有什么竞争对手。
除了GPU芯片本身之外英伟达还有一个优势那就是其在AI计算方面有CUDA软件生态系统的配合。CUDA编程工具包让开发者可以对每一个像素轻松编程在这之前对程序员来说GPU编程是一件很痛苦的事CUDA成功将Java、C等高级语言开放给了GPU编程从而让GPU编程变得简单了许多研究者也可以更低的成本快速开发他们的深度学习模型。以图形处理器加速卡Tesla V100 PCIe/SXM2为例其芯片采用台积电的12nm制程工艺通过与CUDA软件和NVLink快速通道的配合能达到近125兆次深度学习的浮点运算训练速度而以16bit的半精度浮点性能来看可达到31Tera FLOPS。
FPGA方面Altera被英特尔收购之后赛灵思是目前的霸主作为传统的CPU厂商英特尔近几年正在AI领域大力布局收购相关公司自然是一个重要手段通过收购全面布局 FPGA和ASIC除了Altera的FPGA之外还通过收购Mobileye和视觉处理器公司Movidius布局无人驾驶和计算机视觉这也是将来AI大有可为的两个应用领域。
在收购Altera之后英特尔的技术发展路线就出现了调整例如其原来的产品策略是做分立的CPUFPGA加速器而两家公司整合后由简单的分立器件叠加改为了封装集成即将CPU和FPGA芯片封装在一起这还不算完英特尔下一步还要将CPU和FPGA集成在同一芯片内做成SoC。
赛灵思方面该公司于2018年底推出了以低成本、低延迟、高能效深度神经网络DNN算法为基础的Alveo加速卡基于该公司的UltraScale架构采用了台积电的16nm制程工艺目标市场就是数据中心和云端的AI推理市场。
AI专用ASIC方面国内外已经有多家企业投入了研发例如国内的寒武纪正在开发NPU、地平线BPU系列还有华为海思和比特大陆也在专用AI芯片方面投入了不少资源。国外最为知名的就是谷歌的TPU了这也是到目前为止最为成熟的高性能AI专用芯片了。做ASIC需要对应用场景有深刻和精确到位的了解而这方面却是传统芯片设计企业和IDM的短板因此目前做AI专用ASIC的大多是系统产商互联网巨头或者以算法起家的公司。
在中国比特大陆的算丰 (SOPHON) BM1680和BM1682云端安防及大数据AI推理系列产品已经上市此外还有其它几家没有量产的芯片如华为海思的昇腾Ascend 910系列据悉会采用台积电的7nm制程工艺预计会在今年年底量产。此外百度的昆仑芯片采用三星的14nm制程)以及阿里平头哥的Ali-NPU等也处在研发阶段距离量产还有一段时日。
以上谈的主要是用于云端的AI芯片包括GPU、FPGA和ASIC这也是目前AI的主要应用领域而在终端和边缘侧更多的要依靠不断成熟的ASIC因为ASIC与应用场景有着非常紧密的关系而这里说的应用场景主要是在终端和边缘侧。
结语
AI发展正处于强劲的上升阶段此时各种AI芯片实现方案都有其发挥的空间可以说是处于最佳时期这也给众多厂商占领各自擅长之应用市场提供了更多的机会。而随着应用场景的完全落地以及AI专用芯片的成熟和大规模量产这一发展窗口期很可能就将关闭因此眼下各家厂商无论是做GPU、FPGA还是做ASIC的都在抓紧时间研发和拓展市场竞争愈发激烈。