网站的建设背景图片,论坛网站开发,赚钱游戏排行榜第一名,中国铁路保险网站来源#xff1a;智东西概要#xff1a;AI已无处不在#xff0c;两股力量正推动计算机领域的未来。GTC CHINA 2017大会上#xff0c;英伟达创始人兼CEO黄仁勋表示#xff0c;AI已无处不在#xff0c;两股力量正推动计算机领域的未来。第一、摩尔定律已终结#xff0c;设计… 来源智东西概要AI已无处不在两股力量正推动计算机领域的未来。GTC CHINA 2017大会上英伟达创始人兼CEO黄仁勋表示AI已无处不在两股力量正推动计算机领域的未来。第一、摩尔定律已终结设计人员无法再创造出可以实现更高指令集并行性的CPU架构第二、深度学习正在引领软件和计算机领域的变革。深度学习、大数据和GPU计算的结合引爆了AI革命。30亿美金研发投入 GV100剑指AIAI芯片也被称为AI加速器或计算卡即专门用于处理人工智能应用中的大量计算任务的模块其他非计算任务仍由CPU负责。当前AI芯片主要分为 GPU既渗透数据中心横扫DL训练端亦是DL推理端大头 、FPGA 可编程适用于迭代升级、各类场景化应用、ASIC终端AI利器。德勤TMT最新报告显示2016年面向深度学习DL售出的GPU芯片数量约为10万到20万预计2018年面向DL应用售出的GPU将达50万片FPGA约20万片ASIC约10万片2020年DL加速器市场规模或达45亿到91亿美元。▲德勤2017年TMT报告预计全球深度学习芯片市场份额最高的GPU市场龙头就是英伟达其次是AMD而目前数据中心/HPC和DL加速器方面英伟达几乎占据了绝对优势。可以说在过去的几年尤其是2015年以来人工智能大爆发就是由于英伟达公司的GPU得到广泛应用使得并行计算变得更快、更便宜、更有效。2017年5月GTC 2017大会上英伟达发布了面向高性能计算的新一代Volta架构加速器Tesla V100。Tesla V100加速器采用12nm FFN工艺搭载新款图形处理器GV100拥有5120 CUDA、640个Tensor内核分PCle和SXM2两版双精度浮点运算能力分别可达7 TFLOPS和7.8 TFLOPS单精度则为14 TFLOPS和15.7 TFLOPS。翻译一下就是堆了很多运算器性能特别凶残。Tesla V100没有公开售价不过典型的服务器大概要100万元。▲Tesla V100中的新技术▲Tesla V100配备全新Tensor核心后深度学习运算能力达125Tensor TFLOPSTesla V100不仅仅是数据中心/HPC加速器更针对深度学习算法和Caffe2、MXNet、CNTK、TensorFlow等框架新版本进行了设计新的流多处理器SM架构提供独立、并行整数和浮点数据通路配备全新Tensor核心运算能力达125 Tensor TFLOPS单精度矩阵-矩阵乘法比Tesla P100快1.8倍混合精度矩阵-矩阵乘法比Tesla P100快9倍。据称Tesla V100由数千名工程师经数年开发研发投入相当于30亿美金。Tesla V100软硬件架构解读▲Tesla V100的正面与背面Tesla V100采用与Tesla P100相同的SXM2主板外形大小为140×78毫米主要区别在于GPU由GV100代替了GP100。SXM2主板支持NVLink和PCIe 3.0连接功能包含可为GPU供应各种所需电压的高效电压调节器额定为300瓦热设计功耗TDP。工作站、服务器和大型计算系统中可应用一个或多个Tesla V100加速器。从架构来看Tesla V100不仅仅堆了更多更密集的运算单元以实现超强计算性能也打通了更多的链路来实现资源更为高效的利用降低功耗并配套以CUDA 9提供了更为灵活的调度。下文提供一些Tesla V100架构思路以供启发。GV100堆了84个SM 640个Tensor核心▲含84个SM单元的完整Volta GV100 GPU与上一代Pascal GP100 GPU一样GV100 GPU由6个GPU处理集群GPC和8个512位内存控制器组成每个GPC拥有7个纹理处理集群TPC每个TPC含2个流多处理器SM。含84个SM的完整GV100 GPU总共拥有5376个FP32核心5376个INT32核心、2688个FP64核心、672个Tensor核心以及336个纹理单元。每个HBM2 DRAM堆栈由一对内存控制器控制。完整的GV100 GPU总共包含6144KB的L2缓存。▲NVIDIA Tesla系列各GPU比较GV100新增的流多处理器SM架构提供了性能、能效和可编程方面的重大改进主要特性包括1、 新增专为深度学习矩阵算法构建的混精度Tensor核心相较GP100在同一功率电路下训练可提升12倍TFLOPS2、在通用计算工作负载中的能效提高50%3、L1数据缓存性能大幅提升4、新增SIMT线程模型可消除之前的SIMT和SIMD处理器设计中存在的限制。▲Volta GV100流多处理器SMTensor核心大型神经网络训练的关键Tesla V100包含640个Tensor核心密集运算器这是支持大型神经网络训练的关键可为训练和推理应用提供125 Tensor TFLOPS每个SM有8个核心SM内每块处理器分区有2个每个Tensor核心每时钟执行64次浮点FMA运算。其中A、B、C和D为4×4矩阵矩阵乘法输入A和B为FP16而累加矩阵C和D可以是FP16或FP32矩阵。特别指出的是与无法同时执行FP32和INT32指令的Pascal GPU不同Volta GV100 SM包含单独的FP32和INT32核心允许以完整吞吐量同时执行FP32和INT32运算并且还可增加指令发送吞吐量。▲Tensor核心中的混合精度乘积累加运算事实上Tensor核心会用于执行更大型的二维或更高维的矩阵运算这种运算都是由这些较小元素构建而成。▲Pascal和Volta 4×4矩阵乘法运算Volta Tensor核心可在CUDA 9 C API中存取并作为线程数级矩阵运算公开。该API公开专门化矩阵负载、矩阵乘积累加和矩阵存储运算以高校使用CUDA 9 C程序中的Tensor核心。此外cuBLAS和cuDNN库也已经更新以提供新的库接口将Tensor核心用于深度学习程序和框架。L1数据缓存和性能共享将数据缓存和共享内存功能整合进单一内存块中可为两种类型内存访问提供出色的整体性能带来更低延迟和更高带宽。整合后的容量可达128KB/SM比GP100数据缓存大了七倍以上不使用共享内存的程序可将其作为缓存纹理单元也可使用该缓存。▲Pascal与Volta数据缓存的比较计算能力7.0GV100 GPU支持新的Compute Capability7.0详情参见下表。▲GK180、GM200、GP100和GV100计算能力对比NVLink第二代高速互联NVLink最早于2016年随Tesla P100加速器和Pascal GP100 GPU一起推出是英伟达的高速互联技术。Tesla V100引入了第二代NVLink可以提供更高的链路速度从20GB/s增加到25GB/s以及每个GPU更多的链路从4条增至6条并在CPU主控、缓存一致性和可扩展性方面实现改进。▲“配备V100的DGX-1”中使用的混合立体网络NVLink拓扑优化HBM2内存架构Tesla P100是首个支持高带宽HBM2内存技术的GPU架构。Tesla V100的HBM2更快、更高效HBM2内存由内存堆栈与GPU位于同样的物理包组成每个堆栈使用四个存储器晶片从而获得最大为16GB的GPU内存与传统GDDR5设计相比可显著节省能耗和占用空间从而允许在服务器中安装更多GPU。此外Tesla V100 HBM2内存子系统支持通过纠一位检二位SECDED纠错码ECC来保护数据为已受数据损坏影响的计算应用程序提供更高可靠性。这在大型集群计算环境中尤为重要因为其中的GPU需处理非常大的数据集亦或长时间运行应用程序。▲V100上HBM2内存加速与P100的对比复制引擎支持多处理器数据传输英伟达GPU复制引擎可在多个GPU间或GPU与CPU间传输数据。之前的复制引擎需要固定不可分页源内存区域和目标内存区域而新的Volta GV100 GPU复制引擎可为没有映射至分页表的地址生成分页错误然后内存子系统可处理分页错误并将地址映射至分页表之后复制引擎便可执行传输。目前此功能可用于ATS系统中。CUDA通用并行计算架构的改进▲基于CUDA平台的深度学习创新时间线CUDA是英伟达建立的并行计算平台和编程模型为开发者提供基于英伟达GPU的开发环境以便其使用C和C扩展构建大规模并行应用程序。Volta架构的改进将进一步增强CUDA应用程序中并行线程的功能使CUDA平台的能力、灵活性、生产力和可移植性实现下述提高1、独立线程调度优化▲Volta独立线程调度功能可交错执行离散分支中的语句帮助执行精细并行计算Volta GV100是首款支持独立线程调度的GPU允许GPU执行任何线程从而程序中的并行线程之间实现更精细的同步与协作。Pascal和早期英伟达GPU均以SIMT形式执行含32个线程的线程组虽然减少跟踪线程状态所需的资源数量重收敛线程以最大化并行性但离散去相同线程束或不同执行状态的线程无法互相发送信号或交换数据从而产生不一致性。Volta调度优化器通过在所有线程之间实现等效并发通过无饥饿现象算法确保所有线程对争用资源拥有相应的访问权限将同一线程束中的活动线程一并分组到SIMT单元以子线程数粒度进行离散和重新收敛执行相同的代码避免了上述问题。2、多进程服务▲Pascal中的基于软件的MPS服务和Volta中硬件加速MPS服务对比多进程服务MPS是Volta GV100架构的一项新功能Pascal的CUDA MPS是一个CPU进程专门用于在单一用户的应用程序中贡共享GPU。Volta MPS可为MPS服务器的关键组件实现硬件加速使MPS客户端将工作直接提交至GPU中的工作队列降低提交延迟并增加总吞吐量特别是用于高效推理部署从而提升性能并改进隔离服务质量和独立地址空间增加MPS客户端的最大数量将其从Pascal上的16个增加为Volta上的48个。3、统一内存寻址和地址转换服务CUDA 6曾推出有限形式的统一内存寻址以简化GPU编程该功能在Pascal GP100中通过硬件页面错误和更大的地址空间得到改进。Volta GV100中全新的存取计数器功能可追踪GPU存取其他处理器内存的频率帮助确保内存页面移动至访问页面最频繁的处理器的物理内存。此外Volta还通过NVLink支持地址转换服务ATS为GPU提供对CPU内存的完整访问权限。4、协作组▲协作组在粒子模拟中的应用并行算法中线程通常需要通过协作来执行集群计算。构建这些写作代码需要对协作线程进行分组和同步。因此CUDA 9引入了协作组用于组织线程组的全新编程模式。协作组编程元素由以下元素组成1、专为深度学习矩阵算法构建的全新混合精度FP16/FP32 Tensor核心2、表示协作线程组的数据类型3、CUDA启动API定义的默认组例如线程块和网格4、将现有组划分为新组的运算5、同步组中所有线程的障碍运算6、检查群组属性以及特定于组的集合运算。协作组以子线程块和多线程块粒度显示定义线程组并且可以执行集合运算让开发者以安全、可支持的方式通过灵活同步功能针对硬件快速进行各种优化协作组还实现了抽象化让开发者能够编写灵活、可扩展的代码该代码可在不同的GPU架构中安全运行包括扩展至未来GPU功能Volta独立线程调度也以任意交叉线程束和子线程数粒度为线程组实现更灵活的选择和划分Volta同步真正实现了每线程操作。推荐GV100的理由GPU比CPU拥有更多的运算器只需要进行高速运算而不需要逻辑判断其海量数据并行运算的能力与深度学习需求不谋而合也成为了高性能计算进一步发展的主流方案。而GV100作为GPU界占据绝对优势的英伟达的新力作具备了以下特点1、运算能力超强GV100堆了84个SM、640个Tensor核心相较GP100在同一功率下训练可提升12倍的TFLOPS。相应的Telsa V100运算能力达125 Tensor TFLOPS可以说是深度学习上游训练端的一个大杀器。截至目前Telsa V100已经用于英伟达首款深度学习和分析专用工作站DGX Station阿里云、百度和腾讯等企业均已在其云服务中部署Tesla V100华为、浪潮和联想等原始设备制造商也已采用Tesla V100来构建新一代加速数据中心。2、新架构提升效能Volta新增流多元处理SM架构使用新的分区方法来提升SM利用率和整体性能。全新的Volta SM的节能效率相较上一代Pascal产品提升50%在同一功率电路下可显著提高FP32和FP64的性能专为深度学习设计的Tensor核心在训练方面可提供高达12倍的TFLOPS峰值推理方面可提供6倍的TFLOPS峰值。相比之前几代的GPUGV100支持同时运行更多的线程、线程束和线程块实现了性能、效能、可编程性方面的重大改进。3、开发生态成熟CUDA因统一而完整的开发套件丰富的库以及对英伟达GPU的原生支持而成为开发主流目前已开发至第9代开发者人数超过51万。CUDA工具包9.0版包含新的API以及对Volta功能的支持并可以实现更轻松的编程。Caffe 2、MXNet、CNKT、TensorFlow等深度学习框架新版本以及其他框架皆可发挥出Volta的强大性能缩短训练时间并获得更高的多节点训练。4、有19439家合作组织剽悍的硬件配上成熟的CUDA开发环境英伟达已经形成并正在巩固自己的AI生态。据称在深度学习方面与英伟达有合作的组织已有19439家覆盖金融、汽车、教育、互联网等各类领域。▲在深度学习方面与英伟达有合作的组织▲英伟达GPU平台Tesla V100的架构设计中我们看到了英伟达强大的硬实力积累堆运算器的能力以及“并行思维”的启发分类、同步等结果就是非常凶残的浮点运算能力。而对于企业而言浮点运算能力、功耗和成本是选择GPU的三个主要考量再加上面对AI新蓝海的野心所以我们会看到诸如百度这样既和英伟达哥俩好又跟AMD搞GPU技术联合实验室。毋庸置疑的是AI芯片战已经打响传统芯片商、新入玩家已经开始在占山头了。深度学习上游训练端来看GPU是当仁不让的第一选择而英伟达先发的构架升级以及广泛成熟的开发生态环境优势明显占据了绝对优势。目前来看英伟达数据中心GPU的主要竞争对手有GPU市场占有率第二的AMD、手握FPGA的英特尔和手握TPU的谷歌。深度学习的下游推理端来看 除了主流的GPU芯片之外还包括CPU、FPGA Xilinx、英特尔Altera、Lattice 及 Microsemi等、ASIC 英特尔Nervana Engine、Wave Computing数据流处理单元、英伟达的DLA、谷歌TPU、寒武纪NPU等竞争态势中英伟达依然占大头。但随着AI的发展FPGA的低延迟、低功耗、可编程性和ASIC的特定优化和效能优势将满足一些特定方向的需求。未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。由互联网进化论作者计算机博士刘锋与中国科学院虚拟经济与数据科学研究中心石勇、刘颖教授创建。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。 如果您对实验室的研究感兴趣欢迎支持和加入我们。扫描以下二维码或点击本文左下角“阅读原文”