人工智能&大数据:加快GPU在数据中心范畴的使用

跟着数据需求作业负载渗透到数据中心并掩盖传统的CPU功能,GPU各供货商现已为数据中心弥补了全新的设备和显示卡。

最近大数据、人工智能以及机器学习的潮流正在企业服务器之间构成连锁反应。由于传统的微处理器难以有效地处理这些来自要求严苛的作业负载的信息,因而数据中心图形处理器转移至该范畴添补相关的资源空白。

自70年代以来,图形处理单元开端被用于从中央处理器处理视频和图形处理使命。与典型的CPU比较,这些体系具有不同的底层规划,GPU是为在单一数据流上最大化高速流水线上吞吐量而构建的。CPU也被规划为支撑快速切换,并将信息从一个当地快速移动到另一个当地,如从主存储到某一存储体系。可是GPU具有不同的结构:它们能够并行处理并支撑多个高速衔接。这些微处理器有多组数据途径进行很多的数据处理,这与图形运用程序的需求十分符合。

扩展数据中心GPU运用规模

GPU在完结少数使命方面做得很好,但跟着使命要求逐步扩展,相关相应也逐步完结扩展。Nvidia倾向于把GPU与其他半导体供货商区别开来,并为GPU寻觅更广泛的用处。

首要,这些产品开端进入高功能核算范畴。可是最近,GPU供货商专门为数据中心服务器规划了设备和显示卡产品。专为服务器优化的GPU运用高带宽内存,并作为模块集成到专用服务器规划中,或作为外围组件互连快速(Peripheral Component Interconnect Express)附加卡的方法供给。可是,与游戏显卡不同,这些显示卡并未供给图形化界面。

服务器各供货商将GPU与CPU衔接起来,以充分利用CPU的优势。当CPU功能无法满意处理数据密集型使命时,会进步CPU(与GPU的集成)功能(满意使命需求)。

大数据、机器学习和人工智能运用程序具有很高的处理要求,需求处理很多的信息和不同的数据类型。这些特色与GPU的规划初衷十分符合。

AI和机器学习各供货商均运用GPU来支撑处理练习神经网络所需的很多数据。Gartner公司的分析师Alan Priestley表明,在这一范畴的商场之中,比较于将程序布置到具有GPU的高功能服务器之上,具有GPU的PC设备可用性可协助软件开发人员能够在台式电脑上开发他们的算法。

GPU在数据中心范畴的运用

数据中心GPU的运用将来可能会不断深化。GPU是使命要害型作业负载的重要基础设施特性。Priestley说,IT安排可推广收购商品化的GPU,并且凭借规范库的运用,他们能够很容易地将其归入运用程序。

因而,服务器各供货商供给集成GPU模块的专用服务器或支撑GPU附加卡的产品。据Gartner公司的查询,面向服务器优化的GPU显卡和运用功能最高的处理器的模块一般的本钱在1,000美元到5,000美元之间。

已有相关产品的供货商开端将这些附加产品归入其产品线。

戴尔一起支撑AMD公司的FirePro系列GPU以及Nvidia公司的GPU,专为虚拟台式基础设施和核算运用而规划,并具有支撑高达1792个GPU中心的处理才能。Hewlett Packard Enterprise(HPE)ProLiant体系可与Nvidia Tesla,Nvidia GRID和Nvidia Quadro GPU协同作业。HPE Insight集群办理实用程序(HPE Insight Cluster Management Utility)将装置并装备GPU驱动程序,可供给如温度等GPU运行状况的监控。

为了预备数据中心GPU深化运用,办理员需求把握怎么办理这些处理器的专业知识。他们应该找到了解这项技能的有关人员,当然这绝非易事,由于技能不同于传统的微处理器规划,并且虽然Nvidia供给了一些训练资料,相关的课程依然比较少。