
从服务器的硬件架构来看,AI服务器是采用异构形式的服务器,在异构方式上可以根据应用的范围采用不同的组合方式,如CPU+GPU、CPU+TPU、CPU+其他的加速卡等。与普通的服务器相比较,在内存、存储、网络方面没有什么差别,主要在是大数据及云计算、人工智能等方面需要更大的内外存,满足各种数据的收集与整理。
我们都知道普通的服务器是以CPU为算力的提供者,采用的是串行架构,在逻辑计算、浮点型计算等方面很擅长。因为在进行逻辑判断时需要大量的分支跳转处理,使得CPU的结构复杂,而算力的提升主要依靠堆砌更多的核心数来实现。
但是在大数据、云计算、人工智能及物联网等网络技术的应用,充斥在互联网中的数据呈现几何倍数的增长,这对以CPU为主要算力来源的传统服务提出了严重的考验,并且在目前CPU的制程工艺、单个CPU的核心数已经接近极限,但数据的增加却还在持续,因此必须提升服务器的数据处理能力。因此在这种大环境下,AI服务器应运而生。上海世纪互联新上线的GPU云平台算力就很强,他们用的是NVDIA的DGX A100,是现目前市场上竞争力十分强的人工智能服务器,单台的算力就有5Peta Flops,多台组成集群的话,算力更加吓人,比起市面上很多的云平台都要强很多。
资讯 咨询机构IDC近日发布的《2017年中国AI基础设施市场跟踪报告》显示,2017年,中国GPU服务器市场迎来爆发式增长,市场规模为5.65亿美元(约合35亿元人民币),同比增长230.7%,约占中国X86服务器市场的6%。
该机构预测,未来五年GPU服务器市场仍将保持高速增长,2017~2022年复合增长率将超过43%。到2022年,GPU服务器的市场规模有望达到中国X86服务器市场整体规模的16%,将直接改变整个服务器市场的格局。
从厂商市场占有率来看,浪潮处于领先位置,曙光和新华三紧随其后。从行业分布来看,互联网是GPU服务器的主要用户群体,提供AIaaS的公有云服务提供商和AI解决方案提供商有望成为未来驱动市场增长的新动力。从市场趋势来看,2017年GPU服务器市场不再是一个小众的市场,几乎所有互联网用户和大量的AI初创公司都开始采购GPU服务器搭建自己的AI平台,主流的公有云厂商也都先后推出自己的AIaaS服务。
从AI生态系统建设来看,Nvidia具有明显优势,其Tesla系列产品在AI基础设施市场占据主导地位,尤其在线下训练场景中几乎垄断了市场。从其产品分布来看,P40和P100占据超过70%的市场份额,分别面向推理和训练工作负载,P4在2017年也取得了快速增长,主要面向1U紧凑型推理计算平台。
该机构中国服务器市场高级研究经理刘旭涛认为:“2017年是中国AI元年,也是AI生态和市场迅速发展的一年。在国家政策和资本的共同推动下,大量AI初创企业涌现、行业应用迅速落地。AI市场的火热推动了以GPU服务器为主的AI基础设施市场取得了爆发式增长,未来伴随AI市场的发展和繁荣,AI基础设施市场仍将保持快速增长。”他认为,目前,AI的应用以线下训练为主,使用者主要是拥有海量数据的用户群体,基础设施以GPU为主。未来,在线推理的应用将更加广泛,除了GPU,FPGA、ASIC等加速计算技术,甚至基于ARM架构的一些新的专用AI芯片都会迎来发展机遇。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)