您好,欢迎访问利联科技官网!    24小时服务热线:400-161-0880    新上扬州高防IP,无视市面上任何流量攻击!登录  /  注册  /  旧平台入口

BGP服务器租用如何提高数据处理效率

 

对于使用BGP服务器租用的用户来说,如果服务计算量大的客户,一般采用的是GPU集群,这个时候集群中

GPU与GPU之间的高速互联就非常关键。当然,数据库也并非完全在GPU中处理,也有一小部分会放在CPU

中,具体会根据客户的成本以及数据量等问题来灵活安排。


虽然已有相应的解决方案去加快GPU与CPU之间的信息流通,但仍旧存在延时等问题。


目前比较前沿的加速CPU与GPU信息交方案是IBM与NVIDIA联合研制的NVlink信息交换通道。从使用者角

度再来谈谈NVlink。


这类客户分两种,一种是对方只要打包好的、直接能够使用的产品,他们只需知道这个引擎如何使用即可,

另外一种客户则要是想要自己买机器、做数据库、做算法,自己搭建人工智能引擎。


为了让GPU集群以及CPU-GPU之间通信顺畅,近几年,在技术合作上,扬州BGP服务器租用会为客户的GPU

数据库提供GPU-GPU以及GPU-CPU的NVlink通道机器Minsky。在市场方面,Power会向客户银行推广包含

GPU数据库的一体机。


目前虽然一些企业和机构的数据库已经使用了GPU,但普遍存在一个设计缺陷:其数据库管理方案都是将数据

库存储在CPU一侧,当接到用户的数据请求时,将数据搬移到GPU一侧进行处理,然后再把处理结果移回至

CPU进行存储。也就是说,GPU并非真正的系统核心。这种机制决定了即使通过GPU加快数据处理速度,但

把处理结果搬回CPU的过程仍然浪费了大量时间。


其实IBM早在几年前便注意到了这种趋势,随后它们与NVIDIA合作,去加快新数据中心工作负载的处理速度。

经过四年的研发,POWER8服务器联合了NVIDIA的Tesla P100 GPU和NVlink互联技术,实现了更高的数据性

能分析和深度学习能力提升。早期IBM和NVIDIA技术如此紧密的结合使得数据流动速度比使用PCIE快了5倍。


GPU和CPU间的数据传输速度都是一项技术瓶颈,因为GPU的显存能够快速而少量的读写数据,而CPU使用内

存读写则大量而慢速,因此,CPU的传输带宽大于GPU。NVlink通过调整相应架构,使得GPU和CPU间的传输

速度获得巨大的提升。


如果没有像传统系统那样将数据全部存储在CPU一侧,而是将GPU作为真正的核心,利用高速缓存机制将尽量多

的数据直接存储在多内核协同工作的GPU一侧,这样做的结果就可避免数据搬移过程中耗费的时间,提升了运算

效率。


一般来说,GPU是专为并行计算而设计的专用协处理器,通常其内部都集成了数千个高速运算核心。由于GPU通

常都可以直接搭配高带宽存储器协同工作,因此比使用一般RAM的CPU运算速度快出一个数量级。NVlink除了可

实现GPU-CPU节点内部的高速互联,同时还能在GPU-GPU甚至CPU-CPU之间形成高速互联。


过去IBM和现在的BGP服务器租用主要服务于前者,以一体机的形态把相关的人工智能技术以及GPU数据库进行

整合,从而做成企业级直接使用的、没有很多指令集、直接连接的产品。


您可能还会对下面的文章感兴趣: