
但AutoDL受实例限制,暂时无法编译TensorRT Backend版本,编译的是cuda112版本。在不同GPU实例下简单测试了一下katago的benchmark,权重为kata1-b40c256-s10359230464-d2525387336。
使用阿里云最低端的Tesla T4,4核cpu,15G内存服务器作为参考。
在使用sabaki对弈感觉速度尚可,但经过测试,NVIDIA RTX 3060 / 12GB的成绩与阿里云的Tesla T4比想象中要差不少。
作为TeslaT4的替代者,NVIDIA RTX A4000 / 16GB成绩相比TeslaT4略好一点,也符合AutoDL首页算力排名。AutoDL北京地区实例均使用RTX A4000。
NVIDIA RTX 3090 / 24GB成绩两倍于NVIDIA RTX A4000 / 16GB,同样符合算力排名。
最令人吃惊的是NVIDIA RTX 2080Ti / 11GB,成绩直逼阿里云TeslaV100 16G。katago测试过程中,
第一次测试居然认为成绩出现误差,提示“Optimal number of threads is fairly high, increasing the search limit and trying again”自动重新测试了一遍。
不愧为显卡核d。难怪黄厂长严令禁止数据商将游戏显卡用于数据服务器上。其价格居然还要低于NVIDIA RTX A4000 / 16GB,这也是性价比最高的GPU实例。在选择服务器方面还是要看具体需求的,不同的企业或个人对服务器的要求都是不一样的,如果预算有限的话,那只能选择比较便宜的服务器。对于那些注重网络安全、数据存储的大型企业,那就需要买性能稳定、安全性高的服务器了,哪怕价格贵一点。当然,从性价比的角度我觉得还是最好选择大厂的服务器,这样售后得以保障,也不会出现太大的质量问题。思腾合力你可以去了解看看,它家是英伟达官方授权的经销商,同时也拥有自主品牌GPU服务器,售后方面做的都挺好的,3年质保,上 门服务,性价比还是蛮高的,给你做个对比。GPU计算是一种异构模式,由CPU负责执行顺序型的代码,如 *** 作系统、数据库等应用,而由GPU来负责密集的并行计算。打个比方说,假设让10个人把各自塑料瓶子的水倒入一个大桶中,CPU的做法是让这10个人按着顺序一个一个往里面倒,而GPU的做法则是在设定好一定规则的前提下让10个人同时或分组往里面倒。因此,在高性能计算领域,可以把CPU服务器和GPU服务器结合起来,构成一个混合型的集群,各司其职,会大大提高集群系统的总体计算效能。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)