ETH:这也叫做提升?! NVIDIA GeForce RTX 2080 Ti性能随手测

Cortex社区的小伙伴大家好!今天给大家带来一个特别的内容分享。

首先介绍一下背景:

感谢Cortex社区十分给力的神秘小伙伴协助联络,我们在9月23日下午顺利拿到了NVIDIA最新发布的旗舰显卡GeForceRTX2080Ti。这款让游戏爱好者和硬件爱好者魂牵梦绕的全新旗舰,终于来到了CortexLabs的办公室。我们后续将会对2080Ti进行深度的测试。

当然,游戏性能等方面的表现,已经有众多评测机构做过。CortexLabs更关心的是2080Ti的机器学习性能和挖矿表现相对于1080Ti显卡的提升。

拿到显卡之后,运营的小伙伴已经按耐不住,用最快的速度,对2080Ti的挖矿性能做了一个简单的测试。并且同时运行了一张1080Ti显卡作为参考和对比。我们先从这一个角度,来看一下2080Ti在挖矿性能上的提升。

我们先看一下2080Ti的产品外观。

这部分不多介绍,直接看图。我们拿到的是GIGABYTE的非公版卡,具体产品型号是:GIGABYTEGeForceRTX2080TiWindforceOC11G。

好了,下面来给大家看一下这款产品的实拍图,并且和1080Ti进行一下对比。

看完了产品,要对测试环境进行一下准备。

我们使用的是办公室现成的SuperMicroSuperServer4028GR-TR机器学习服务器作为测试平台,服务器基础配置如下:

主板:SuperX10DRG-O+-CPU

CPU:intel?Xeon?processorE5-2600v4?/v3family(upto160WTDP)*

DualSocketR3(LGA2011)

内存:2400MHZDDR4SDRAM72-bit

系统:LinuxUbuntu18.04

然后交代一下测试的挖矿算法:

一般来说,GPU做挖矿性能测试,会主要选择ETH的Ethash算法或者ZEC的Equihash算法。但目前都有矿机厂商针对这两个算法研发并量产了ASIC矿机。不过,Ethash算法由于对显存有比较高的需求,EthashASIC矿机对GPU挖矿的影响并不是很大,而EquihashASIC矿机则对GPU挖矿的影响却很大。因此,我们这里选择ETH的Ethash算法进行测试。

最后还要介绍一下挖矿软件的选择:

我们最初选择相对矿工更熟悉的Claymore挖矿软件进行测试。但在实际测试中,Claymore还没有对2080Ti进行完美适配。最终我们选择EthMiner作为挖矿软件。

准备工作都已经完毕,我们正式把两个显卡全部装到服务器机上去,并安装好驱动。

1080Ti的驱动版本为:NVIDIA-Linux-x86_64-390.87.run

2080Ti的驱动版本为:NVIDIA-Linux-x86_64-410.57.run

激动人心的时刻马上就要到了!!!

开机,我们可以看到,两个卡驱动都正常。

运行EthMiner,两个卡都能顺利挖矿,并显示出本地算力。趋于稳定后,我们截图来看。

从图中我们可以看到,两款显卡在均未超频情况下,在Ethash算法下的算力表现分别为:

1080Ti算力:32.46MH/s功耗:212W

2080Ti算力:50.90MH/s功耗:257W

这里我们还能看到,2080Ti相对于1080Ti的提升还是相当明显的,Ethash算法下的算力提升达到了56.8%。而功耗则只增加21.2%。

不过,在过去使用1080Ti挖矿的过程中,其实已经有很多对1080Ti算力进行优化的工具。而目前2080Ti则还没有类似的程序出现。我们选择一款常用的软件对1080Ti进行算力优化后,看看差距还有多少?

开启了优化工具后,我们可以看到,GPU1的算力已经从32.46MH/s提升到了45.19MH/s,提升了12.73MH/s。而此优化工具,对2080Ti则没有优化效果。这样一来,1080Ti和2080Ti在Ethash算法下的算力差距只有5.7MH/s左右。

测试到这里,可能大家会吐槽,难道2080Ti的性能提升只有这么一点?

其实并不是这样的,1080Ti的产品周期毕竟已经进入尾声,经过这么多年的沉淀,已经有无数人针对这款产品进行了反反复复的提升和优化。而2080Ti目前还没有太多人拿到产品,更谈不上进行优化。虽然我们这次测试最终的差距结果不是很大,但这是一个“上代产品优化到极致”与“新生产品纯粹原生态”的较量,并且只是在Ethash算法下的性能表现。因此,这个数据测试也仅对当前时间的特定算法下有参考意义。

就在我们运营组的小伙伴测试完挖矿的性能之后,AI部门的小伙伴也迫不及待开始部署机器学习任务到服务器上。用最快的速度,在服务器上实现了以下操作:在cifar10数据集上,使用resnet50进行图片分类任务)。在最新的cuda10.0+pytorch0.4.1+cuDNN7.3环境上,对2080ti和1080ti两块显卡分别进行了训练+推断的测试。测试的结果如下:

通过以上测试,我们发现,2080Ti相对于1080Ti,将训练耗时缩短了16.16%;将推断耗时缩短了7.7%。

不过,考虑到现有的软件支持还不够成熟,此次的结果只是一个初步的参考。这个结果让我们感到差强人意。当然,后续我们还会有更深度的测试,会把我们开发团队的测试进展,分享给全社区的小伙伴。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

链链资讯

[0:31ms0-3:398ms