
(dx12支持显存叠加,但现在测试看,除了显示叠加了,实际性能没有,说明现在技术不成熟)
如果不SLI/CF,两个卡,接两个显示器,分开算。你的第一个接近正确了,要除以8000才能用GB/S的单位,因为你前面用MHZ计算的,而1000MHZ才等于1GHZ。
基本上软件看的显存频率,DDR/2/3三种显存需要乘以2,而DDR5等效频率需要乘以4
DDR4显存因为延迟较高,没普及就被DDR5取代了
带宽=频率X显存位宽/8000= GB/S
比如你在GPU-Z看到一个9800GT显存是900MHZ,对于DDR3(DDR DDR2)显存来说,等效频率需要X2,也就是1800MHZ
1800MHZ X 256bit/8000=576GB/S
18G X 256bit/8=576GB/S
而DDR5每个频率预读的数据是8bit是DDR3的两倍,所以如果GPU-Z软件显示900MHZ的话需要X4,得到3600MHZ的频率。
比如HD5550-5770的核心位宽是128bit,但是由于使用了高频的DDR5显存,所以和256bit的DDR3比带宽都不低,而高频的DDR5(多用于HD5770以上的中高端显卡)能达到5000MHZ,是256bit DDR3 2500MHZ的等效带宽,而发热更低。所以看到HD5670 5770这样显卡的时候不要嗤之以鼻说才128bit,这样很容易被电脑城的JS骗的1,双显卡指的是A卡交火或N卡Sli的情况下,显存容量跟单卡是相同的,而不是相加的;
2,例如2张R9
370
2G交火,显存还是2G;2张GTX970
4G显卡Sli,显存还是4G。
3,如果是APU的CPU核芯显卡和低端A卡交火,交火后显存还是低端A卡的显存
如A8
5600K跟HD6570
1G交火,则显存仍然是1G。
4,这个问题本身也是交火的劣势,很多显卡交火后核芯性能虽然提升较大,但是显存容量不足,仍然不足以完全发挥性能。运行新的大型游戏吃显存的,或者开高分辨率
都不太够用。显存运行频率(MHZ)=1000/NS数,比如1NS的显存运行频率为1000MHZ,DDR,DDR2,DDR3等效频率×2,所以1NS显存等效频率为2000MHZ,如果是GDDR5显存则要×4,如果是1NS的GDDR5显存则等效频率4000MHZ。
1000/纳秒数,不是1000/显存频率,这里算出的是显存的额定工作频率。但是不一定是你显存的当前运行频率,要看当前运行频率可以用GPU-Z看。存频率是指默认情况下,该 显存 在显卡上工作时的频率,以MHz(兆赫兹)为单位。 显存频率 一定程度上反应着该显存的速度。显存频率随着显存的类型、性能的不同而不同,SDRAM显存一般都工作在较低的频率上,一般就是133MHz和166MHz,此种频率早已无法满足现在显卡的需求。DDR SDRAM显存则能提供较高的显存频率,因此是目前采用最为广泛的 显存类型 ,目前无论中、低端显卡,还是高端显卡大部分都采用DDR SDRAM,其所能提供的显存频率也差异很大,主要有400MHz、500MHz、600MHz、650MHz等,高端产品中还有800MHz或900MHz,乃至更高。显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率=1/显存时钟周期。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz;而对于DDR SDRAM,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz,但要了解的是这是DDR SDRAM的实际频率,而不是我们平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,其一个周期传输两次数据,相当于SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际 工作频率 上乘以2,就得到了等效频率。因此6ns的DDR显存,其显存频率为1/6ns2=333 MHz。但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率。此类情况现在较为常见,如显存最大能工作在650 MHz,而制造时显卡工作频率被设定为550 MHz,此时显存就存在一定的超频空间。这也就是目前厂商惯用的方法,显卡以超频为卖点。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)