今天蜗牛和大家聊聊显卡的功耗问题。

其实关于显卡的功耗,很多人都关注到了,也有人发出过疑问,为啥工艺马上都5nm了(40系),功耗还越来越高,不是应该工艺越新,架构越新,显卡的功耗慢慢的降低吗?

但是现在包括显卡在内的电子产品是不是与很多用户的想法背道而驰,架构越新,功耗越大。

最适合入手的入门显卡(当初350W的显卡被叫人家战术核显卡)(1)

不知道各位DIY玩家还记得当初的GTX690,GTX690是NVIDIA在2012年推出的28nm工艺开普勒构架双核心显卡,也就是说在一块显卡上集成了两颗GTX680的GPU核心,除了性能,这卡最大的特色就是功耗非常大,满载功耗更是超过350w。

最适合入手的入门显卡(当初350W的显卡被叫人家战术核显卡)(2)

再加上网上的“误报”,GTX690更是坐实了战术核显卡的名号。

时间来到2022年,10年的时间,英伟达将工艺从28nm进步到5nm,架构从开普勒发展到阿达·洛夫莱斯架构,科技带来的进步是肉眼可见的。

但是即将到来的卡皇RTX4090的满载功耗超过450w,甚至爆料称高达600W,蜗牛感觉600W还是很可能啊,毕竟3090TI性能全开都500w以上。

最适合入手的入门显卡(当初350W的显卡被叫人家战术核显卡)(3)

这是不是与我们传统的工艺进步带来的功耗下降想法完全不同?

今天蜗牛就和大家聊聊这话题?

1、工艺精进是不是带来功耗的下降

这话毫无疑问,那是必须的,随着工艺的精进,电子芯片的功耗是下降的,但是这个也有限制,那就是同性能。

就拿台积电来说,台积电表示,与7nm工艺相比,同样的性能下5nm工艺功耗降低30%,同样的功耗下性能提升了15%。

最适合入手的入门显卡(当初350W的显卡被叫人家战术核显卡)(4)

同样的产品,如果你是用7nm和5nm性能一样的情况下,5nm可以节省30%的功耗。

2、性能提升和功耗降低失衡

前面说了,工艺进步肯定会带来功耗降低的,但是是同等性能情况下,举个例子,RTX4090相比RTX3090如果性能一样,功耗可以低30%,但是RTX4090因为工艺提升,相同面积的GPU核心可以容纳更多的晶体管,于是RTX4090性能比RTX3090性能提升100%,这时候工艺提升带来的功耗降低就和性能提升带来的功耗增加失衡了,于是功耗也增加了。

3、显存数量功耗大增

GTX690拥有4G GDDR5显存,而RTX3090TI就拥有24G GDDR6X的显存,GDDR6X的性能相比GDDR5翻了很多倍,但是功耗也增加了不少,更不要说是24G的显存了,甚至有用户测出来RTX3090 350w满载功耗,光显存就120w。

最适合入手的入门显卡(当初350W的显卡被叫人家战术核显卡)(5)

其实说到这,今天讨论的问题基本也就完成了,同等性能下最新的5NM不知道比28nm功耗降低了多少倍,甚至130w的RX6500XT性能比之前的350w的GTX690性能更强。

但是工艺提升,芯片面积基本没什么变化,这意味着可以堆放更多的晶体管或者CUDA核心来增加性能,每代工艺提升降低30%同性能功耗,每代提升都得五六十,甚至双倍提升,这功耗怎么可能降低。

另外显存颗粒也是耗电大户,10年前你敢想象有几十个G的显存吗,现在都24了,未来还会更多。

换句话说就是科技发展带来的功耗降低,满足不了科技厂商对性能的要求,这就是为啥工艺越来越新,反而功耗越来越高的原因。

,