如果大家有关注今年的笔记本电脑市场,可能就会听说过这样一个传言。那就是某品牌在设计新款游戏本时,私自“突破”了NVIDIA的功率限制,将RTX5090移动版GPU的供电加到了200W以上,并因此跑出了惊人的、其他所有品牌都无法达到的性能。但也正因如此,导致其遭受到“制裁”,不仅错过了首发窗口期,后续量产产品也被迫改回“正常”的供电设计,甚至引发了相关芯片厂商对整个行业的一轮“大检查”。
有意思的是,在我们三易生活首次听到这个消息时,正好在参加英特尔酷睿Ultra 200HX系列的发布活动,该品牌的新款笔记本电脑也“恰好”缺席了此次活动的展示环节。所以,这件事当时确实给我们留下了深刻的印象。
起初,我们曾觉得此事本身并没有什么大不了的,因为在笔记本电脑的狭小空间里,给显卡增加超过设计上限的功率,确实有可能导致潜在的质量问题(比如使用一两年后可能造成显卡脱焊、花屏)。而且就算短期内可以换来更好的性能,但站在芯片厂商的角度来说,不愿意承担这个风险也是完全可以理解的。
但如果有人能够证明,这种“加功耗”的操作并无质量风险、且性能受益极大呢?那么事情就会变得有趣起来了。
就在近日,海外相关技术论坛的一篇帖子引起了轩然大波。有一位用户声称,他成功地通过修改笔记本电脑主板上的分流电阻,将自己的RTX5090供电上限从默认的175W增加到了225W。经过测试显示,修改、增加供电之后的移动版RTX5090运行状况良好,实测性能超过了桌面版的RTX4080,而且完全没有表现出不稳定的迹象。
就在这篇帖子之后,有更多的极客用户开始站出来,分享他们通过修改电路,给NVIDIA RTX移动版显卡增加功耗的经历。
有人声称,他已经使用一台经过供电改装的RTX4090笔记本电脑超过一年时间,且没有发现任何质量问题。还有人晒出了经过更激进“改装”的RTX4090笔记本,不仅将显卡供电增加到了270W,甚至还配上了水冷,并且26600分的3DMARK TimeSpy成绩,也确实大幅高于“普通”移动版RTX4090的水平(20000分不到)。
很显然,通过这些人的经历,我们至少可以知道两件事。一是给近年来NVIDIA给旗舰移动版显卡设定的175W功耗上限,确实严重限制了其性能发挥。二是给旗舰级移动版显卡增加功耗,可能确实还比较“安全”。
毕竟大家要知道,这些高端的RTX移动版独显(比如RTX5090、RTX4090),它们的芯片其实与桌面版RTX5080、RTX4080是同样的核心。既然后者能在桌面端承受450W级别的供电设计,那么移植到笔记本电脑里,自然没有道理只能耐受175W的功耗。
既然如此,一个很合理的问题就再一次被摆上了台面。既然增加功耗被证明“安全有效”,为什么NVIDIA还要严格限制相关厂商,非得要他们把旗舰移动版GPU的功耗和性能“压制”得死死的呢?
其实这里面涉及到了多个方面的问题,其中既有技术层面的原因,也有市场角度的考量。
先来说技术层面。正如前面提及的那样,如今的这些笔记本电脑旗舰级独显芯片,本质上其实与台式机显卡是共用核心设计,比如RTX5090移动版和RTX5080桌面版,就都是基于GB203这颗芯片而来。
但是大家都知道,桌面版RTX5080的典型TDP是360W、最高频率大概在2600-2900MHz,而移动版RTX5090则可以仅用175W的峰值TDP就跑到2700MHz左右。很显然,桌面版显卡增加了一倍的功耗,换来的性能增益却远没有100%。那么,这是为什么呢?
这就涉及到两个方面的原因,首先是因为对于半导体芯片来说,当频率达到一定程度之后,再想要继续增加,所带来的功耗上涨往往就会变得极其剧烈。一个典型的例子,就是大家熟悉的CPU超频。为了多10%或20%的峰值主频,往往要面对50%、甚至是100%的功耗增长,这就是半导体芯片的“自然之理”。
其次,虽然台式机和笔记本电脑的“独显”如今往往会使用相同的芯片,但实际上为了能够在笔记本电脑上尽可能保证能效表现,其所使用的GPU芯片在体质上还是会经过“挑选”,表现就是它们可以在更低的供电条件下跑到更高的频率。
但是当以上两个条件叠加起来之后,就造成了一个“反向”的尴尬结果。那就是对于笔记本电脑里的移动端GPU来说,因为它在供电受限的情况下已经能跑到一个很高的频率,所以给它再去大幅增加功耗,最终换来的(额外)性能提升,反而可能没有台式机的显卡那么明显。
就拿前面举的那个270W“魔改”例子来说,它比默认设计多了54%的功耗,但最终也只是换来了不到30%的理论性能提升。换句话说,目前大家所看到的那个175W的功耗限制,很可能已经是芯片功耗和频率的最佳平衡点,再去额外增加供电,当然能够换来更好的性能,但提升幅度或许没有大家想象的那么明显。
其次从产品层面来说,NVIDIA之所以要给如今的移动端旗舰显卡限制175W的功耗墙,也可能是为了要确保整体的市场“卖相”。
这是什么概念呢?大家要知道,最近这几年的GPU芯片与过去很大的一点不同,就在于它们其实是没有一个“统一的”峰值频率的。不管是台式机、还是笔记本电脑的独显,其实都会根据实际的负载、散热、供电、还有芯片的体质,在使用过程中实时地自动超频。
在台式机上这不是什么问题,因为厂商可以控制不同级别显卡的供电、散热用料。比如同样是RTX5080,同一个品牌的“旗舰款”因为PCB和散热用料更好,跑游戏时的实际频率就会比“丐版”要高一些。
但到笔记本电脑上,NVIDIA确实就有必要阻止厂商一味地去提升显卡的供电设计了。一方面,这是因为如今的芯片都存在着“体质”问题。打个比方,在功耗受限的(175W)条件下,可能所有品牌、所有批次的RTX5090移动版显卡,都会表现出差不多的性能水准。但如果放开功耗限制,万一某个批次的芯片能够在200W供电下明显频率更高、可另一个批次对于增加的供电“不敏感”,就会出现产品体验上的不稳定。很显然,这会被消费者认为是“品质抽奖”,绝对不利于市场上的销售。
另一方面,大家都知道,最近这几年会使用高端独显的笔记本电脑,已经不只是“游戏本”了,还包括一些更薄、造型更简约“轻薄全能本”。这些产品本身的散热性能、供电能力本就逊色于游戏本,如果不给厂商限制显卡芯片的功耗上限,允许他们“自定义”,那就必然会导致游戏本里的独显芯片因为供电充足,而在性能表现上要远远超越“全能本”。
这会带来什么问题呢?简单来说,这就可能会让轻薄全能本搭配顶级移动版显卡的设计,变得毫无市场竞争力。比如一款轻薄的RTX5090笔记本,实际性能有可能还不如一台厚重、且价格低得多的RTX5070游戏本。
很显然,这最终将会导致厂商拒绝在轻薄全能本上使用高端独显芯片。可站在显卡厂商的角度来说,这就等于是芯片的“销路”受限。所以他们自然也就有理由严格限制移动版显卡的功耗上限,从而确保不同形态设备上的相同型号独显,都能有差不多的性能表现。
【本文部分图片来自网络】