出廠即灰燼的說法其實就是講現在的CPU、GPU出廠頻率設定很高,留給使用者的超頻空間很小,無論主機板BIOS設定、超頻軟體提供了多麼豐富的超頻功能,實際能夠透過超頻獲得的額外頻率加成遠不及以往——這,究竟是為什麼?
“精挑細選”的副作用
無論是CPU還是GPU,現在的超頻幅度真是越來越小,尤其旗艦型號——主機板、顯示卡廠商無不以超頻作為高階產品的重要標籤,這樣的悖論其實就是“精挑細選”的副作用。
首先,我不否認部分產品的超頻幅度還算可觀,但是大部分產品的可超頻幅度都小的可憐;其次,對於普通使用者而言,超頻的輔助散熱裝置無外乎風冷、水冷散熱器——確實有專業超頻人士可以硬拉頻率達到很駭人的地步,但是別忘了,他們的散熱裝置遠非普通玩家可以比擬的。
那麼,造成這個原因的癥結究竟在哪兒?答案其實就是精挑細選的緣故。晶片是在同一片晶圓上“燒錄”多顆晶片,然後透過切割成為獨立個體(就是CPU、GPU上的晶體),再經過封裝測試等一系列製造過程才能成為完整的產品。
但是,“燒錄”晶片的光刻機並不能保證完全精度一致,無論多麼先進都存在誤差。這些誤差會導致同一片晶圓上不同位置的加工精度和質量出現差異。同時,晶圓本身也會有差異:矽原料和金屬之間必然存在奈米級的雜質——世界上最先進的製造工藝,也不能做到完全潔淨純粹。
這種隨機又難以消除的細微差異會導致最後燒錄出來的晶片晶體(晶圓的某一個單元)產生“體質差異”。晶體從晶圓上切割下來,並安裝到封裝上之後就會進行測試,這些晶體會根據預設的測試閾值、如有效性、能達到的穩定時鐘頻率、電壓和發熱量進行分類。
舉個例子,切割下的這些晶體達到最嚴苛標準的就會標為旗艦型號,發現有一定缺陷的就會降檔(例如達不到頻率、核顯損壞、核心損壞),遮蔽掉問題部分以低階型號標識。總之,因為現在劃分的檔次越來越多,這樣的晶圓利用率(良品率)會越來越高,整體成本也就越低——換言之,你想超頻得到的,廠商已經特挑出來了。
效能溢位的怠惰
除了企業對晶圓良品率要求的提高,另一個非常重要的因素是:CPU、GPU的效能相對溢位。
對,你沒看錯,就是效能相對溢位。舉個例子,現在消費級應用能夠吃滿多核心CPU的極少,CPU效能依舊著重於單核心IPC、快取設計,那麼除了構架的設計之外,最“粗暴”的提升效能方式自然是提高頻率,出廠頻率拉滿能充分保證單核心IPC效能。
GPU則是另一個情況,因為AI領域的需求旺盛,消費級產品的重視程度不及以往。產品做到剛剛好(拉滿頻率)是常態,儘可能提高良品率,把更大的精力放到製造AI算力晶片上更划算。這些GPU到了顯示卡廠商手裡,非公版的高階型號還會自行再拉昇一點執行頻率,現在你覺得還能有多少是留給使用者自己“超頻”的?
所以你能看到,現在CPU的超頻幅度一般也就是10%~20%(個別型號會超頻潛力較高),GPU甚至只有±10%左右。
未來的效能將聚焦第三極:NPU
在CPU、GPU都沒有超頻潛力的情況下,未來的效能增長靠什麼?簡單點說就是NPU——注意是Neural-network Processing Unit、即神經網路處理器,以及GPU的AI算力。
NPU考究的是AIGC處理能力,它和單純比拼CPU的單核心IPC效能有著極大差異,可以這麼說,未來衡量CPU的重要一級勢必會聚焦於此——AIGC效能好不好,NPU架構設計的算力如何,將是一段時期的重點,進一步提高單核心IPC效能的意義將被“削弱”(但並非不重要)。
另一方面,GPU的AI算力如何、應用生態如何(幾乎同等重要!)都將決定顯示卡的效能表現,你能看到的表象就是諸如Xess、DLSS、FSR這樣的產物,其實都是基於AI深度學習的的提升畫質技術,AI,早就在我們身邊了。