智通財經APP獲悉,有媒體援引知情人士透露的消息報道稱,全球AI行業無比期待的英偉達(NVDA.US) 下一代AI
GPU架構——“Rubin”架構,可能將提前六個月,即2025年下半年正式發佈。雖然Blackwell架構AI
GPU仍未大規模發貨且被爆出面臨散熱問題,但英偉達似乎堅定加速其AI
GPU發展路線圖,面對AMD、亞馬遜以及博通等AI芯片競爭對手發起的猛烈攻勢,這家“綠色巨人”試圖強化它在數據中心AI芯片市場的絕對主導地位。英偉達當前在該市場堪稱“壟斷”,佔據80%-90%份額。
儘管 Blackwell 架構AI
GPU可能明年第一季度才能在台積電、鴻海、緯穎以及緯創等眾多核心供應商齊心協力之下實現大規模量產,但是隨着谷歌、亞馬遜等雲巨頭自研AI芯片浪潮席捲而來,英偉達現在比以往任何時候都更加致力於在數據中心AI芯片市場中保持主導地位。對於英偉達股東們來説,他們也需要新的催化劑推動英偉達股價向200美元發起衝擊。
包括OpenAI以及微軟在內的眾多AI行業領軍者,以及摩根士丹利等華爾街投行們已經開始討論英偉達下一代架構Rubin的性能將如何強大。一些產業鏈分析人士認為依託共同封裝光學(CPO)技術以及HBM4,加之台積電3nm以及下一代CoWoS先進封裝所打造的Rubin架構AI
GPU堪稱“史無前例的性能”,有可能開啟AI算力全新紀元,競爭對手們可能需要耗費數年時間來進行追趕。
根據產業鏈知情人士透露的消息,英偉達Rubin架構的產品線原定於2026年上半年推出,現已要求供應鏈開啟提前測試工作,力爭提前至2025年下半年正式推出。由於OpenAI、Anthropic、xAI以及Meta等人工智能、雲計算以及互聯網大廠們對於AI訓練/推理算力幾乎無止境的“井噴式需求”,迫使英偉達以更快速度推出性能更高、存儲容量更龐大、推理效率更強大且更加節能的下一代AI
GPU的研發進程。這家綠色巨人試圖加快不同AI GPU架構之間的更新節奏。
雖然英偉達官方未進行回覆,但是從存儲芯片製造巨頭SK海力士(SK
Hynix)上月初透露的可能提前生產交付HBM4的消息來看,關於Rubin消息的真實性非常高。HBM通過3D堆疊存儲技術,將堆疊的多個DRAM芯片全面連接在一起,通過微細的Through-Silicon
Vias(TSVs)進行數據傳輸,從而實現高速高帶寬的數據傳輸,使得AI大模型能夠24小時不間斷地更高效地運行。
據瞭解,SK集團董事長崔泰源在11月初接受採訪時表示,英偉達首席執行官黃仁勛要求SK海力士提前六個月推出其下一代高帶寬存儲產品HBM4。作為英偉達H100/H200以及近期開始生產的Blackwell
AI
GPU的最核心HBM存儲系統供應商,SK海力士一直在引領全球存儲芯片產能競賽,以滿足英偉達、AMD以及谷歌等大客户們滿足對HBM存儲系統的爆炸性需求以及其他企業對於數據中心SSD等企業級存儲產品的需求,這些存儲級的芯片產品對於處理海量數據以訓練出愈發強大的人工智能大模型以及需求劇增的雲端AI推理算力而言堪稱核心硬件。
在關於Rubin的最新消息出爐之前,英偉達目前正處於“一年一代際”的AI GPU架構更新節奏中,這意味着該公司每年都會發布新一代架構的數據中心AI
GPU產品,這就是為什麼Ampere、Hopper和Blackwell架構之間都有長達一年的間隔;然而,對於Rubin,這種情況可能徹底改變。
知情人士並未提及英偉達為何要提前推出Rubin的具體原因,只是將其歸類為一項商業舉措。然而,如果我們從供應鏈角度來看,Rubin預計將採用台積電的3nm工藝,以及存儲領域具有劃時代意義的HBM4,加上可能是全球首個採取CPO+硅晶圓封裝的數據中心級別AI芯片,這些最關鍵的核心環節要麼已經開始準備——比如台積電3nm準備就緒、HBM4可能已經處於測試環節,要麼已確定能夠實現量產,比如CPO封裝。因此,鑑於英偉達可能已經為Rubin配備了所有“工具”,黃仁勛可能認為在2026年發佈Rubin不太合適。
根據英偉達在GTC披露的產品路線,Blackwell升級版——“Blackwell Ultra”產品線,即“B300”系列的首次亮相,英偉達計劃在2025年中期發佈該系列。因此,我們可能將看到Blackwell
Ultra與Rubin發佈的時間點非常靠近。目前發佈策略尚不明確,但Wccftech以及The
Verge的一些專業人士表示,英偉達可能將重點放在Rubin架構,將B300系列視為過渡產品。按照英偉達慣例,預計該公司很快會將發佈更多更新,可能是在2025年國際消費電子展(CES)前後。
Blackwell已經非常強大! 但Rubin,或將開啟AI算力新紀元
Blackwell架構AI
GPU系列產品,毫無疑問是當前AI算力基礎設施領域的“性能天花板”。在Blackwell出爐前,Hopper也一度被視為算力天花板,而在CPO以及3nm、相比於HBM3E性能大幅增強的HBM4,加之下一代CoWoS加持下,暫不考慮Rubin本身的基礎架構升級,Rubin芯片性能可能已經強到無法想象。對於英偉達業績預期來説,Rubin或將推動華爾街大幅上調2026年基本面展望。
作為基準對標,Blackwell性能已經比Hopper強勁得多,在MLPerf
Training基準測試中,Blackwell在GPT-3預訓練任務中每GPU性能比Hopper大幅提升2倍。這意味着在相同數量的GPU下,使用Blackwell可以更快地完成模型訓練。對於Llama
2
70B模型的LoRA微調任務,Blackwell每GPU性能比Hopper提升2.2倍,這表明Blackwell在處理特定高負載AI任務時具備更高的效率。MLPerf
Training v4.1
中,圖形神經網絡以及Text-to-Image基準測試方面,Blackwell每GPU性能比Hopper分別提升2倍以及1.7倍。
根據知情人士披露的消息,以及摩根士丹利調研後的產業鏈報告,Rubin架構AI GPU 計劃採用台積電最新3nm 技術、CPO 封裝以及
HBM4;Rubin的芯片尺寸或將是Blackwell的近兩倍,Rubin可能包含四個核心計算芯片,是Blackwell架構的兩倍。知情人士透露,3nm Rubin
架構預計將在2025年下半年進入流片階段,較英偉達之前預期時間提前半年左右。
根據目前披露出的消息來看,Rubin架構的最大亮點無疑是共同封裝光學(CPO)。Hopper與Blackwell互連技術更多仍依賴改進之後的 NVLink
以及芯片互連技術,而不是直接通過光學方式進行數據傳輸。
Rubin大概率是全球首個採取CPO+硅晶圓先進封裝的數據中心級別AI芯片,CPO所帶來的數據傳輸效率以及能耗效率,或將相比於NVLink
呈現出指數級飛躍。在CPO封裝體系中,光學元器件(如激光器、光調製器、光纖和光探測器)直接與核心計算芯片(如GPU或CPU)封裝在一起,而不是將光學器件單獨放置在芯片外部,這些光學元件的作用是傳遞光信號,替代傳統的電信號傳輸方式,進行芯片間數據的高速傳輸,大幅減少電子數據從芯片到光學接口之間的信號損耗,指數級提高數據吞吐量的同時還能大幅降低功耗。
通過光信號的高速傳輸,CPO能提供比傳統電信號傳輸更高的數據帶寬,這對於人工智能、大數據以及高性能計算(HPC)應用中,尤其是在需要大規模並行計算時至關重要。因此CPO封裝被認為是英偉達Rubin架構AI
GPU的核心亮點,它將為下一代AI和高性能計算提供極高的帶寬、低延遲和大幅提升的能效。在業內人士看來,由於CPO技術能夠更大程度解決數據傳輸速率和功耗問題,它的應用將進一步推動英偉達在數據中心AI芯片市場的領先地位。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 智通財經