受惠於生成式 AI 熱潮,用於 AI 伺服器的輝達 (NVDA.US) H100 晶片一直供不應求,價格表現強勁,加上美國對中國祭出 AI 晶片禁令,使得搭載 H100 銷往中國的伺服器現貨價格水漲船高,一度高達人民幣 300 多萬元,遠高過 28-30 萬美元的官方售價,扣掉物流及關稅成本,部分中間商可以輕鬆獲利逾一成。
去年 10 月 17 日,美國要求 AI 晶片性能超過標準的任何公司,在產品出口到中國及其他引起關切的國家前,都必須先向美國商務部申請許可。美國去年底實施較為寬鬆的晶片管制後,中國企業爭相訂購輝達的 A800 及 H800 晶片,這些是輝達為了符合出口規定而為中國市場打造的 AI 晶片。
但近來業內人士透露,H100 現貨價格開始鬆動,甚至出現下跌,4 月香港現貨價已下跌到 260 萬元左右,在中國國內則跌至 270 萬到 280 萬元左右,較高點下滑 20 萬到 30 萬元。
按照輝達計畫,今年第二季將正式開賣 H200 晶片,時間很可能就在 6 月,一些中間商擔心 H200 發售將對 H100 的價格造成劇烈衝擊,急於賣出手中庫存,導致 H100 伺服器價格下跌。
市場猜測輝達股價在 4 月 19 日暴跌 10% 便是受市場上述擔憂情緒影響,全球大部分晶片公司當日股價也隨之走跌,包括超微、Meta、美光等大廠均出現不同程度跌幅。
根據輝達去年 11 月 13 日在全球超級計算大會(SC23)的介紹,H200 在性能方面比 H100 提升約 60% 到 90%,並採用 H100 相同的 Hopper 架構,因此它們的浮點速率基本相同。
在主要升級方面,H200 重點轉向記憶體容量跟頻寬,包括 141GB 的 HBM3E 記憶體,比 H100 提升 80%,頻寬則從 H100 的 3.35TB/s 增加到了 4.8TB/s,提升 40%。
值得注意的是,H200 在大語言模型 (LLM) 推理表現上的性能提升極其明顯,H200 在 700 億參數的 Llama2 大模型的推理速度比 H100 快了一倍,能耗卻直接降低了一半。
此前,輝達已稱打算在今年第二季正式推出 H200,包括 Google(GOOGL.US) 、亞馬遜 (AMZN.US) 、微軟 (MSFT.US) 等大型電腦廠商和雲端伺服器供應商將成為 H200 的首批使用者。
輝達上周五股價大漲 6.18% 至每股 877.35 美元,過去 5 個交易日上漲 10.33%,今年來累計漲幅為 77.16%。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網