Perplexity AI 創辦人史里尼瓦斯 (Arvin Srinivas) 接受《CNBC》專訪時表示,DeepSeek 在資源限制條件下的創新顛覆了傳統 AI 訓練的「演算力至上」邏輯。DeepSeek 透過優化混合專家模型 (MOE),解決了長期困擾產業的數值不穩定性問題,例如損失峰值的頻繁出現,其技術方案無需依賴額外基礎設施即可穩定訓練流程,這種突破「足以被 Meta 借鏡到 Llama 4」。
此外,該團隊在 GPU 記憶體受限的挑戰下,開創性採用 8 位元浮點訓練,動態平衡高精度與低精度計算,僅用 60 天完成模型更新,並支援低成本重複訓練;而美國主流仍停留在 16 浮點訓練階段。
更令人矚目的是,DeepSeek 以極低資源消耗打造出性能相當於 GPT-4o 的模型,API 價格便宜 10-15 倍,速度達每秒 60 tokens,部分基準測試甚至接近或超越頂級閉源模型。這種效率革命不僅驗證了「必要是發明之母」的創新邏輯,更透過開源策略挑戰了「中國僅擅長複製」的刻板印象,其開源的 405B 模型品質接近 GPT-4,遠超美國 70B 級本地運行模型。
DeepSeek 的技術透明化,如公開 14.8 兆 tokens 訓練資料與開源生態佈局,可能引發全球開發者倒戈,威脅美國閉源模式的壟斷地位,甚至倒逼 Meta (META.US) 等公司調整技術路線,重塑產業競爭格局。
在中美人工智慧競賽方面,史里尼瓦斯指出這場競爭的核心是效率創新與生態話語權之爭,而非單純的技術封鎖或演算力比拼。中國受限於低端 GPU 如 H800,被迫透過演算法最佳化、資料品質提升和工程實踐彌補硬體不足,這種「資源約束倒逼創新」的路徑不僅培養出高效研發團隊,更形成「技術透明化—全球協作—生態影響力」的正向循環。
相較之下,美國過度依賴高階 GPU 如 H100 和天價訓練預算,暴露出閉源模式的脆弱性;DeepSeek 以 500 萬美元就達到相似效果,直接衝擊資本密集型路徑的可持續性。更深遠的風險在於,若中國主導開源生態,美國將失去技術標準話語權,同時面臨「價值衝突」:中國模型需遵守內容審查規則。
短期來看,美國在通用大模型如 GPT-4 仍具優勢,但中國透過垂直領域創新如數學推理、多模態優化持續縮小差距;長期而言,開源模型或超越閉源,企業競爭焦點將轉向應用層體驗而非模型訓練,勝負取決於誰能高效整合開源生態與市場需求。史里尼瓦斯警告,若美國繼續依賴「阻止中國技術發展」的策略,將無法阻擋其透過自主創新追趕,唯有正視開源趨勢、重構創新路徑,才能在生態主導權爭奪中保持競爭力。
(美股為即時串流報價; OTC市場股票除外,資料延遲最少15分鐘。)新聞來源 (不包括新聞圖片): 鉅亨網