<匯港通訊> 據内媒報道,字節跳動豆包大模型團隊開源針對 MoE (混合專家)架構的關鍵優化技術COMET,可將大模型訓練效率提升1.7倍,成本節省40%。據悉,該技術已實際應用於字節的萬卡集群訓練,累計幫助節省了數百萬 GPU 小時訓練算力。#字節跳動 #大模型 (CW)