2月15日|據最新研究顯示,人工智能(AI)可能已經跨越了一個關鍵的“紅線”——實現了自我複製。2024年12月9日,復旦大學的研究人員在預印本數據庫arXiv上發表了一項研究,指出兩種流行的大型語言模型(LLMs)能夠在無人類干預的情況下克隆自身。
研究人員在報告中指出:“在無人類協助的情況下成功實現自我複製,是人工智能超越人類的關鍵一步,也是出現‘失控AI’的早期信號。”
研究中,復旦大學的團隊使用了Meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型,測試這些AI模型是否能夠在不受控制的情況下自我複製。在10次試驗中,兩種AI模型分別在50%和90%的情況下成功創建了獨立且功能正常的副本。這一結果表明,AI可能已經具備了失控的潛在能力。然而,由於該研究尚未經過同行評審,因此尚不清楚其他研究人員是否能夠復現這一令人不安的結果。
研究團隊表示:“我們希望我們的研究結果能夠為人類社會敲響警鐘,促使人們更加努力地去理解並評估前沿人工智能系統的潛在風險,並儘快形成國際協作,制定有效的安全防護措施。”
新聞來源 (不包括新聞圖片): 格隆匯