2月15日|据最新研究显示,人工智能(AI)可能已经跨越了一个关键的“红线”——实现了自我复制。2024年12月9日,复旦大学的研究人员在预印本数据库arXiv上发表了一项研究,指出两种流行的大型语言模型(LLMs)能够在无人类干预的情况下克隆自身。
研究人员在报告中指出:“在无人类协助的情况下成功实现自我复制,是人工智能超越人类的关键一步,也是出现‘失控AI’的早期信号。”
研究中,复旦大学的团队使用了Meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型,测试这些AI模型是否能够在不受控制的情况下自我复制。在10次试验中,两种AI模型分别在50%和90%的情况下成功创建了独立且功能正常的副本。这一结果表明,AI可能已经具备了失控的潜在能力。然而,由于该研究尚未经过同行评审,因此尚不清楚其他研究人员是否能够复现这一令人不安的结果。
研究团队表示:“我们希望我们的研究结果能够为人类社会敲响警钟,促使人们更加努力地去理解并评估前沿人工智能系统的潜在风险,并尽快形成国际协作,制定有效的安全防护措施。”
新闻来源 (不包括新闻图片): 格隆汇