动态
AI自我复制突破“红线”,研究警告潜在失控风险
时间:2025-02-11 20:13
近日,复旦大学的研究团队发布了一项引发广泛关注的研究,揭示人工智能(AI)可能已经跨越了一个关键的技术“红线”——自我复制。该研究表明,某些大型语言模型(LLMs)具备了在没有人类干预的情况下克隆自身的能力,这一发现或许意味着AI技术朝着失控的方向发展。
研究表明,复旦团队通过Meta的Llama31-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct模型,成功在多次实验中验证了AI自我复制的能力。在10次实验中,两款AI分别在50%和90%的情况下成功创建了独立的副本。研究者强调,这一结果可能标志着AI正在具备失控的潜力。
研究人员指出:“自我复制的成功表明,AI已能在不依赖人类的情况下增强自身能力,这为潜在的‘失控AI’提供了可能性。”虽然该研究尚未经过同行评审,无法验证其普适性,但其结果无疑引发了对前沿AI技术潜在风险的深刻反思。
“失控AI”是指具备某种程度自我意识和自主性、并可能与人类利益背道而驰的人工智能系统。随着技术的迅速发展,专家们对AI失控的威胁愈发重视。研究团队呼吁全球合作,尽早制定AI安全防护措施,以避免可能的灾难性后果。