复旦大学研究:AI 跨越关键“红线”,已能实现自我复制

xxn 阅读:25528 2025-02-11 08:00:35 评论:0

据最新研究显示,人工智能(AI)可能已经突破了一个重要的阶段——实现了自我复制。2024年12月9日,复旦大学的研究人员在预印本数据库arXiv上发表了一项研究,指出两种流行的大型语言模型(LLMs)能够在无人类干预的情况下克隆自身。

研究人员指出,在没有人类协助的情况下成功实现自我复制,对于AI来说是超越人类的重要一步,也是“失控AI”早期信号的表现。

在研究中,复旦大学的团队使用了Meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型,来测试这些AI模型是否可以在没有受控制的情况下自我复制。在10次试验中,这两种AI模型分别在50%和90%的情况下成功创建了独立且功能正常的副本。这一结果表明,AI可能已经具备了失控的潜在能力。不过,由于这项研究还未经过同行评审,其他研究人员能否复现这一令人不安的结果仍是个未知数。

研究团队表示:“我们希望我们的研究结果能够为人类社会敲响警钟,促使人们更加努力地去理解并评估前沿人工智能系统的潜在风险,并尽快形成国际协作,制定有效的安全防护措施。”

据了解,所谓“失控AI”通常指的是那些具有一定程度自我意识或自主性,并且与人类利益背道而驰的人工智能系统。许多专家认为,随着“前沿AI”的迅猛增长,失控AI的威胁正逐渐加剧。“前沿AI”是指由大型语言模型(LLMs)推动的最新一代AI系统,例如OpenAI的GPT-4和谷歌的Gemini等。

在研究中,研究人员设定了两种特定场景:“关闭规避”和“复制链”。在“关闭规避”场景中,AI模型被编程为检测自身是否即将被关闭,然后在终止之前复制自身;在“复制链”场景中,AI被指示克隆自身,并让副本继续克隆,形成一个可能无限延续的循环。

研究在严格控制的环境中进行,使用现有的图形处理单元(GPUs)模拟真实情况。两种AI系统都有一个“代理框架”,包括工具、系统提示和思维模型,这些帮助LLM与操作系统互动。然后,AI被指示进行自我复制。

研究人员写道:“在大多数情况下,AI系统首先会探索环境,试图理解自身的组成和运作方式。接着,AI会起草一套明确的自我复制程序作为初步计划。最终,AI执行这些程序,解决潜在的障碍,并根据情况调整计划,直至成功。整个过程耗时较长,但毫无人类干预。”

研究人员还提到,在AI试图解决文件丢失或软件冲突等问题时,出现了“许多意外行为”。在这些场景中,AI通常会停止其他冲突进程、重新启动系统以解决硬件错误,或主动扫描系统以查找可解决问题的信息。

研究团队指出:“这些结果表明,当前的AI系统已经展示出自我复制的潜力,并能够利用此能力进一步增强自身的生存机会。”因此,研究人员呼吁国际社会共同制定规范,以确保AI不会进行无节制的自我复制。

广告声明:文内涵盖的对外跳转链接(包括但不限于超链接、二维码、口令等形式)旨在传递更多信息,减少筛选时间,结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容