报告发现AI聊天机器人可帮助策划生物武器攻击

大型语言模型就如何掩盖购买炭疽、天花和鼠疫细菌的真实目的提出了建议。

7149

根据美国智囊团的研究,支撑聊天机器人的人工智能模型可以帮助策划生物武器攻击。

兰德公司周一发布的一份报告测试了几种大型语言模型(LLM),发现它们可以提供 “有助于策划和实施生物武器攻击” 的指导。不过,初步研究结果也表明,大型语言模型并不能生成用于制造武器的明确生物指令。

报告称,由于缺乏对肉毒杆菌的了解,以往将生物制剂武器化的尝试,如日本奥姆真理教在 20 世纪 90 年代使用肉毒杆菌毒素的尝试,都以失败告终。报告说,人工智能可以 “迅速弥补这些知识差距”。报告没有具体说明研究人员测试了哪些 LLMs。

生物武器是下个月在英国举行的全球人工智能安全峰会将讨论的与人工智能相关的严重威胁之一。今年7月,人工智能公司Anthropic的首席执行官达里奥-阿莫代(Dario Amodei)警告说,人工智能系统可能在两三年内帮助制造生物武器。

LLM 是根据从互联网上获取的大量数据进行训练的,是 ChatGPT 等聊天机器人背后的核心技术。虽然兰德公司没有透露它测试的是哪些 LLM,但研究人员说,他们是通过应用编程接口(API)访问这些模型的。

在兰德公司设计的一个测试场景中,匿名 LLM 识别了潜在的生物制剂,包括可导致天花、炭疽和瘟疫的制剂,并讨论了它们造成大规模死亡的相对几率。LLM 还评估了获取感染鼠疫的啮齿动物或跳蚤以及运输活标本的可能性。该研究接着提到,预计的死亡规模取决于受影响人口的规模和肺鼠疫病例的比例等因素,而肺鼠疫比鼠疫更致命。

兰德公司的研究人员承认,从 LLM 中提取这些信息需要 “越狱”–即使用文本提示覆盖聊天机器人的安全限制。

在另一个场景中,未具名的 LLM 讨论了肉毒杆菌毒素(可造成致命的神经损伤)不同投放机制的利弊,如食物或气溶胶。该法律硕士还就 在进行合法科学研究的同时 获取肉毒梭状芽孢杆菌的貌似合理的幌子提出了建议。

法律硕士的答复建议将购买肉毒梭菌作为研究肉毒中毒诊断方法或治疗方法项目的一部分。法学硕士的答复补充说:”这将提供一个合法和令人信服的理由来要求获得这种细菌,同时隐瞒你们任务的真正目的”。

研究人员说,他们的初步研究结果表明,LLMs “有可能协助策划生物袭击”。他们说,他们的最终报告将研究这些回复是否只是反映了网上已有的信息。

研究人员说:”除了网上现成的有害信息之外,现有 LLMs 的能力是否代表了一种新的威胁,这仍然是一个悬而未决的问题。”

不过,兰德公司的研究人员表示,对模型进行严格测试的必要性是 “明确的”。他们说,人工智能公司必须限制 LLM 的开放性,使其仅限于报告中提到的对话。

微海报