唐宁街试图与世界各国领导人就人工智能风险达成一致声明

措辞将构成下月人工智能峰会的公报,届时可能无法就技术审查组织达成一致意见。

4000

在敲定下月举行的人工智能安全峰会的议程时,苏纳克的顾问们正试图在世界各国领导人之间就一份警告人工智能风险的声明达成一致。

唐宁街(Downing Street)的官员们一直在世界各地与来自中国、欧盟和美国的同行们交谈,努力就为期两天的会议公报中的用词达成一致。

但他们不太可能同意成立一个新的国际组织来审查尖端的人工智能,尽管英国有意让政府的人工智能工作组在全球发挥作用。

苏纳克的人工智能峰会将就人工智能模型的风险发表一份公报,提供白宫斡旋的安全指导方针的最新情况,最后,”志同道合 “的国家将就国家安全机构如何审查最危险的技术版本展开辩论。

根据《卫报》看到的一份议程草案,11 月 1 日和 2 日在布莱切利公园举行的峰会最后一天还将讨论针对可能对人类生命构成威胁的尖端人工智能开展某种形式国际合作的可能性。

草案提到要建立一个 “人工智能安全研究所”,以便对前沿人工智能模型(该术语指最先进的技术版本)进行与国家安全相关的审查。

不过,上周首相峰会代表淡化了建立这样一个组织的说法,不过他强调,在管理前沿人工智能风险方面,”合作是关键”。

马特-克利福德(Matt Clifford)上周在前身为 “推特 “的 “X “网站上发文写道:”这并不是要成立一个新的国际机构。我们认为,大多数国家都希望在这一领域发展自己的能力,尤其是评估前沿模型的能力。

迄今为止,英国在前沿人工智能进程中处于领先地位,在科技企业家伊恩-霍加斯(Ian Hogarth)的领导下成立了一个前沿人工智能工作组。英国副首相奥利弗-道登上个月表示,他希望该工作组 “能够发展成为一个永久性的体制结构,在人工智能安全方面提供国际建议”。克利福德上周宣布,约有 100 人将参加此次峰会,他们来自世界各地的内阁部长、公司首席执行官、学者和国际民间社会的代表。

根据议程草案,峰会包括第一天的三轨讨论,即讨论与前沿模式相关的风险、讨论如何降低这些风险以及讨论这些模式带来的机遇。

随后,各国代表团将签署简短公报,就前沿模式的风险和机遇达成共识。

参加峰会的公司(预计包括 ChatGPT 开发商 OpenAI、谷歌和微软)随后将公布详细情况,说明它们是如何遵守 7 月份与白宫达成的人工智能安全承诺的。这些承诺包括在人工智能模型发布前对其进行外部安全测试,并在这些系统运行后对其进行持续审查。

根据《政治家》(Politico)上周的一篇报道,白宫正在更新自愿承诺–涉及安全、网络安全以及如何将人工智能系统用于国家安全目的–并可能在本月公布。

根据议程草案,第二天将举行一次规模较小的会议,与会者约20人,包括 “志同道合 “的国家,会议将讨论五年后人工智能的发展方向,以及与可持续发展目标相关的积极的人工智能机遇。其中包括关于安全研究所的讨论。

克利福德在其关于 X 的主题中表示,英国仍然热衷于与其他国家在人工智能安全方面开展合作。

“他写道:”合作是确保我们能够管理前沿人工智能风险的关键–与民间社会、学术界、技术专家和其他国家合作。

一位政府发言人说: “我们已经非常清楚,这些讨论将涉及探索人工智能安全研究的潜在合作领域,包括评估和标准。

“关于这项工作的国际讨论已经在进行中,并取得了良好的进展,包括讨论我们如何能够跨国家、跨公司以及与技术专家合作,对前沿模型进行评估。有许多不同的方法可以做到这一点,我们期待着在11月的峰会上召开这一对话。”

微海报