当下英国的人工智能发展情况

文章目录

  • 为什么是英国?为什么是现在?
  • “生存风险”
  • 商业前景

GettyImages-1429997322

人工智能的前景和陷阱是最近的热门话题。有人说,人工智能将拯救我们: 它已经在解决有害的健康问题、修补教育中的数字鸿沟以及做其他好事。也有人担心它在战争、安全、错误信息等方面带来的威胁。它也成为普通人疯狂追捧的消遣方式,并在商业领域敲响了警钟。

人工智能的作用很大,但它还无法取代满屋子人叽叽喳喳的吵闹声。本周,众多学者、监管者、政府领导、初创企业、大型科技公司以及数十家盈利和非盈利组织齐聚英国,就人工智能展开讨论和辩论。

为什么是英国?为什么是现在?

本周三和周四,英国将在布莱切利公园(Bletchley Park)举办 “人工智能安全峰会“,这是英国首次举办此类活动。

峰会筹划数月,旨在探讨人工智能带来的一些长期问题和风险。峰会的目标是理想化的,而不是具体的:”共同理解前沿人工智能带来的风险和采取行动的必要性”、”就前沿人工智能安全开展国际合作的前瞻性进程,包括如何最好地支持国家和国际框架”、”各组织应采取适当措施提高前沿人工智能的安全性 “等等。

这种高层次的愿望也反映在与会者的身份上:政府高级官员、行业领袖和该领域的著名思想家都将出席会议。(最新迟到者:埃隆-马斯克(Elon Musk);据报道,拜登总统、贾斯汀-特鲁多(Justin Trudeau)和奥拉夫-肖尔茨(Olaf Scholz)也将出席)。

听起来很独特,确实如此: 峰会的 “金门票”(伦敦科技创始人兼作家阿齐姆-阿扎尔如是描述)供不应求。对话将是小范围的,而且大多是封闭式的。因此,由于大自然憎恶真空,一系列其他活动和新闻发展都围绕着峰会展开,将许多其他问题和利益相关者联系在一起。这些活动包括在英国皇家学会(英国国家科学院)举行的会谈;在多个城市举行的大型 “人工智能边缘” 会议(AI Fringe);许多特别工作组的公告等等。

剑桥大学明德鲁技术与民主中心(Minderoo Centre for Technology and Democracy)执行主任吉娜-内夫(Gina Neff)上周在英国皇家学会举行的一次关于科学与安全的晚间小组讨论会上说:”我们将扮演好我们已经处理好的峰会的角色。换句话说,在布莱切利举行的活动将做它该做的事,而不在活动范围内的事情将成为人们集思广益讨论其他问题的机会。”

内夫的小组讨论就是一个很好的例子: 在英国皇家学会座无虚席的大厅里,她与人权观察组织的代表、大型工会 Unite 的国家官员、专注于全球南部地区科技公平问题的智库 Tech Global Institute 的创始人、初创公司 Stability AI 的公共政策负责人以及剑桥大学的计算机科学家坐在一起。

与此同时,人工智能边缘组织可以说是名存实亡。由于布莱切利峰会是在一周中的同一地点举行,而且来宾名单非常有限,了解讨论内容的机会也同样有限,因此 AI Fringe 已经迅速蔓延到并充实了布莱切利峰会的议程,无论是从字面上还是从象征意义上来说,都是围绕着布莱切利展开的。这次活动不是由政府组织的,而是由一家名为 Milltown Partners 的公关公司(该公司曾代表 DeepMind、Stripe 和风险投资公司 Atomico 等公司)组织的,有趣的是,该公司曾代表 DeepMind、Stripe 和风险投资公司 Atomico 等公司,活动持续了整整一周,在全国多个地点举行,能买到门票的人可以免费亲自参加(许多活动的门票都已售罄),其中许多部分还提供流媒体服务。

尽管活动丰富多彩,而且迄今为止我们自己参加的活动也充满了善意,但人工智能的讨论,尽管刚刚起步,却仍然如此分裂,这让人们感到非常痛心:一个是权力机构的会议(大多数会议只对受邀嘉宾开放),另一个是我们其他人的会议。

今天早些时候,由 100 名工会和维权人士组成的团体致信首相,称政府不让他们参与布莱切利公园的活动,是在 “挤压 “他们在对话中的声音。(他们可能没有拿到金门票,但他们的反对方式绝对是明智的: 该组织通过与《金融时报》等国内最精英的经济刊物分享这封信,将其公之于众)。

“被冷落的不仅仅是普通人。”牛津大学哲学系讲师卡丽莎-韦利斯(Carissa Véliz)在今天的人工智能边缘活动中说:”我认识的人中没有一个受到邀请。”

有些人认为精简是有好处的。

人工智能研究科学家马里乌斯-霍布哈恩(Marius Hobbhahn)是阿波罗研究公司(Apollo Research)的联合创始人和负责人,该公司正在开发人工智能安全工具。

从更广泛的意义上讲,峰会已经成为一个锚,只是目前正在进行的更广泛对话的一部分。上周,英国首相苏纳克(Rishi Sunak)表示打算在英国成立一个新的人工智能安全研究所和一个研究网络,以便花更多时间和心思研究人工智能的影响;以本吉奥(Yoshua Bengio)和杰弗里-辛顿(Geoffrey Hinton)为首的一批著名学者发表了一篇名为《在快速进步的时代管理人工智能风险》的论文,集体投入到这一领域;联合国宣布成立自己的特别工作组,探讨人工智能的影响。今天,美国总统乔-拜登发布了美国自己的行政命令,以制定人工智能安全标准。

“生存风险”

最大的争论之一是,人工智能带来 “生存风险” 的观点是否被夸大了,甚至可能是有意为之,以消除对更直接的人工智能活动的审查。

剑桥大学系统数学教授弗兰克-凯利(Frank Kelly)指出,其中一个经常被引用的领域是错误信息。

“错误信息并不新鲜。它甚至不是本世纪或上世纪的新事物,”他上周在接受采访时说。”但这是我们认为人工智能短期和中期存在潜在风险的领域之一。而这些风险是随着时间的推移慢慢形成的。” 凯利是英国皇家科学学会的研究员,该学会在峰会召开前还专门针对科学领域的错误信息进行了一次红蓝队演练,以了解大型语言模型在试图相互竞争时会如何发挥。”这是一种尝试,试图更好地理解现在的风险是什么。”

英国政府似乎在这场辩论中左右逢源。它所举办的活动名称 “人工智能安全峰会” 中的 “危害” 一词再明白不过了。

苏纳克在上周的演讲中说:”现在,我们对所面临的风险还没有一个共同的认识。没有这种共识,我们就无法指望共同应对这些风险。这就是为什么我们将大力推动就这些风险的性质达成首份国际声明。”

但是,英国首先设立了这次峰会,将自己定位为制定 “当我们谈论人工智能时我们谈论什么” 议程的核心参与者,这当然也有经济角度的考虑。

苏纳克指出:”通过使英国成为安全人工智能领域的全球领导者,我们将吸引更多来自这股新技术浪潮的新工作和投资。(其他部门也收到了备忘录:内政大臣今天与互联网观察基金会(Internet Watch Foundation)以及TikTok和Snap等多家大型消费应用公司共同举办了一场活动,以解决人工智能生成的性虐待图片泛滥的问题)。”

让大科技公司参与进来似乎在某一方面有所帮助,但批评者往往认为这也是一个问题。”监管俘获”,即行业中的强势企业采取积极措施,讨论并制定风险和保护措施,一直是人工智能勇敢新世界的另一大主题,本周也是如此。

“要警惕那些举起双手说’管我吧,管我吧’ 的人工智能技术领导者。人工智能芯片制造商 Graphcore 的首席执行官奈杰尔-托恩(Nigel Toon)在自己撰写的一篇关于本周即将召开的峰会的文章中敏锐地指出:”政府可能会贸然介入,对他们的话信以为真。” (不过,他本人并不完全是边缘人:他将亲自参加此次峰会)。

与此同时,许多人仍在争论目前存在的风险是否是一个有用的思考练习。

Stability AI公司的公共政策负责人本-布鲁克斯(Ben Brooks)在英国皇家学会的一个小组讨论会上说:”我认为,在过去的一年里,前沿和人工智能被用作修辞拐杖的方式,已经把我们带到了一个很多人都害怕技术的地方。” 他引用了 “回形针最大化” 的思想实验 – “在这个实验中,一个人工智能在不考虑人类需求或安全的情况下创造回形针,可能会摧毁世界–作为这种有意限制方法的一个例子。他们没有考虑到在什么情况下可以部署人工智能。你可以安全地开发它。我们希望每个人都能从中得到启发,认识到人工智能是可以实现的,而且是可以安全实现的。”

其他人则不那么肯定。

阿波罗研究公司的霍布哈恩说:”公平地说,我认为存在的风险并不那么长期。”我们姑且称之为灾难性风险。” 从近年来的发展速度来看,生成式人工智能应用已经将大型语言模型带入主流应用,他认为最大的担忧仍将是使用人工智能的不良行为者,而不是人工智能的暴动:将其用于生物战、国家安全局势以及可能改变民主进程的错误信息。他说,所有这些都是他认为人工智能很可能发挥灾难性作用的领域。

“图灵奖获得者在公开场合对生存和灾难性风险忧心忡忡……。我们真的应该好好想想。

商业前景

虽然存在严重的风险,但英国也希望通过举办有关人工智能的大型对话,将本国打造成为人工智能企业的天然家园。然而,一些分析师认为,投资人工智能的道路可能并不像某些人预测的那样平坦。

“我认为现实已经开始显现,企业开始明白他们需要为生成式人工智能项目分配多少时间和资金,才能获得可靠的产出,从而真正提高生产力和收入,”Gartner 公司副总裁分析师 Avivah Litan 说。”即使他们对项目进行反复调整和工程设计,他们仍然需要对操作和产出进行人工监管。简而言之,GenAI 的输出还不够可靠,需要大量资源才能使其可靠。当然,模型一直在改进,但这就是市场的现状。但与此同时,我们也确实看到越来越多的项目进入生产阶段。”

她认为,”人工智能投资肯定会让使用这些投资的企业和政府组织放慢脚步。供应商正在推动他们的人工智能应用和产品,但企业无法像被推动的那样快速采用它们。此外,GenAI 应用程序还存在许多风险,例如,即使在组织内部也能民主化地轻松获取机密信息。”

正如 “数字化转型” 在现实中更像是一个慢热的概念一样,企业的人工智能投资战略也需要更多的时间。”企业需要时间来锁定其结构化和非结构化数据集,并正确有效地设置权限。企业中存在太多的过度共享,而在此之前,这些共享其实并不重要。” Litan 补充说:”现在,任何人都可以使用简单的母语(如英语)命令访问任何人未受到充分保护的文件。”

如何实现人工智能的商业利益与布莱切利公园将讨论的安全和风险问题相去甚远,这一事实说明了未来的任务,同时也说明了紧张局势。据报道,在会议后期,布莱切利公园的组织者已经努力将讨论范围从高层次的安全问题扩展到风险可能真正出现的领域,例如医疗保健领域,尽管在目前公布的议程中并未详细说明这一转变。

“将有 100 名左右的专家参加圆桌会议,因此不是很小的小组,他们将进行这种地平线扫描。我是一个批评家,但这听起来并不是一个坏主意,” 剑桥大学教授内夫说,”现在,全球监管会成为一个讨论话题吗?绝对不会。我们是否要使东西方关系正常化……. ……以及中美之间因人工智能而发生的第二次冷战?可能也不会。但我们将迎来我们的峰会。我认为,这个时刻会带来非常有趣的机遇。”

微海报