在如何防止人工智能造成危害的全球峰会召开之前,英国政府的一份报告警告说,人工智能技术可能被用来帮助制造生物武器,或者完全摆脱人类的控制。
致命的生物武器、自动化的网络安全攻击、摆脱人类控制的强大人工智能模型。根据英国政府的一份新报告,这些只是人工智能带来的一些潜在威胁。该报告的发布有助于为英国下周主办的人工智能安全国际峰会制定议程。谷歌 DeepMind 部门等领先的人工智能公司以及包括情报机构在内的多个英国政府部门都参与了该报告的编写。
英国驻美国技术特使乔-怀特(Joe White)说,这次峰会提供了一个机会,让各国和领先的人工智能公司聚集在一起,更好地了解这项技术带来的风险。帮助策划下周峰会的怀特说,管理算法的潜在弊端将需要老式的有机合作。”这些不是机器对人类的挑战,” 怀特说。”这些是人与人之间的挑战。”
英国首相苏纳克(Rishi Sunak)明天将发表演讲,谈到人工智能在为人类进步带来机遇的同时,也必须坦诚面对它为后代带来的新风险。
英国人工智能安全峰会将于11月1日和2日举行,主要关注人们如何滥用或失去对先进人工智能形式的控制。英国的一些人工智能专家和高管对此次活动的重点提出了批评,认为政府应该优先考虑更近期的问题,比如帮助英国与美国和中国等全球人工智能领导者竞争。一些人工智能专家警告说,最近关于遥远的人工智能场景(包括人类灭绝的可能性)的讨论有所升温,这可能会分散监管机构和公众对更直接问题的注意力,比如有偏见的算法或人工智能技术加强了已经占主导地位的公司。
英国今天发布的报告考虑了大型语言模型(ChatGPT 背后的人工智能技术)对国家安全的影响。怀特说,英国情报机构正在与英国政府的一个专家小组–前沿人工智能工作组(Frontier AI Task Force)合作,探索一些场景,比如如果坏人将大型语言模型与政府秘密文件结合在一起,会发生什么情况。报告中讨论的一种可怕的可能性表明,一个能加速科学发现的大型语言模型也能促进试图制造生物武器的项目。
今年 7 月,人工智能初创公司 Anthropic 的首席执行官达里奥-阿莫代(Dario Amodei)告诉美国参议院议员,在未来两三年内,语言模型有可能提出如何实施大规模生物武器攻击的建议。但怀特说,这份报告是一份高层次的文件,并不是要 “作为一份购物清单,列出所有可能做的坏事”。
英国报告还讨论了人工智能如何摆脱人类控制的问题。报告说,如果人们习惯于将重要决策交给算法,”人类就越来越难以夺回控制权”。但 “这些风险的可能性仍然存在争议,许多专家认为可能性很低,一些专家则认为关注风险会分散对当前危害的注意力”。
除了政府机构外,今天发布的报告还经过了一个小组的审查,其中包括来自谷歌 DeepMind AI 实验室的政策和伦理专家,该实验室最初是一家伦敦的 AI 初创公司,2014 年被谷歌收购;还有一家开发开源 AI 软件的初创公司 Hugging Face。
本吉奥(Yoshua Bengio)是三位 “人工智能教父” 之一,他凭借机器学习技术获得了计算机领域的最高奖项图灵奖,对当前的人工智能热潮起到了核心作用。本吉奥最近表示,他对自己帮助培育的技术的乐观情绪已经消退,需要一个新的 “人类防御 “组织来帮助控制人工智能。