在研究发现人工智能模型使用扎迪-史密斯(Zadie Smith)和斯蒂芬-金(Stephen King)等作家的盗版作品进行训练后,三个组织认为需要提高透明度。
为了 “图书产业链和民主”,欧洲三大出版贸易机构敦促欧盟 “立即行动”,提高人工智能的透明度。
在全球最大的图书博览会于法兰克福开幕之际,一份于周三发表的在线声明呼吁共同立法者 “抓住 “欧盟人工智能法案的机遇-该法案根据人工智能系统对用户造成的风险对其进行分类,并据此实施监管–以 “确保” 生成式人工智能的 “透明度”,并 “使其对欧洲公民更加安全”。
欧洲作家理事会、欧洲出版商联合会以及欧洲和国际书商联合会签署了这份声明。此前,《大西洋月刊》(The Atlantic)的分析显示,扎迪-史密斯(Zadie Smith)和斯蒂芬-金(Stephen King)等作家的盗版作品被用于训练由 Meta 和彭博社等公司运营的人工智能工具。
“生成式人工智能模型是以不透明、不公平的方式开发的,未经作者或出版商许可,非法使用了数百万本受版权保护的书籍,”声明中写道。”这种做法不仅对权利人,而且对民主本身都产生了负面影响,因为它助长了误导性、有偏见甚至危险内容的大量产生,而这些内容有可能破坏欧洲民主。”
这三家组织认为,透明度对于发展 “公平、安全的人工智能生态系统 “至关重要,并表示人工智能法案是欧盟 “在保护公民方面发挥领导作用” 的 “理想机会”。如果该法案获得通过,它将成为首个全面的人工智能监管法律框架。
该法案将于今年年底定稿,根据其对用户造成的风险,人工智能系统将被分为四类:不可接受、高风险、有限风险、最低风险或无风险。对于基础模型(ChatGPT 等生成式人工智能工具的基础),公司将被要求披露用于训练的数据源的详细摘要。
这三个行业机构表示,这一拟议要求是 “良好的第一步”,并呼吁成员国和欧盟委员会改进提案,最终杜绝生成式人工智能开发者的非法采购和数据洗钱行为。他们补充说,透明度是 “确保产出质量和合法性的唯一途径”。
声明继续说:”有意义的透明度义务允许权利人评估其作品是否被使用,这对创新型人工智能运营商来说很容易遵守。”这些义务在技术上简单易行,并且依赖于人工智能开发者已经收集和整理的数据。现在就需要这样做,因为现有的文本生成模型在未经作者和出版商同意、未向其提供信用或补偿的情况下使用作品[多年],已经造成了损害。