OpenAI游说欧盟削弱AI法规

作者照片
编辑: 老夏

OpenAI的首席执行官Sam Altman在过去的一个月里,一直在世界各地的首都进行巡回讲座,他在与政府首脑的会议中反复提到全球AI法规的必要性。然而在幕后,OpenAI却在游说欧盟的AI法案中的重要元素进行削弱,以减轻公司的监管负担。这些信息来自于TIME从欧洲委员会通过信息自由请求获得的关于OpenAI与欧盟官员接触的文件。

2022年,OpenAI反复向欧洲官员争论,即将出台的AI法案不应将其通用AI系统——包括GPT-3(ChatGPT的前身)和图像生成器Dall-E 2——视为“高风险”,这样的定位将使它们受到严格的法律要求,包括透明度、可追溯性和人类监督。这一论点使OpenAI与Microsoft和Google保持一致,这两家公司之前都曾游说欧盟官员,希望放松法案对大型AI提供商的监管负担。这两家公司都认为,应对法案最严格要求的负担应由那些明确设定将AI应用于高风险用例的公司承担,而不是那些(通常更大的)构建通用AI系统的公司。

OpenAI在2022年9月向欧盟委员会和理事会官员发送的一份以前未公开的七页文件中说:“本身,GPT-3不是一个高风险系统。但[它]拥有可能被用于高风险用例的能力。”TIME正在与这个故事一起全文发布这份白皮书。

尽管Altman最近对这项立法更加直言不讳,但OpenAI在欧洲的这些游说努力以前并未被报道。在5月份,他在伦敦告诉记者,如果OpenAI认为自己无法遵守该法规,它可能会决定“停止在欧洲的运营”,他对此表示了“很多”批评。他后来收回了这个警告,说他的公司没有离开的计划,打算与欧盟合作。然而,OpenAI的游说努力似乎已经取得了成功:欧盟立法者批准的法案的最后草案并未包含早期草案中的措辞,即应将通用AI系统视为固有的高风险。相反,已经达成的法律要求所谓的“基础模型”提供商,或者是在大量数据上训练的强大AI系统,遵守一小部分要求,包括防止生成非法内容,披露系统是否在受版权保护的材料上进行训练,以及进行风险评估。OpenAI支持在法案中引入“基础模型”作为一个单独的类别,公司的一位发言人告诉TIME。

然而,在2022年9月达成这个明显的妥协之前,OpenAI在与欧洲官员分享的白皮书的一部分中,该公司反对AI法案的一项建议修正案,该修正案将把像ChatGPT和Dall-E这样的生成AI系统分类为“高风险”,如果它们生成的文本或图像可能“错误地让人认为是由人生成和真实的”。OpenAI在白皮书中表示,这个修正案意味着他们的模型可能会“无意中”被视为高风险,并建议取消这个修正案。该公司认为,依赖法案的另一部分就足够了,该部分要求AI提供商充分标记AI生成的内容,并向用户明确他们正在与AI系统交互。欧洲议会在6月批准的AI法案的最后文本中并未包含OpenAI反对的这个修正案。

“他们得到了他们要求的,”欧洲数字权利的高级政策顾问,也是该法案的专家Sarah Chander在查看了OpenAI的白皮书后对TIME说。她说,这份文件“显示OpenAI,像许多大型科技公司一样,已经使用AI的效用和公共利益的论点来掩盖他们削弱法规的财务利益。”

原文链接

发表评论