AI的权力悖论

作者照片
编辑: 老夏

2035年,人工智能无处不在。AI系统管理医院、运营航空公司,并在法庭上互相对抗。生产力达到了前所未有的水平,无数以前难以想象的企业以惊人的速度扩张,为人类福祉带来了巨大的进步。新产品、治疗方法和创新每天都在市场上涌现,科学和技术进入了超速驱动模式。然而,世界变得既不可预测又更加脆弱,恐怖分子找到了用智能、不断进化的网络武器威胁社会的新方法,白领工人大量失业。

就在一年前,这种情境似乎还是纯粹的虚构;而今,它几乎是不可避免的。生成型AI系统已经可以比大多数人更清晰、更有说服力地写作,并可以根据简单的语言提示生成原创的图像、艺术甚至计算机代码。而生成型AI只是冰山一角。它的到来标志着一个大爆炸时刻,一个将彻底改变政治、经济和社会的技术革命的开始。

与过去的技术浪潮一样,AI将带来非凡的增长和机会,同时也带来巨大的破坏和风险。但与以往不同的是,它还将引发全球权力结构和平衡的巨大变革,因为它威胁到国家作为世界主要地缘政治行为者的地位。无论他们是否承认,AI的创造者本身就是地缘政治行为者,他们对AI的主权进一步加强了新兴的“技术极权”秩序——在这种秩序中,技术公司在其领域内拥有曾经为国家所垄断的那种权力。在过去的十年里,大型技术公司实际上已经成为了他们所创造的数字领域中的独立、主权行为者。AI加速了这一趋势,并将其扩展到了数字世界之外。技术的复杂性和其进步的速度将使政府几乎不可能以合理的速度制定相关的规则。如果政府不尽快迎头赶上,那么他们可能永远都追不上。

幸运的是,世界各地的政策制定者已经开始意识到AI带来的挑战,并努力探讨如何治理它。2023年5月,G-7启动了“广岛AI进程”,这是一个致力于协调AI治理的论坛。6月,欧洲议会通过了欧盟AI法案的草案,这是欧盟首次全面尝试为AI行业设立保障措施。7月,联合国秘书长安东尼奥·古特雷斯呼吁成立一个全球AI监管机构。与此同时,美国的政治家们也在呼吁采取监管行动。但许多人都同意德克萨斯州的共和党参议员特德·克鲁兹的观点,他在6月得出的结论是,国会“根本不知道自己在做什么”。

不幸的是,关于AI治理的辩论仍然陷入了一个危险的假困境:利用人工智能扩大国家权力,还是压制它以避免其风险。即使是那些准确诊断问题的人,也试图通过将AI纳入现有或历史性的治理框架来解决它。然而,AI不能像以前的任何技术那样被治理,它已经改变了地缘政治权力的传统观念。

挑战是明确的:为这种独特的技术设计一个新的治理框架。如果要实现AI的全球治理,国际体系必须超越传统的主权观念,欢迎技术公司参与。这些行为者可能不是源于社会契约、民主或公共物品提供的合法性,但没有它们,有效的AI治理就没有机会。这只是国际社会需要重新思考地缘政治秩序基本假设的一个例子。但这并不是唯一的一个。

与AI这样不同寻常且紧迫的挑战需要一个原创的解决方案。在政策制定者开始制定适当的监管结构之前,他们需要就如何治理AI达成基本原则的共识。首先,任何治理框架都需要具有预防性、灵活性、包容性、不可渗透性和针对性。基于这些原则,政策制定者应该创建至少三个重叠的治理制度:一个用于确定事实并建议政府关于AI带来的风险,一个用于协调国际行动,以及一个用于确保技术公司遵守国际标准。这些制度应该是开放的、透明的、有责任的,并且能够适应技术进步的速度。

AI的权力悖论是现实的,且迫在眉睫。政策制定者需要迅速行动,以确保AI的全球治理不仅是可能的,而且是有效的。如果他们不这样做,那么AI的权力悖论可能会变得无法控制,带来无法预测的后果。

发表评论