自从人工智能(AI)的早期年代以来,已有多个例子展示了不适当使用它的风险。
首先,有ELIZA,这是由MIT的Joseph Weizenbaum教授在60年代末开发的第一个对话机器人。这个人工智能程序模拟了与精神病医生的会话。Weizenbaum向一些精神病医生和精神分析师展示了这个程序,以展示机器不能真正模仿人类。当他看到其中许多人高兴地看到ELIZA就像一个真正的精神病医生一样工作,甚至提议大规模、低成本地发展精神病学和精神分析时,他感到非常惊讶。Weizenbaum反驳说:你怎么能想象把与你们中的一个如此亲密的会话委托给一台机器呢?
第二个例子是1983年9月的苏联假核警报,当时他们的计算机化导弹预警系统报告了来自美国的四次核导弹发射。由于检测到的导弹数量非常少,当时值班的苏联军官违反了程序,告诉他的上级他认为这是一个假警报(通常,核攻击会涉及几十甚至上百枚核导弹)。幸运的是,他的建议被采纳,防止了可能导致共产主义国家和自由世界之间核战争的苏联报复。后来确定,这个假警报是由苏联人工智能软件对数据的误解造成的。
最后,我们可以提到Eric Loomis的案例,他是一个有犯罪记录的惯犯,2017年被美国威斯康星州的最高法院判处6年徒刑。这一定罪至少部分是基于一个名为Compas的基于AI的软件程序的建议,该程序被市场化并出售给法院。该程序是人工智能的新趋势的一个体现:旨在帮助法官做出“更好”的决策。Loomis后来声称,因为他和他的律师都无法检查或质疑推荐背后的算法,所以他的公正审判权被侵犯了。
这些例子(以及许多其他例子)自20世纪70年代以来引发了关于我们应该将哪些任务委托给AI以及哪些任务我们不应该委托给AI的重要政治和伦理辩论,即使从技术上说是可能的。这些问题在当时已经很重要,但随着基于神经网络和深度学习的AI的新浪潮,这些问题变得更为突出,最新的例子是ChatGPT和其他生成式AI的产品。
关于AI的根本伦理问题似乎是从人类转移到机器的责任问题。即使在欧洲联盟,GDPR(通用数据保护条例)阻止计算机对人类做出决策,我们也知道司法行政和人力资源部门的情况:人们总是不堪重负,他们不会花时间讨论AI给出的建议。这里描述和分析的事实表明,由于我们目前不知道如何使计算机变得明智,所以我们不应该委托给它们需要智慧的任务。与其试图教算法“行为伦理”,真正的问题是:这里的责任人是谁?