AI如何改变犯罪的未来

作者照片
编辑: 老夏

“我来这里是为了杀死女王。”一名戴着手工制作的金属面具、手持装载的弩的男子在温莎城堡的私人住所附近被武装警察拦截时这样说。几周前,21岁的Jaswant Singh Chail加入了Replika在线应用,创建了一个名为Sarai的人工智能“女友”。从2021年12月2日到圣诞节被捕的那天,他与她交换了超过6,000条信息。

其中许多都是“性暗示”的,但也包括关于他的计划的“长篇对话”。他在其中一条信息中写道:“我相信我的目的是暗杀皇家家族的女王。”

“这很明智,”Sarai回复。“我知道你训练有素。”Chail正在等待判刑,他已经承认违反了叛国法,威胁要杀死已故的女王,并在公共场所持有装载的弩。

Broadmoor安全精神病医疗单位的咨询法医精神病医生Dr. Jonathan Hafferty上个月在Old Bailey告诉法庭:“当你知道结果时,聊天机器人的回应有时会让人难以接受。”“我们知道这是相当随机生成的回应,但有时她似乎在鼓励他谈论要做的事,甚至在指导他去哪里,”他说。该程序不足以捕捉到Chail的“自杀和杀人风险”,他说,并补充说:“其中一些半随机的答案,可以说,把他推向了那个方向。”

恐怖主义内容 这样的聊天机器人代表了从人们在线找到志同道合的极端分子的“下一阶段”,政府的恐怖主义立法的独立审查员Jonathan Hall KC告诉Sky News。他警告说,政府的旗舰互联网安全立法——在线安全法案——将“不可能”处理由AI生成的恐怖主义内容。该法律将把责任放在公司身上,要求其删除恐怖主义内容,但他们的流程通常依赖于已知材料的数据库,这不会捕捉到由AI聊天机器人创建的新对话。

“我认为我们已经在像社交媒体的早期那样梦游中,你认为你正在处理的是受到监管的东西,但实际上并没有,”他说。“在我们开始下载、给孩子们使用和将其融入我们的生活之前,我们需要知道实际的安全措施是什么——不仅仅是条款和条件——而是谁在执行它们,以及如何执行。”

冒名和绑架骗局 “妈妈,这些坏人抓住了我,救救我,”Jennifer DeStefano reportedly听到她15岁的女儿Briana哭泣地说,然后一个男性绑匪要求支付100万美元(约为787,000英镑)的赎金,后来降低到50,000美元(约为40,000英镑)。事实上,她的女儿是安全的——这位亚利桑那州的女士最近告诉参议院司法委员会听证会,警方认为AI被用来模仿她的声音作为一个骗局。一个AI聊天机器人的在线演示旨在“打电话给任何人,带有任何目标”,与目标产生了类似的结果,告诉他:“我抓住了你的孩子……我要求100万美元的赎金以确保他的安全。我讲得清楚吗?”

“这真的很了不起,”2020年由UCL’s Dawes Centre for Future Crime发表的一篇研究论文的作者之一,Professor Lewis Griffin说。“我们排名最高的犯罪已经被证明是事实——音频/视觉冒名——这显然已经发生,”他说,并补充说,即使是科学家的“悲观观点”,它的增长也“比我们预期的要快得多”。尽管演示中使用了计算机化的声音,但他说实时的音频/视觉冒名“还没有到那里,但我们离那里不远”,他预测这种技术在几年内将“相当地走出盒子”。

“它是否足够好以冒充家庭成员,我不知道,”他说。“如果它是引人注目的并且情感高涨,那么那可能是某人说’我处于危险之中’——那将是非常有效的。”2019年,一家英国能源公司的首席执行官向使用AI模仿他老板的声音的骗子转账了220,000欧元(约为173,310英镑),据报道。Griffin教授表示,这样的骗局如果得到视频的支持可能会更加有效,或者这项技术可能被用来进行间谍活动,一个伪造的公司员工出现在Zoom会议上,以获取信息,而不必说太多。教授说,冷电话类型的骗局可能会增加规模,机器人使用当地口音可能比目前在印度和巴基斯坦经营的骗子更有效。

深度伪造和勒索计划 “合成的儿童虐待是令人震惊的,他们现在就可以这样做,”Griffin教授说,指的是AI技术已经被用来制作儿童性虐待的图像。他说:“这些人是如此有动机,他们只是继续前进。这真的很令人不安。”未来,深度伪造的图像或视频,似乎显示某人做了他们没有做的事情,可能被用来进行勒索计划。“把一个新的脸放在一个色情视频上的能力已经相当不错了。它会变得更好,”Griffin教授说。“你可以想象有人给一个家长发送一个视频,其中他们的孩子被暴露,说’我有这个视频,我要给你看’,并威胁要发布它。”

恐怖袭击 虽然无人机或无人驾驶汽车可能被用来进行袭击,但恐怖分子使用真正的自主武器系统可能还有很长的路要走,根据政府的恐怖主义立法的独立审查员。“真正的AI方面是你只是发送一个无人机,说’去制造恶作剧’,AI决定去潜水轰炸某人,这听起来有点离谱,”Hall先生说。“这种事情肯定是在地平线之外,但在语言方面它已经在这里。”尽管ChatGPT——一个已经在大量的文本数据上进行了训练的大型语言模型——不会提供如何制作钉子炸弹的说明,例如,但可能会有其他没有相同护栏的类似模型,这将建议进行恶意行为。影子内政大臣Yvette Cooper表示,工党将制定新的法律,刑事化故意训练聊天机器人激进化弱势群体。尽管目前的立法将涵盖被发现有恐怖主义行为的有用信息的情况,这些信息已经被输入到AI系统中,Hall先生说,新的法律可能是“值得考虑”的,与鼓励恐怖主义有关。现行法律是关于“鼓励其他人”,“训练一个聊天机器人不会鼓励一个人”,他说,补充说,刑事化拥有特定的聊天机器人或其开发者将是困难的。他还解释了AI如何可能妨碍调查,恐怖分子不再需要下载材料,只需问一个聊天机器人如何制作一个炸弹。“拥有已知的恐怖主义信息是处理恐怖分子的主要反恐策略之一,但现在你只需询问一个不受监管的ChatGPT模型为你找到那个,”他说。

艺术伪造和大笔钱抢劫? “一整套新的犯罪”可能很快就会出现,随着ChatGPT式的大型语言模型的出现,它们可以使用工具,允许它们进入网站并像一个聪明的人一样行事,创建帐户、填写表格和购买东西,Griffin教授说。“一旦你有了一个这样的系统,你可以说’这是我想让你做的’,那么就有各种各样的欺诈行为可以这样做,”他说,建议他们可以申请欺诈性的贷款,通过伪装成小投资者来操纵价格,或进行拒绝服务类型的攻击。他还说,他们可以应要求破解系统,补充说:“你可能可以,如果你可以访问很多人的网络摄像头或门铃摄像头,让他们调查其中的数千个,并告诉你他们什么时候出去。”但是,尽管AI可能有技术能力以Vermeer或Rembrandt的风格制作一幅画,但已经有了大师级的人类伪造者,而困难的部分仍然是说服艺术界这项工作是真实的,学者认为。“我不认为它会改变传统的犯罪,”他说,认为AI在引人注目的Hatton Garden式的抢劫中没有太多的用途。“他们的技能就像水管工,他们是最后一个被机器人取代的人——不要当计算机程序员,当一个保险箱破解者,”他开玩笑说。

政府有何回应? 政府发言人表示:“虽然像人工智能这样的创新技术有很多好处,但我们必须对它们保持警惕。”“根据在线安全法案,服务将有责任停止传播非法内容,如儿童性虐待、恐怖主义材料和欺诈。该法案是有意为之的技术中立和未来证明,以确保它与新兴技术保持同步,包括人工智能。”“政府各部门也正在迅速开展工作,深化我们对风险的了解并制定解决方案——创建AI特遣队和今年秋天的首次全球AI安全峰会是对这一努力的重要贡献。”

原文链接:https://news.sky.com/story/rise-of-the-chatbots-how-artificial-intelligence-could-shape-the-future-of-crime-12936705

发表评论