网络安全中的AI:我们应该为此担忧的原因

作者照片
编辑: 老夏

近几个月,公众对AI的兴趣日益浓厚。尽管好莱坞的机器人末日仍然是虚构的,但计算能力、智能无监督算法和像ChatGPT这样的应用程序的进步正在引发关于工作流动的真正担忧。电信巨头BT计划在本十年结束前裁减55,000个工作岗位,其中多达五分之一的客户服务工作岗位将被包括人工智能在内的技术所取代。

然而,除了这些炒作,AI还有一个我们需要迅速解决的阴暗面。甚至连AI的创始人,包括AI研究实验室OpenAI的首席执行官Sam Altman和Google DeepMind的首席执行官Demis Hassabis,都在敲响警钟。

他们不仅仅在谈论AI,还在谈论AI2.0——也就是“通用人工智能”或AGI,这是一个能够完成任何人类可以完成的任务的AI系统。而且它来得很快。

除非各国政府现在合作建立起对未来十年负责任发展的保护措施,否则AGI系统将对人类构成存在的风险。根据AI安全中心的说法,“减少AI导致的灭绝风险应该与其他社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。”

企业正在争先恐后地避免生成性AI(如ChatGPT)带来的破坏。这既带来了机会,也带来了威胁。但在急于实施AI的过程中,我们是否正在解决AI采用者、网络犯罪分子所带来的风险?

在过去的几周里,我们再次看到了一次大规模的网络攻击。英国航空、Boots和BBC都成为了黑客的受害者,他们利用了薪酬提供商Zellis使用的第三方文件传输软件MOVEit中的一个漏洞。超过100,000名员工的个人和财务数据被泄露,攻击者要求与受害者进行谈判。

英国国家网络安全中心(NCSC)预测,在未来五年内,网络工具和服务将大幅增加,这“将对威胁景观产生深远的影响,因为更多的国家和非国家行为者获得了以前无法获得的能力和情报。”它表示,这些商业产品的复杂性与国家开发的工具相媲美。

不受道德或法律的约束,网络犯罪分子正在竞相使用AI寻找创新的新攻击方法。因此,AI驱动的网络安全威胁对组织和个人来说都是一个日益增长的担忧,因为它们可以规避传统的安全措施并造成重大损害。

随着AI在社会中的更多整合,对于立法者、法官和其他决策者来说,理解这项技术及其影响是非常重要的。在AI威胁狩猎和其他领域的未来,建立技术专家和政策制定者之间的强大联盟将是至关重要的。为好人们干杯!

原文链接:点击这里

发表评论