据路透社报道,Alphabet Inc正在警告员工关于他们如何使用聊天机器人,包括其自家的Bard,同时也在全球范围内推广这个程序。Google的母公司已经建议员工不要将其机密材料输入到AI聊天机器人中,这是为了保护信息安全。
聊天机器人,包括Bard和ChatGPT,是使用所谓的生成性人工智能与用户进行对话和回答各种提示的人声程序。人类审查员可能会阅读这些聊天内容,研究人员发现,类似的AI可以复制它在训练过程中吸收的数据,从而产生泄露风险。
Alphabet还警告其工程师避免直接使用聊天机器人可以生成的计算机代码。公司表示,Bard可能会提出不需要的代码建议,但它仍然可以帮助程序员。Google还表示,它旨在对其技术的限制进行透明化。
这些担忧显示出Google希望避免其与ChatGPT竞争的软件对业务的损害。在Google与ChatGPT的支持者OpenAI和微软公司的竞赛中,投资的数十亿美元以及新的AI程序带来的尚未知的广告和云收入都处于危险之中。
Google的谨慎也反映了公司的安全标准,即警告员工使用公开可用的聊天程序。
全球越来越多的企业在AI聊天机器人上设立了防护栏,包括三星、亚马逊和德意志银行等公司。据报道,苹果公司也有类似的做法,但苹果并未回应评论请求。据Fishbowl网站对近12000名受访者(包括来自美国顶级公司的人员)的调查,截至1月,约有43%的专业人士在使用ChatGPT或其他AI工具,而他们的老板往往并不知道。
到2月份,Google告诉在Bard发布前进行测试的员工不要向其提供内部信息。现在,Google正在向超过180个国家和40种语言推出Bard,作为创新的跳板,其警告也扩展到了其代码建议。
Google告诉路透社,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在回答监管机构的问题。在周二的Politico报道中,该公司正在推迟本周在欧盟推出Bard,以便提供更多关于聊天机器人对隐私影响的信息。
这种技术可以起草电子邮件、文档,甚至是软件本身,有望大大加快任务的完成速度。然而,这些内容中可能包含错误信息、敏感数据,甚至是从《哈利·波特》小说中抄袭的段落。
Google在6月1日更新的隐私声明中也指出:”不要在你的Bard对话中包含机密或敏感信息。”
一些公司已经开发出软件来解决这些问题。例如,Cloudflare公司,该公司防御网站免受网络攻击并提供其他云服务,正在为企业推广一种能力,可以标记并限制一些数据的外部流动。
Google和微软也为商业客户提供了对话工具,这些工具的价格较高,但不会将数据吸收到公共AI模型中。在Bard和ChatGPT中,默认设置是保存用户的对话历史,用户可以选择删除。微软的消费者首席营销官Yusuf Mehdi表示,公司不希望员工在工作中使用公共聊天机器人,这是”有道理的”。
“公司正在采取适当保守的立场,”Mehdi解释说,他是如何将微软的免费Bing聊天机器人与其企业软件进行比较的。”在那里,我们的政策要严格得多。”
微软拒绝对是否禁止员工在公共AI程序中输入机密信息,包括其自己的程序,进行评论,尽管另一位在那里的高管告诉路透社,他个人限制了他的使用。
Cloudflare的首席执行官Matthew Prince表示,将机密事项输入聊天机器人就像”让一群博士生在你所有的私人记录中肆意妄为”。