在开始之前,我想告诉大家,这篇文章是由人类编写的。但许多来自News Corp的文章并非如此,据报道,该公司使用生成性AI每周生产3,000篇澳大利亚新闻报道。全球的媒体公司越来越多地使用AI生成内容。大型语言模型如GPT-4并不产生事实,而是预测语言。我们可以将ChatGPT视为一个“自动mansplaining机器”——经常是错误的,但总是自信的。即使有人类监督的保证,我们也应当对以这种方式生成并重新包装为新闻的材料表示关注。
内容农场并不是新鲜事物;媒体机构在ChatGPT到来之前就已经发布了垃圾内容。但现在,这种情况的速度、规模和传播已经发生了变化。News Corp在澳大利亚的影响力巨大,因此其使用AI值得关注。这种材料的生成似乎仅限于大量产出的本地“服务信息”,例如关于哪里可以找到最便宜的燃料或交通更新的故事。但我们不应该过于放心,因为这确实预示了事情可能的发展方向。
今年1月,科技新闻网站CNET被发现发布了由AI生成并充满错误的文章。从那时起,许多读者一直在为AI生成的报道做好准备。与此同时,CNET的工作人员和好莱坞编剧都在联合起来,并在抗议(包括其他事情)AI生成的写作中进行罢工,他们要求更好的保护措施和关于AI使用的问责制。那么,澳大利亚的记者是时候加入呼吁AI监管的行列了吗?
使用生成性AI是主流媒体组织向数据饥渴、算法优化和渴望货币化我们注意力的数字平台转变的一部分。媒体公司反对对隐私法进行关键改革,这将有助于阻止这种行为并更好地保护我们在线上,这一策略显而易见。传统媒体在数字经济中的利润持续下降的长期问题,导致一些媒体采用了数字平台的监视资本主义商业模式。毕竟,如果你不能击败他们,就加入他们。将AI生成的内容加入到混合中只会使事情变得更糟。
当网络被如此多的AI生成的内容所主导,以至于新模型不是基于人类制作的材料,而是基于AI的输出进行训练时,会发生什么?我们是否会留下某种被诅咒的数字ouroboros吞噬自己的尾巴?
原文链接:点击这里