在全球各地的会议室里,关于AI伦理的讨论如火如荼,然而,关于这项技术仍存在许多误解。本文由John Maxwell Hobbs承担起分辨事实与虚构的任务。
现在,即使在广播媒体的世界里,也几乎无法避免关于人工智能(AI)的新闻。AI在媒体和广播中的神话和现实,尤其是像Midjourney和ChatGPT这样的生成系统,正在对广播世界产生重大影响。因此,分辨广播中的AI神话和现实非常重要。
AI在媒体中的应用已经相当普遍,包括文本编辑、卫星导航、对话/剧本同步、面部识别和推荐引擎等。这些工具大多使用被称为“狭义AI”和机器学习(ML),这些都是设计用来在非常特定的任务上表现出色。
然而,关于AI的一些误解仍然存在。例如,有人认为AI具有自我意识,但事实上,AI并不具有自我意识。AI只是基于算法和统计模式来生成文本和提供用户输入的响应。另一个误解是,AI系统表现出了广泛的智能。然而,广义人工智能(AGI)目前并不存在,许多研究人员认为它永远不会存在。AGI需要解决与认知、推理、常识以及从有限数据中学习和概括的基本问题和技术挑战。
另一个普遍的神话是,AI将接管世界。然而,AI系统是设计用来执行特定任务的,缺乏实现世界统治所需的自我意识和意识。AI在其编程的范围内运作,不能自主地获取动机或意图。AI只在执行人类启动的任务时才活跃,否则它们处于休眠状态,不进行任何自我指导的活动。
还有一个常见的恐惧是,AI将导致大规模失业,因为机器将接管人类传统的工作。然而,AI将改变工作,而不是完全取代它们。AI可以自动化常规和单调的任务,让人类工作者有更多的时间专注于他们工作的更有意义和创造性的方面。这种工作的转变在历史上一直是一个反复出现的主题,因为技术的进步一直在塑造就业市场。
另一个关于AI的误解是,AI具有偏见。确实,AI系统可以从它们接受训练的数据中继承偏见,反映社会偏见并加剧歧视。然而,重要的是要认识到,AI中的偏见是人类问题,而不是技术本身的固有缺陷。偏见可以从用于训练AI算法的人类生成的数据中产生。历史上的不平衡和社会偏见可以反映在数据中,导致偏见的结果。认识到这一点,需要精心设计数据收集方法,以确保代表性和包容性。包含不同人口统计、文化和观点的多样化数据集可以帮助最小化偏见。
无论被称为“AI”、“ML”、“专家系统”还是简单的“算法”,一种或另一种类型的AI系统已经被积极使用了几十年。一旦一个AI任务进入主流使用,它就不再被视为AI,而只是“计算”。随着人们从最新技术产生的新鲜感中恢复过来,他们将这些技术融入到日常生活中,并用它们找到新的创造性的方式。
总的来说,无论是神话还是现实,AI都在这里,而且会持续存在。