人工智能:比你想象的更聪明,也更愚蠢

作者照片
编辑: 老夏

人工智能已经来了!虽然它们不像科幻电影中的杀人机器,但它们已经对我们的社会产生了巨大的影响。人工智能(AI)一直在占据头条新闻,特别是ChatGPT。与《终结者》或《黑客帝国》等科幻反乌托邦中的AI不同,ChatGPT可能看起来平淡无奇甚至有些无聊。它不是一个恶意的杀人机器,而是一个公开可用的聊天机器人,当被人类提示时,可以吐出句子或段落,读起来就像是一个真人写的。

那么,你需要了解最新一代AI的所有信息。

你能给一个ChatGPT的实例吗?

当然,这里有一个关于拒绝婚礼邀请的例子,还有一个关于计划假期的例子。

那真是令人印象深刻!那么ChatGPT是怎么工作的呢?

ChatGPT是所谓的生成AI,因为它可以创造看似新的作品。它是由一家名为OpenAI的私人公司使用一种称为大型语言模型(LLM)的技术构建的。这是当大量的文本,本例中是来自互联网的文本,被输入到运行在非常强大的计算机上的复杂的机器学习(ML)程序中。

ML程序能够识别出在关于一个主题的文本中出现的某些模式和不同单词之间的关系,但在另一个主题的文本中不会出现。有了这种复杂的模式识别,ChatGPT可以在被提示时重新组合它从其LLM中学到的东西,生成新的句子和段落。这种将其之前接受过训练的信息进行转换的组合就是ChatGPT中的“GPT”——生成预训练变换器。

那么ChatGPT和动物或人一样智能吗?

ChatGPT并不真正“智能”,因为它实际上并不理解婚礼或假期的含义。一个像动物或人一样具有智能的AI将被称为人工通用智能。目前还没有这样的AI存在——至少还没有。

像ChatGPT这样的基于LLM训练的生成AI正在进行概率计算——在其训练文本中,当人们谈论“婚礼”时,更常使用像“邀请”和“新娘”这样的词,所以当人类提示关于婚礼或者相关主题如离婚时,它更可能使用这些词。生成AI基于分析大量数据的复杂概率权重,这就是为什么有时它被描述为“应用统计学”而不是“人工智能”。

那么ChatGPT实际上被用来做什么?

由于OpenAI允许ChatGPT被集成到其他软件中,所以它被用在各种地方,除了它自己的公开可访问的网站。微软,OpenAI的投资者和合作伙伴,正在使用ChatGPT来回答提交给其搜索引擎Bing的查询,只要你使用的是Edge网络浏览器。ChatGPT也已经被集成到一些软件开发人员使用的编程工具中,所以他们可以向它询问关于如何完成任何给定任务的代码建议。CNet,一个长期的科技新闻网站,已经使用ChatGPT来写短的,简单的新闻故事。

ChatGPT值得信任吗?

还没有。对于ChatGPT生成的所有内容都要持保留态度。正如OpenAI的CEO Sam Altman在澳大利亚金融评论报中所说:“我验证了它说的话……这是一种生成技术,它是一个创造性的助手,所以请不要依赖它的事实准确性。”由于ChatGPT的结果实际上是对预先存在的作品的高度复杂的重组和再现,而这些作品本身并不一定都是准确的,所以它建议的东西总是有可能是错误的。

例如,CNet,它使用ChatGPT来写文章,允许了显著的事实错误进入了已发布的文章。在另一个值得注意的例子中,美国的一位律师使用了这个机器人来帮助写法院提交的文件,他没有进行双重检查,发现它引用了虚构的案例,而不是真实的案例,这让他感到非常尴尬。

ChatGPT是唯一的生成AI吗?

ChatGPT可能是最知名的生成AI,但它远非唯一的一个。还有其他可以产生文本的AI,如Google Bard。其他的生成AI可以产生其他类型的内容。例如,像Midjourney,Stable Diffusion和OpenAI自己的DALL-E这样的AI可以根据你的文本提示生成图像。

AI可以创造艺术吗?

抛开哲学上对什么是和不是艺术的定义,是的——AI确实可以创造全新的图像。像一个能产生文本的生成AI,这些AI被训练在一个巨大的数据宝库上——在这种情况下是来自互联网的数亿张图像。

但是,而不是在单词、短语和句子之间寻找模式和关系,艺术AI背后的ML程序反复寻找在每个提供给它的图像中尽可能多的“变量”。

例如,在熊猫的照片中,它不仅会识别出所有熊猫照片中都有的东西——四条腿,圆身体,黑白色彩。但也会识别出它不是熊猫,而可能是其他动物,无论是猫还是袋熊,从头部的形状和口鼻的长度到眼睛之间的距离,等等。

这样的ML程序接受的图像越多,它们在区分熊猫、猫和袋熊之间就越好。任何给定图像中的“变量”数量可以达到数百甚至数千。对于人类来说,每一个“变量”看起来都像一个复杂的数学方程。这个变量的集合被称为“潜在空间”。

事实上,照片、画作、绘图等的本质可以被提炼成一系列的数学方程,这可能会让你感到惊奇或者深感不安,这取决于你的观点。

但是艺术AI如何从所有的训练数据中创造出全新的图像呢?

这是令人难以置信的部分。为了创造新的作品,艺术AI使用一种称为“演化”的技术。使用一个过于简化的比喻,这个生成过程有点像一个非常勤奋的学生在练习他们的笔迹。

就像一个孩子通过反复写出句子来练习他们的笔迹,直到它看起来更像他们的老师的笔迹,但仍然可以识别出是他们自己的,艺术AI将根据你的提示组成一个粗糙的初始像素系列。然后,它将“填充”并精炼它的尝试,反复使用所有可用的变量作为指南,它认为匹配你的提示。这可以在几秒钟或几分钟内发生。

以下的图像是基于文本提示“一幅点彩派风格的画,熊猫和小猫在多塞特的海滩上寻找化石,空中飘着雪花”生成的:

由DALL·E生成的图像

由Stable Diffusion生成的图像

由Midjourney生成的图像

以下的图像是基于文本提示“一张以Annie Lebovitz风格拍摄的照片,显示一个机器人在教室里教另一个机器人使用黑板理解人工智能的概念”生成的:

由DALL·E生成的图像。

由Stable Diffusion生成的图像。

由Midjourney生成的图像。

那么为什么生成AI是有争议的?

首先,有些人反对他们的作品被用作生成AI的训练数据,而没有得到他们的许可或补偿。

还有人担心偏见和偏执会渗入到生成AI创造的作品中,这是微软早期尝试创建一个会话聊天机器人时明显出现的问题。

虽然今天的生成AI创造的作品有时可能有点基础或者在某些地方有点歪,但人们担心它们很快就会变得足够好,以至于威胁到人们的工作。

关于未来使用AI会减少人们收入的担忧是好莱坞2023年作家和演员罢工背后的不满之一。剧本写作者担心他们只会被雇佣来精炼AI吐出的想法,而不是创造他们自己的。演员们担心他们的工作会被AI生成的替身完成。后者已经在涉及配音演员的几个案例中发生,但是得到了他们的许可。

在另一个例子中,当揭示出他们的电视节目《秘密入侵》的开场字幕是由AI而不是人类艺术家创作的时,Marvel Studios引起了争议。

哼,艺术家总是在抱怨。所有这些对我来说还是有点牵强。

他们不是唯一担心的人。活动家、记者和政治家担心,由生成AI产生的足够令人信服的文本、图像甚至视频,如果在社交媒体上分发,会欺骗那些媒体素养差的人——换句话说,让假新闻更加可信。已经有几个例子,政治活动使用AI生成的图像试图指责对手做了从未发生过的事情。这种类型的图像被广泛称为“深度伪造”。

那么生成AI应该被禁止吗?

一些国家正在积极讨论这个问题,至少有几个国家已经禁止了ChatGPT。英国当局希望看到“防护栏”,限制如何使用生成AI。这些可能类似于Midjourney的规则,防止生成显示血腥和性的图像。这些法律和防护栏将如何发展,以及它们是否能跟上它们试图规范的快速发展的AI,仍有待观察。

原文链接:https://www.vodafone.co.uk/newscentre/features/chatgpt-ai-is-both-smarter-and-dumber-than-you-think-it-is/

发表评论