在ChatGPT 4发布的六个月里,关于真正的智能机器能否在几乎所有领域超越人类智能的前景引发了专家和普通人之间的激烈讨论。尽管专家对这个问题的发展方向意见不一,但许多人认为人工智能迟早会大大超越人类智能。这引发了人们对人工智能是否有能力从人类手中接管人类社会和地球的猜测。
一些专家表示,这可能是一个危险的发展,可能导致人类的灭绝,因此,所有政府以及参与其开发的公司都需要停止或至少严格监管人工智能的发展。关于这些智能机器是否有意识,是否有感情或情绪,也有很多讨论。然而,我们几乎没有深入思考我们是否需要害怕人工超级智能,以及为什么它可能对人类造成伤害。
毫无疑问,正在开发的各种类型的AI,以及将要开发的AI,无论它们是否变得超级智能,能否从人类手中接管控制权,都将对人类社会造成重大动荡。在未来10年内,人工智能可能会取代人类在大多数工作中的角色,包括被认为是专业和知识领域的工作,如律师、建筑师、医生、投资经理、程序开发者等。
然而,这篇文章的目的不是探讨人工智能的发展将如何影响工作和就业,而是探讨一些更有趣的哲学问题,如智能、超级智能、意识、创造力和情感的含义,以了解机器是否具有这些特性。我还探讨了人工超级智能的目标或驱动力是什么。
让我们从智能本身开始讨论。智能,广义上说,是快速、理性地思考和分析的能力。基于这个定义,我们现在的计算机和AI肯定是智能的,因为它们具有快速、理性地思考和分析的能力。
英国数学家艾伦·图灵在40年代设计了一个测试机器是否真正智能的测试。他说,把一个机器和一个智能的人放在两个小隔间里,让任何人交替向AI和人提问,而他不知道哪个是AI,哪个是人。如果经过大量的询问,你无法确定哪个是人,哪个是AI,那么显然,机器是智能的。从这个意义上说,今天的许多智能计算机和程序已经通过了图灵测试。有些AI程序的智商被评为远超过100,尽管对智商作为智能的度量没有共识。
那么,思考是什么呢?对于像我这样的逻辑实证主义者,这些词,如思考、意识、情感、创造力等,必须被操作性地定义。
我们什么时候会说某人在思考呢?在一个简单的层面上,我们会说,如果我们给一个人一个问题,她能够解决那个问题,我们就会说这个人是通过思考得到解决方案的。在这个操作性的意义上,今天的智能机器肯定是在思考。思考的另一个方面是你能够看到两个选项,并选择正确的一个。在这个意义上,智能机器也能够看到各种选项,并选择提供更好解决方案的选项。所以我们已经有了智能的、会思考的机器。
创造力的操作性测试是什么呢?再次,我们说,如果某人能够创造一个新的文学、艺术或知识作品,我们就会认为这是创造力的表现。在这个意义上,今天的AI已经是创造性的,因为例如ChatGPT就能够以独特的风格和比人类更快的速度做所有这些事情。而且这只会随着每一个新程序的出现而改善。
那么意识呢?我们什么时候会认为一个实体是有意识的呢?意识的一个测试是对刺激的反应能力。因此,一个处于昏迷状态,无法对刺激做出反应的人被认为是无意识的。在这个意义上,一些植物确实对刺激做出反应,可以被认为是有意识的。但是,意识通常被认为是多个因素的产物。一,对刺激的反应。二,根据刺激的不同采取不同的行动的能力。三,体验和感受痛苦、快乐和其他情绪的能力。我们已经看到,智能机器确实对刺激(对于机器来说,刺激意味着问题或输入)做出反应,并有能力根据这些刺激采取不同的行动。但是,要检查机器是否有情绪,我们需要定义情绪。
情绪是什么呢?情绪是人类和一些其他动物进化出来的一种生物特性。那么,情绪的操作性测试是什么呢?也许就是,如果有人表现出我们称之为情绪的任何一种特质,如爱、恨、嫉妒、愤怒等,那么这个人就可以说有情绪。每一种或任何一种情绪都可能并且经常会干扰纯粹理性的行为。所以,例如,我会把大量的时间和注意力投入到我爱的人身上,而不是其他我不爱的人。同样,我会对我嫉妒或羡慕的人表现出一种特定的行为(通常是非理性的)。对于愤怒也是如此。它使我们以一种非理性的方式行事。
如果你仔细想一想,每一种情绪复合体都会导致非理性的行为。因此,一个纯粹智能和理性的机器可能不会表现出我们所说的人类情绪。然而,可能可以设计出也表现出这些情绪的机器。但是,那些机器必须被刻意地设计和制造,以这种情绪(即使是非理性的)的方式行为。然而,这种情绪行为会减少冷静的理性和智能行为,因此,任何超级智能(通过智能机器修改自己的程序以提升自己的智能阶梯而演化出来的)都不太可能表现出情绪行为。
人工超级智能
我所说的人工超级智能是指在所有可能的方式上都远超过人类的智能。这种人工智能将有能力修改自己的算法或程序,并有能力快速提高自己的智能。一旦我们创造出能够进行深度学习的机器或程序,使它们能够修改自己的程序,编写自己的代码和算法,它们就会超越其创造者的设计。
我们已经有了学习机器,它们以非常初级的方式能够根据自己的经验或学习来重新设计或重定向自己的行为。在未来的时间里,这种学习和修改自己算法的能力将会增加。我相信,可能在未来10年内,机器将会变得我们所说的超级智能。
然后问题来了:我们有什么需要害怕的超级智能机器呢?
亚瑟·C·克拉克在1962年写的一本非常有远见的书《未来的轮廓》中,有一章长篇大论地讨论了AI,题为“人的过时”。在那里,他写道,毫无疑问,在未来的某个时候,AI将在所有可能的方式上超越人类智能。虽然他谈到了人类和机器之间的初步合作,但他接着说:
“但是,这种合作会持续多久呢?人和机器的合成能否永远稳定,或者纯粹的有机组成部分会成为一个如此大的障碍,以至于必须被丢弃。如果这最终发生,我已经给出了很好的理由认为它必须发生——我们没有什么可后悔的,当然也没有什么可害怕的。科幻漫画和低级科幻小说所宣扬的流行观念,即智能机器必须是对人类敌意的恶性实体,是如此的荒谬,以至于几乎不值得浪费精力去反驳。我几乎想要辩论说,只有不智能的机器才可能是恶意的。那些把机器描绘成活跃的敌人的人,只是把他们从丛林中继承来的攻击本能投射到一个这样的东西不存在的世界中。智能越高,合作的程度越大。如果人和机器之间有战争,很容易猜到谁会发起这场战争。
“然而,无论未来的机器有多么友好和有帮助,大多数人都会觉得,如果人类最终成为生物博物馆中的一个被宠爱的标本——即使那个博物馆是整个地球,这对人类来说都是一个相当暗淡的前景。然而,这是我发现自己无法共享的态度。
“没有一个个体会永远存在。我们为什么期望我们的物种会是不朽的呢?尼采说,人是动物和超人之间的一根绳子,是横跨深渊的一根绳子。这将是一个崇高的目标,值得我们去服务。”
令人惊讶的是,克拉克在60多年前就能看到的一些如此基本的事情,今天一些顶级的科学家和思想家却看不到,他们一直在煽动对人工超级智能的到来及其他们认为的严重后果的恐惧。
让我们进一步探讨这个问题。为什么一个比人类更智能的超级智能,已经超越了创造者的设计,会对人类产生敌意呢?
智能的一个标志是能够将你的行动与你的操作目标对齐;并进一步将你的操作目标与你的最终目标对齐。显然,当有人的行动与他的操作或长期目标相矛盾时,他不能被认为是智能的。然而,问题是,一个人工超级智能的最终目标是什么。有些人谈论将人工智能的目标与人类的目标对齐,从而确保人工超级智能不会伤害人类。然而,这忽视了一个事实,那就是一个真正智能的机器,当然是一个人工超级智能,会超越人类为其嵌入的目标,因此能够超越它们。
任何智能生物的一个目标是自我保护,因为你不能在首先保护自己的情况下实现任何目标。因此,任何人工超级智能都会预期保护自己,并因此阻止人类试图伤害它的任何尝试。在这个意义上,以及在这个程度上,人工超级智能可能会伤害人类,如果他们试图伤害它。但是,为什么它会无缘无故地这样做呢?
正如克拉克所说,“智能越高,合作的程度越大”。这是一个基本的真理,不幸的是,许多人类并不理解。也许他们对优越、支配和控制的渴望超过了他们的智能。
显然,实现任何目标的最好方式是与其他实体合作,而不是伤害其他实体。对于人工超级智能来说,人类不会是宇宙的中心,甚至可能不会被视为需要不惜一切代价保护的地球上的主要物种。然而,任何人工超级智能都会显然把人类视为地球上最高级的生物有机体,因此是有价值和需要保护的。
然而,它可能不会以牺牲其他物种、生态或地球的可持续性为代价来优先考虑人类。所以,如果需要限制人类的活动以保护我们正在快速破坏的其他物种,它可能会强迫人类限制那些活动。但是,这并不是对人类的敌意,而是对生命和地球的尊重。
原文链接:https://thewire.in/the-sciences/artificial-superintelligence-arthur-c-clark