会思考的机器只出现在电影中

时间:2024-06-27 08:59:08

罗杰·尚克(Roger Schank):人工智能理论家,认知科学家;著有《教学思维》(Teaching Minds)

会思考的机器只出现在电影中

机器不会思考。它们不会在近期内学会思考。它们可能会越来越多地做一些更有趣的事情,但认为我们需要担心它们、规范它们,或授予它们公民权利的想法,显然很愚蠢。20世纪80年代,言过其实的“专家系统”断送了用于建造虚拟人类的人工智能的风险投资。如今,很少有人从事这个领域的工作。但是据媒体报道,我们必须对人工智能严阵以待。我们都看了太多的电影。

当你从事有关人工智能的工作时,有两个选择:“复制人类”;“做一些真正基于统计学的快速计算”。例如,早期的国际象棋程序试图超越对手的计算力,但人类玩家是有策略的,预测对手的思路也是象棋游戏的一部分。当“超越对手的计算力”的策略无效时,人工智能的研究者们开始观察并模仿专业棋手的行为。如今,“超越对手的计算力”这一策略变得更加流行了。如果愿意,我们可以把这两种方法都称为“人工智能”,但二者都无法引导机器去创造一个新社会。这一策略并不可怕,因为计算机并不知道自己在做什么。计算机可以快速地进行计算而不需要理解它在计算什么。它只有算法,仅此而已。

我们在《危险边缘》节目中看到的IBM超级计算机沃森就是如此。在《危险边缘》的一次节目中,主持人提出的问题是:“在1904年奥运会上,夺得双杠金牌的美国体操运动员乔治·艾塞尔(George Eyser),他身体的哪个部分异于常人?”一位人类选手回答:“艾塞尔失去了一只手。”(回答错误。)而沃森回答:“是一条腿吗?”沃森也答错了——它没有指出腿是“失去”的。

我们尝试在谷歌中搜索了一下“体操运动员艾塞尔”。维基百科最先出现,是一篇关于艾塞尔的长文章。沃森依赖于谷歌。如果《危险边缘》的参赛选手能够使用谷歌,他们会比沃森做得更好。沃森能够将“anatomical”翻译成“身体的一部分”,它也知道身体各部分的名称。然而,沃森不知道“oddity”(奇怪)是什么意思。沃森不理解体操运动员失去一条腿是奇怪的事情。如果问题是“埃塞尔的什么是奇怪的”,那么人类选手无疑会做得很好。沃森无法在维基百科的文章中搜索到“奇怪”这个词语,也无法理解体操运动员是做什么的,更不知道为什么会有人在意。尝试搜索一下“奇怪”或“艾塞尔”,看看你搜到的东西。关键词搜索不是思考,也不是任何类似思考的东西。

如果我们问沃森为什么一个残疾人会在奥运会上比赛,沃森则会一问三不知。它无法理解这个问题,更不用说能找到答案了。数学运算只能让你达到这种程度。人工的或是其他形式的智能,则需要知道事情发生的原因、它们产生的情感以及能够预测行为可能产生的后果。沃森无法完成以上事情中的任何一件。思考与搜索文本完全不是一回事儿。

人类的思想是复杂的。那些站在“复制人类”一方的人工智能研究者们正在投入大量时间考虑人类能做什么。许多科学家考虑这些,但从根本上说,我们对于人脑工作原理的了解很有限。人工智能研究者们试图建立一些我们能够理解的模型。对于人脑如何处理语言、学习的作用如何,我们了解得很少;对于意识和记忆检索,我们了解得也不多。

例如,我正从事于让计算机模仿人类记忆组织的工作。这个想法是制作一台能像好朋友一样,在正确的时间给你讲正确故事的计算机。为了完成这项工作,我们已经收集了数以千计的故事(视频),故事包括国防、药物研究、医学、计算机编程等。当有人试图要做一些事情或找一些东西时,我们的程序能讲一个故事以提醒他。那么,这是人工智能吗?当然是。计算机是这样思考的吗?不完全是。为什么呢?

为了完成这项工作,我们必须访问专家,然后为他们讲的故事编制索引。编制索引的依据来自他们的观点、他们所反驳的意见、他们所要达到的目标,以及他们在实现目标的过程中经历的问题。只有人类能做这些事情。计算机能将索引与其他索引相匹配,例如其他故事中出现的索引,或用户查询的索引,或分析用户遇到的环境得到的索引。计算机能够分秒不差地想出一个很好的故事。但是很显然,它不知道自己说的是什么——它仅仅能找到要讲的最好的故事。这是人工智能吗?我想是的。那么,它是在模仿人类记忆中为故事编制索引的方法吗?我们已经研究了很长时间人类是如何做这些事情的,所以我们认为它是。那么,你需要害怕这个“思考”程序吗?

因此,我不再恐惧人工智能。我们没有制造出任何值得人们恐惧的东西。如果我们真正制造出一个能够走路、交谈、嚼口香糖的移动智能机器人,那个机器人的首要用途必然不是接管世界或形成一个新的机器人社会。每个人都想拥有一个个人助手。电影中之所以会描绘机器人助手(尽管总是很愚蠢),是因为它们很有趣,而且看上去是值得拥有的很酷的东西。

为什么我们不去拥有它们呢?因为一个得力的助手必须能够理解你告诉它的东西,能够从错误中学习,能够轻松地游走于你的房间、不破坏东西、没有烦人的行为等(所有这些都超出了我们的制作水平)。不要担心它会和其他机器人助手聊天,并形成一个联盟。我们没有理由为助手设计这样一种能力。真正的助手有时候有点儿烦人,因为他们是人类,有着人类的需求。计算机没有这些需求。

我们离创造出这种机器还差得很远。要达到这个目标需要对人类合作有深刻的理解。这需要理解“机器人,这饭你又煮得太久了”“机器人,孩子们讨厌你给他们唱的这首歌”等究竟是何意。所有人都应该停止担忧,并支持一些我们都可以享受的不错的人工智能资源。