没有纳米意向性,就无法思考

时间:2024-06-27 09:17:09

特库姆塞·菲奇(W.Tecumseh Fitch):进化生物学家,维也纳大学认知生物学教授;著有《语言的进化》(The Evolution of Language)

没有纳米意向性,就无法思考

尽管计算能力有了巨大的提升,但是当前的计算机依然无法像人类(或者黑猩猩、狗)一样进行思考。硅芯计算机缺乏有机大脑的一项关键能力:能够调整具体的物质形态,并进行计算,以对外部环境形成反馈。如果没有这种能力(我称其为纳米意向性),那么单纯的信息处理不足以产生有意义的思想,因为被计算的符号和数值与真实世界之间没有内在的因果关系。硅芯计算机所处理的信息需要人类的解读才能变得对未来有意义。我们需要担心的不是会思考的机器,而是人类对它们愈加不假思索地依赖。

这种在生物性上而非计算机上所体现的属性到底是什么?不要害怕我下面将要提及的看似神秘的词汇。这是在活细胞身上可以被观测到的、机械学的属性,它是通过自然选择进化而来的。在我的观点中,没有神秘主义或者“无形的精神”。我的核心观点是,纳米意向性是细胞通过重新布置分子并由此改变其形态来响应环境变化的能力。它存在于变形虫吞噬细菌之中,存在于肌细胞增强肌球蛋白水平以响应慢跑之中,存在于(最相关的)一个神经元伸展它的树突以响应自身的神经计算之中。纳米意向性是地球生物拥有的一项基本的、不可或缺的、不可否认的特性,也是以刚性的蚀刻硅芯片为心脏的现代计算机所不具备的特性。正因为大脑和计算机两者之间的简单、粗暴的物理差异,所以这场争论的关键是,这个事实对于诸如“思想”和“意义”这种更加抽象的哲学问题意味着什么。这正是让争论变得更加复杂的原因。

这场哲学争论始于康德,他的观点是,我们的思维不可逆转地与思考的物理实体相分离,通过光子、空气振动或者它们释放出来的分子,我们可以找到这些客体存在的证据,但是我们的思想或者大脑,从未与它们发生过直接的联系。因此,把精神实体,比如思想、信念、欲望等,描述为与真实世界的事物是“相关的”,是有问题的。事实上,这种“相关性”问题正是心灵哲学中的核心问题,也是丹尼尔·丹尼特、杰瑞·福多尔(Jerry Fodor)、约翰·塞尔等哲学家争论的焦点。哲学家们把这种假想的精神上的“相关性”称为意向性(这里,不要把意向性与我们日常用语中的“有目的地做某事”相混淆)。意向性问题与“现象意识”问题紧密相连,通常与“感受性”以及意识的“难题”同属于一个框架。哲学家们提出了一个更基础的问题:精神实体(即思想或者神经放电的模式)如何能与它的客体(你所见或者所思的人或事物)产生任何意义上的“联系”?

怀疑论和唯我论对该问题的答案是:根本不存在这种联系,所谓的“意向性”不过是一种假象。这种观点至少在一个关键领域是错误的(叔本华在200年前强调):精神事件(被神经放电所具象化的欲望和意图)与现实世界发生联系的其中一个场所,就是我们身体的内部,比如神经树突的连接处。通常来说,生物,尤其是神经细胞的可塑性,意味着一个直接连接思想和行动的反馈环,它渗透在我们的感知中,以影响神经细胞的结构。这个反馈环在我们的大脑中总是闭合的,假设你明天还能记住本文的任何内容,那是因为你大脑中的某些神经细胞改变了结构,一些神经树突被增强,而另一些被弱化,一些连接得到延伸,而另一些则被撤销。而从原理上看,这个反馈环在刚性硅芯片中是无法闭合的。这种生物学素养授予了我们的精神活动以因果关系的“意向性”,这是当前的硅芯计算机系统所不具备的。

从这种意义上讲,这种观点是正确的(逻辑与直觉两者都是它的佐证),那么机器的“思考”“知道”“理解”,就都只局限于它们的创造者以及编程人员的范围内,“意义”是由人脑的智能体所解释和刻意添加上去的。人工智能的任何“智能”都仅仅来源于它们的创造者。

因此,我并不担心什么人工智能叛乱或者人工智能权利运动。那么,这是否意味着在纳米计算机被发明出来之前,我们就是安全无忧的呢?很遗憾,答案是否定的,因为还有另一种危险:我们人类有着把无生命物体过度拟人化的倾向,会错误地对其“意图”进行归因,比如,“我的汽车不喜欢低辛烷值汽油”。当我们把“他”这个词用在计算机工件(比如计算机、智能手机或者控制系统)时,就会有一种强烈的倾向,把原本属于我们承担的责任和能力让位于计算机或者操控计算机的人。当我们心甘情愿并懒洋洋地把这种能力转让给五花八门的硅芯系统(车载导航、智能手机、电子投票系统、全球金融系统等)时,真正的危险就降临了,因为这些系统既不理解也不在乎它们计算的东西是什么。全球金融危机的例子已经让我们尝到了苦头,它警醒我们,在互联网世界里,把责任和能力愚蠢地移交给计算机会带来什么样的灾难。

我并不担心人工智能的起义,相反,我担心的是,由于过度授权,相互连接的硅芯系统中的小错误会引发系统性灾难。我们距离计算机超越人类智能的奇点还很远,但这并不能保证我们可以远离网络瘫痪带来的灾难。预防这种灾难的第一步,就是停止对计算机进行过度授权,不让它们承担那些需要思考和理解才能做到的事情,并接受这样一个基本事实:机器不会思考。我们还要知道,它们每日所作所为的风险正在日益增加。