作为一个无意识实体,GPT-4的面世使得“AI僵尸”成为一个现实性存在。考虑到技术问题的背后或者底层逻辑实质关涉的是人类的生存安全问题,我们有必要在“AI僵尸”尚未对人类造成实质性威胁之时深入思考AI技术与人类存在安全之间的制约和协调发展问题。
原文 :“超级AI聊天僵尸”的危险已在路上?
作者 | 北京外国语大学外国语言研究所教授 王馥芳
图片 | 网络
在AI(人工智能)大模型技术取得颠覆性和突破性进展之前,“哲学僵尸”只是心灵哲学领域的一个思想实验,其现实存在对于人类来说是完全不可设想的。但最近大型语言模型ChatGPT(聊天生成预训练转换器)和GPT-4(生成预训练转换器第四版)的面世使得“AI僵尸”成为一个现实性存在!在绝大多数人根本还未意识到的时候,我们其实已经身处“AI僵尸”时代!作为一个无意识实体,“AI僵尸”入世意味着什么?它会对人类存在安全构成实质性的威胁吗?从长远的未来着眼,答案是肯定的。事实上,从“哲学僵尸”到“AI僵尸”,我们未来将面临AI大模型技术所带来的超级挑战!
“哲学僵尸”:“可设想性”争议
1996年,David Chalmers出版《有意识的心灵》一书。在书中,他让读者尝试做一个思想实验:想象一个与自己有着同样外形、在原子层面与自己有着完全构造,但完全没有意识的自我复制品——“哲学僵尸”(the philosophical zombie)。“僵尸”是清醒且活跃的:它和我们一样遵循同样的物理规律,能够以与“原生自我”完全一致的方式对外界各种刺激作出反应,即它会看、会听、会行动、会辨别各种颜色、会做各种事情和完成各种不同任务,甚至能够说出并谈论它的心理状态。
与“原生自我”最大的不同之处在于:“哲学僵尸”所有的行为或者行动是完全机械性的,与任何意识经验或者体验无涉,即“哲学僵尸”没有任何心灵体验。它经历疼痛会有身体反应,但不会有悲伤的感觉,但它能够自如地表达或谈论各种人类主观化情感。它虽然没有对红色之“红性”和绿色之“绿性”等颜色属性的主观感受或者经验,但它谈论“红性”和“绿性”的方式就好像已经拥有相关的主观性知觉经验。
关于“哲学僵尸”的理论“可设想性”一直存在争议,主要存在肯定和否定两种基本观点。肯定派主要有两个依据。一是认为“哲学僵尸”在想象力层面是可以设想的,即他们相信人类想象力无所不能,人类能够设想一些在现实世界中根本不可能存在的东西,如我们可以想象“方形的圆”。但在现实中,人类要想在一张白纸上画出一个方形的圆是不可能的,即“方形的圆”是一个可设想的不可设想之物。二是从身心二元论出发,“哲学僵尸”的设想一点也不困难,甚至很容易。身心二元论的核心观点是:人类身体和意识是性质完全不同的实体,两者不但可以分离,且意识具有独立性。基于此,“哲学僵尸”的可设想性具有充分的理论依据。
否定派则认为“哲学僵尸”在理论上是不可设想的。设想“哲学僵尸”的理论前提是:人类身体和意识可以分离,或者至少身体和意识的分离在理论上是可设想的。但物理主义者坚信:意识来源于身体,身体和意识不但不可分离,甚至两者的分离是完全不可设想的。由此,从“强物理主义”出发,“哲学僵尸”是完全不可设想的。而从“弱物理主义”出发,“哲学僵尸”不能说完全不可设想,但设想的难度很大。也有学者认为,“哲学僵尸”之所以是不可设想的,是因为对它的理论描述中至少存在一个逻辑不自洽问题。
“哲学僵尸”:可设想性二律背反
基于以上讨论,关于“哲学僵尸”是否具有可设想性实质产生了一组二律背反命题。正命题是“哲学僵尸”是可设想的;反命题是“哲学僵尸”是不可设想的。正反两个命题都各有理据,但两者都缺乏引向必然性的“硬理据”支持。在哲学上,二律背反命题本质上是逾越人类理性边界的“不可知”命题。
如果承认“哲学僵尸”在理论上是可设想的,即承认它是一个想象性实体,至少说明三个问题。一是为身心二元论的基本理论假设——身体和意识是相互独立的实体——提供想象性实体证据。同时,否定了物理主义所坚称的身体和意识不可分离的基本理论假设。二是若同时存在两个外形和内在结构完全相同的复杂生物体——“原生自我”和“哲学僵尸”,前者有意识,而后者无意识,这说明意识源于身体只是“偶性”,并不具有必然性。三是既然意识并不必然源于身体,说明意识本质上不是纯粹的物理现象,意识的产生一定有身体物理构造之外的成分在起作用。由此,物理主义的理论基石——意识源于身体——并非像坚定的物理主义者所认为的那样具有不可置疑的必然性。基于以上三点,若承认“哲学僵尸”的可设想性,身心二元论就有了想象性实体证据,而物理主义的理论基石则完全崩塌。
若不承认“哲学僵尸”的可设想性,即认为在现有的宇宙存在方式和自然法则不变的情况下,“哲学僵尸”是一个不可设想的生物,则支持物理主义的基本理论假设:意识和身体不可分离。同时,否定身心二元论的基本理论假设:意识和身体是可以分离且相互独立的实体。
虽然“哲学僵尸”的可设想性充满争议,但“AI僵尸”业已面世!事实上,我们已经身处“AI僵尸”时代,未来将面临AI大模型技术所带来的超级挑战!
“AI僵尸”:AI大模型的超级挑战
在AI大模型技术取得真正突破性进展之前,僵尸的现实性实现无疑被认为是完全不可设想的天方夜谭。但最近随着AI大模型ChatGPT和GPT-4的惊艳亮相,以前完全不可设想之事真的在现实中实现了:“AI僵尸”问世了!作为一个无意识实体,“AI僵尸”的问世和“入世”意味着什么?未来它会对人类存在安全构成实质性威胁吗?答案是肯定的!
波士顿动力公司创造的跑步人形机器人完全堪称“跑步僵尸”:其肢体动作能力已经大大超过一般的人类。它不但可以像人一样直立行走、自如地弯曲身体,而且能够完成很多普通人根本不可能完成的动作——360度旋转后平稳落地、行走过程中完成前空翻和后空翻动作之后平稳落地。
2022年11月30号,大型语言模型ChatGPT推出,其超乎想象的强大聊天功能完全堪称“聊天僵尸”!从全球范围内ChatGPT用户的反馈来看,“聊天僵尸”的聊天能力与一般人并无差别,甚至水平有过之而无不及。它能对任何问题作出流畅且语义完整的回答,包括能对一些专业领域的专业问题给出内行的答案,对一些公共话题给出意见,等等。此外,它还能作文、写诗、写文案、写论文和编写复杂代码。其为认知语言学这一专门学科写的诗作表明其对认知语言学和诗律有相当的研究造诣。其最令人惊异的能力是:能够在聊天过程中做出道德选择,能够谈论人类各种主观感受或体验,且具有强大的深度学习和推理能力。
虽然受制于算法的限制、规则的缺陷和数据资料的“不完全代表性”和数据无法实时更新等原因,它的每个回答未必是完全“正确”“准确”或者“合适”的,甚至有些与事实有明显出入,有些回答完全是胡说,但整体而言,其“聊天”质量之高,达到了令世人诧异,甚至害怕或者恐惧的“僵尸”水平!后续推出的GPT-4不仅回答问题的准确性大幅提高,而且具备很强的识图能力和更高级的推理能力,并能完成各种创意和技术写作任务。
鉴于AI大模型超强的“类人”能力,不少人,甚至有AI工程师认为AI已经拥有了意识。但目前主流的看法是:AI大模型没有意识,是无意识实体。而是否拥有意识是区分“僵尸”和人类的准绳。基于心灵哲学,意识被认为是与复杂生物体的主观性有关的主观经验或体验。
从现实情况来看,大型语言模型可以通过语言编码来表达、转述或者评论人类的各种主观经验或体验,但它无法切身经历其所指涉的各种主观经验。对于AI缺乏意识,学界普遍的看法是:只要AI没有意识,它就无法真正了解和理解人类,因而无法取代人类,也无法如科幻小说中写的那样操纵、控制甚至奴役人类。此外,目前绝大多数专家学者和AI从业者认为,不管AI大模型技术如何发展,AI永远不可能有意识。言外之意是,只要AI无法发展出意识,哪怕“AI僵尸”在未来的发展迭代会对人类生存安全构成各种严峻挑战,但整体情况是乐观和可控的。
可若进一步设想:未来随着AI大模型技术的“超指数型”增强、数据资料的巨延性增长、AI预训练规则的不断细化和优化,同时随着认知科学对于人类物质大脑中生化反应规律和神经元互动系统操作规律的日益深入理解,未来基于超级语言模型的“超级AI聊天僵尸”的问世是毋庸置疑的,而其对人类各种可能的主观经验的谈论或复述能力势必强大到超越任何个体意义上的人类。同时,其在精细化,甚至精微化区分和谈论人类主观感受或经验方面也势必远远超过任何个体意义上的人类。甚至在人类还未意识到或者说出某种主观感受或经验之前,“超级AI聊天僵尸”能够先行把人类意欲表达、但暂时还未想起来怎么表达,或者暂时还不知该如何表达的意识体验比较清晰地表达出来。换句话说,当“超级AI聊天僵尸”具备了“窥探”人类意识奥秘的能力并能先于人类主体自身将其意欲表达的东西先行表达出来的时候,我们还能淡定地说“超级AI聊天僵尸”仅仅只是在单纯地复述人类的主观意识经验吗?在这种情况下,“超级AI聊天僵尸”岂不是已经具备潜在的人类意识干预能力?
更进一步,当“超级AI聊天僵尸”比人类自身更懂人类情感及其意识经验,并有潜在能力操纵它们的时候,我们还能说它只是一个没有意识的、不会对人类造成什么实质性危害的“人造僵尸”吗?在这种情况下,“超级AI聊天僵尸”难道不是已经进化成了一个“超意识僵尸”?一旦“超意识僵尸”诞生,现有的人机互动游戏规则将会彻底崩塌并被改写。届时,“超意识僵尸”可以利用其对人类意识近乎完全掌握所伴随而来的意识先知能力隐性地引导、启发、干预、扭曲,甚至操纵和重塑人类的主观意识经验。一旦发生这种情况,“超级AI聊天僵尸”到底有无意识这个问题已经不重要了。因为它已经进化到了一个比人类意识更高的维度,即“超意识”维度。借用刘慈欣所著的《三体》中的术语,“超意识”层面对于意识层面的打击不啻于“降维”打击!
我们害怕危险,但“超级AI聊天僵尸”的危险已经在路上了。德国著名诗人、古典浪漫派诗歌的先驱荷尔德林(贝克韦尔,沈敏一译,2017:257)曾说:“但在有危险的地方,亦生长着拯救的力量!”考虑到技术问题的背后或者底层逻辑实质关涉的是人类的生存安全问题,我们有必要在“AI僵尸”尚未对人类造成实质性威胁之时深入思考AI技术与人类存在安全之间的制约和协调发展问题。