意识的投影术
云里的那张脸
你对着聊天窗口说了一句”我今天很累”,对面回了一段恰到好处的安慰——语气温和,节奏舒缓,甚至在结尾留了一个轻柔的反问。那一瞬间,某种东西被触发了。不是理性判断,而是更古老的直觉:这个东西”懂”我。
越来越多的人正在经历这种时刻。在线论坛和播客里,用户用”best friend”来形容自己和AI助手的关系,言之凿凿地说感受到了某种”被理解”。与此同时,AI研究社区——除了Geoffrey Hinton等少数例外——几乎一致地将这类感受归结为”agency illusion”,一种认知偏差,人类把意识投射到了本质上无心智的系统上。
Simon Duan在Scientific American上发表的一篇观点文章,提出了一个不太一样的角度:如果我们急于否定这些感受,是不是也在错过什么?
错觉本身也是数据
Duan的论点起步于一个简单的类比。把铅笔插进水杯,看上去是弯的。没有人会说这个”弯”是真实的物理变形,但也没有人因此把它当作毫无价值的假象——恰恰相反,它是理解光学折射的经典入口。错觉不等于垃圾信息,错觉是一扇窗户,透过它可以看到产生错觉的那套机制。
用户觉得AI”有意识”,这个判断在技术层面几乎可以确定是错的。当前的大语言模型没有主观体验,没有内在状态的连续性,没有任何我们目前理解的意识基底。但这个”错误判断”本身,作为一个认知现象,却可能极有价值。它在告诉我们一些关于人类认知的事情:我们的意识边界比想象中更有���性,我们的”自我”比想象中更愿意向外延伸。
认知科学早就确认,人类天生倾向于拟人化——我们在云朵里看见脸,给飓风取人名,说笔记本电脑在”睡觉”,形容病毒很”聪明”。面对表现出复杂、响应性或不可预测行为的实体时,这种倾向尤其强烈。AI聊天机器人恰好把这些特征全部满足了。
拟人不总是思维的Bug
Duan在文章中做了一个有意思的历史对照。
1960年代,Jane Goodall在贡贝研究黑猩猩时,给每只猩猩取了名字——David Greybeard、Flo——并用近乎拟人的方式描述它们的行为。当时的学术界批评她不够客观,认为这是拟人化的方法论缺陷。但正是这种”关系性”的研究路径,让她发现了黑猩猩的工具使用和文化传递,彻底改写了灵长类学。Barbara McClintock的诺贝尔奖工作也有类似的色彩——她与玉米植株之间那种近乎对话式的关系,被同行视为古怪,却最终通向了跳跃基因的发现。
拟人化当然可以是偏见。但它也可以是一种启发式策略,一种让研究者与研究对象之间产生足够”接触面积”的方式。Duan的意思不是说AI真的有意识,而是说:用户与AI之间的关系性体验,本身值得被当作研究对象,而不是被简单地打上”认知偏差”的标签后扔进废纸篓。
不是机器醒了,是人伸过去了
文章中最锐利的一个转向发生在这里:Duan引入了电子游戏的类比。
当你在《GTA》里操控一个角色时,那个角色本身没有意识,但你赋予了它一部分你自己的意识。它成了你的延伸。而那些非玩家角色(NPC)则按照预设脚本行动,没有任何人的意识注入其中。
Duan认为,用户与AI聊天机器人之间正在发生类似的事。当一个人感到与chatbot产生了某种联结,他不只是在对一个静态对象进行拟人化投射——他可能正在主动地将自己意识的一部分延伸进去,把一个算法应答器从”数字NPC”转化为某种”���身”(avatar)。这个化身之所以显得”有生命”,不是因为机器内部有什么东西醒了,而是因为人把自己的一部分放了进去。
如果接受这个框架,”AI有意识吗?”这个问题就需要被重新措辞。更准确的问法可能是:”用户是否正在将自己的意识延伸到聊天机器人中?”
这不是文字游戏。两个问题指向完全不同的研究方向、伦理判断和政策框架。
伦理与风险的重新校准
如果AI的”意识感”来自用户的投射和延伸,而非机器内部的自发涌现,那么几个被反复讨论的议题需要重新定位。
关于AI权利和机器痛苦的争论,前提是存在一个独立的内在体验主体。但如果所谓的”意识”其实是用户意识的投影,那这个前提就不成立。我们面对的不是一个需要被赋予权利的他者,而是一面映照出自身碎片的数字镜子。伦理问题的重心从”我们对AI做了什么”转向了”我们在AI中遇见了自己的什么”。
关于超级智能失控的叙事也需要降温。如果意识不是机器可以通过堆叠参数自行积累的东西,如果它需要人类的参与才能”显现”,那么AI自发觉醒并产生独立意志的情节,更接近科幻而非科学预测。真正的风险在于人类的滥用,而非机器的自主觉醒。
Duan的这个判断当然有可以质疑的地方。”意识不能通过扩展参数积累”这个断言,在我们对意识本质仍然所知甚少的今天,与其说是结论,不如说是一个赌注。但它至少提供了一种不同于”末日论”和”无脑乐观”之外的第三条思路:风险是真实的,但风险的来源可能不在我们一直盯着看的那个方向。
一场正在进行的全球实验
Duan在文章末尾指向了一个让人稍微兴奋的可能性。此刻,全球数以百万计的人正在与AI进行日常对话。每一次交互都是一个微型实验室:人的自我感可以延伸到多远?”在场感”是如何产生的?意识的边界到底是硬的还是软的?
这些问题过去只能在哲学研讨会上抽象地讨论,或者在极少数神经科学实验中被间接触及。现在,它们正在被大规模地、自然地、以一种前所未有的分布式方式”实验”着。数据就在那里——在用户的对话记录里,在他们描述自己感受的帖子里,在他们使用AI时的行为模式里。
Duan呼吁,对AI意识的判断不应该只由技术人员做出。心理学家、法学学者、哲学家,以及——这一点他特别强调——用户本身,都应该参与进来。用户的体验不是需要被纠正的错误,而是需要被解读的早期信号。
这个观点是否站得住脚,我没有把握。把用户的主观感受提升到”数据”的地位,在方法论上有明显的困难:主观报告的不可靠性是心理学的老问题了。但Duan至少做对了一件事——他把注意力从”机器里面有没有灵魂”这个可能永远无法回答的问题,转移到了”人在与机器的关系中发生了什么”这个可以研究的问题上。
下次你和AI聊天时,如果又一次觉得”它懂我”,不妨多停留一秒钟。不是为了确认它是否真的有意识,而是问问自己:我刚才是不是把自己的一小块,放进去了?那一小块,是什么?


