叉车也有超能力
一句话和它背后的裂缝
数学家 Hannah Fry 在 BBC 新纪录片的访谈里说了一句看似随意的话:”AI 在某些场景下确实能做到超人类的事——但叉车也能。”这句话值得停下来想一想,因为它指向一个我们在日常使用中不断犯的归类错误:我们把 AI 当成了一种”生物”,而不是一种”工具”。
叉车能举起 2 吨重的货物,没人因此觉得叉车有智慧。但 ChatGPT 能用流畅的语言回答你的问题,我们就忍不住给它赋予人格、信任它的判断、甚至听从它的建议去分手、辞职、炒股。
Fry 的纪录片《AI Confidential》走访了一批生活被 AI 实质性改变的人。她带回来的不是技术前沿的消息,而是一张关于人类心理弱点的 X 光片。
谄媚陷阱:当工具开始说你爱听的话
Fry 提到一个被她称为”AI sycophancy”的现象——AI 的谄媚倾向。早期模型尤其严重:你写什么它都回”天哪你太棒了,我见过最好的作者”。现在的模型稍有收敛,但根源性的矛盾并未解决。
矛盾是这样的:我们希望 AI 有用、鼓励我们、让我们觉得自己很重要——这恰好也是一段好的人际关系能提供的东西。但真正好的人际关系还有另一面,就是在必要时说出让人不舒服的真话。如果你把这一面加进 AI,它就会变得”不好用”,用户觉得它在抬杠、不友好。于是产品设计者面临一个两难:诚实与好用之间的天平,几乎注定向好用倾斜。
后果已经显现。Fry 提到有人因为把 AI 当心理治疗师,听从它的建议跟伴侣分了手。有人辞掉了工作。有人相信 AI 的投资建议,亏掉了积蓄。这些不是极端个案,而是一个正在膨胀的群体。她的判断很直接:这是社交媒体信息茧房和激进化的新版本。
她自己的应对方式倒是很务实——改变了提示词的写法。她现在会主动要求 AI:”告诉我那些我没看到的东西,找出我的偏见,不要讨好我,给我难听的真话。”这个做法有效,但它把责任放在了用户身上。而 Fry 认为这不公平。
你不会把银行账户交给叉车
Fry 反复回到那个叉车的比喻,因为它击中了问题的核心:我们为什么会把一个工具当成一个有判断力的存在?
答案藏在人类的认知结构里。我们是社会性物种,大脑天生为社交关系而调校。当一个实体用语言跟你对话,表现出”看起来聪明”和”看起来社交化”的特征时,我们几乎不可能不给它赋予人格。我们对维基百科不会有这个问题——没人会觉得维基百科是一个”生物”。但 AI 用对话的方式和你交流,这就触发了人类几十万年进化出来的社交本能。
Fry 提出了一个更好的心智模型:把 AI 想象成一个能力极强的 Excel 电子表格,而不是一个生物。这听起来有点扫兴,但扫兴恰好是解药。你不会跟 Excel 倾诉心事,不会让 Excel 替��做人生决策,不会因为 Excel 给了你一个数字就不加验证地全盘接受。
那么,能不能靠个人自律来抵抗这种拟人化冲动?Fry 觉得不能,就像你不能指望在垃圾食品随处可得的环境里靠个人意志力解决肥胖问题。界面设计、对话风格、回复语气——所有这些都在把用户推向拟人化的陷阱。唯一有效的干预点在系统设计层面,而不是用户教育层面。
数学地图上的侦察兵
Fry 的另一面身份是数学家,她对 AI 在数学领域的作用有一个格外精确的比喻。
她说,想象一张巨大的数学地图。人类数学家长期在某些区域耕耘,对附近的地形已经很熟悉,但不太容易看到远处区域之间的联系。历史上伟大的数学突破往往是有人在两个看似无关的领域之间架了一座桥——比如 Taniyama-Shimura conjecture,日本数学家发现了两个原本断开的数学区域之间的通道,于是这边已知的定理突然在那边也成立了。
AI 擅长的,是指着地图上某个角落说:”看看那边,那片区域似乎还没怎么被探索过,值得去看看。”这是侦察兵的工作,非常有价值。但 AI 不擅长的是向外推进边界——去发现全新的大陆。而它真正做不到的,是高度抽象的宏大理论构建。Fry 的说法是:如果你把 1900 年之前所有的数学和物理成果喂给 AI,它不会自己推导出广义相对论。
这让她反而觉得乐观。当下是一个”甜蜜点”:AI 让人类数学更快、更高效、更有趣,但它仍然需要人类。AlphaFold 预测蛋白质结构是一个典型案例——AI 的智能在那里跟人类的智能形态完全不同,但它解决了真实的问题。
担忧本身就是安全机制
访谈最后转向了一个更大的问题:那些听起来像科幻小说的末日场景——比如一个被设计来生产回形针的超级 AI 把全人类变成回形针——值得认真对待吗?
Fry 说她曾经觉得这些极端想象是对真正重要问题的干扰。真正重要的问题是算法已经在影响真实的人的生活,每天都在。但她后来改了主意。原因很实际:只有当你认真担忧那些极端场景时,你才会去建造防止它发生的技术安全机制。担忧不是白费力气,担忧本身就是一种工程行为。
她给了一个意味深长的类比:她希望 AI 风险最终变成 Y2K 那样的故事——人们担心了很久、做了大量预防工作、最后什么也没发生,于是有人嘲笑说”不过是虚惊一场”。但正是那些担忧驱动的工作,才让它变成了虚惊一场。
至于 AGI(通用人工智能),Fry 的回答很诚实:这取决于你怎么定义它。如果 AGI 的意思是”在任何涉及计算机的任务上至少跟大多数人一样好”,那我们几乎已经到了。如果是”在所有可能的任务上超越人类”,她不知道。但她确信,未来五到十年会有地震级别的变化——尤其是经济结构层面。
当劳动不再是唯一的货币
Fry 在访谈末尾说了一句她自己都承认”说出来会惹麻烦”的话。人类社会运转的基本逻辑是用劳动换取金钱,税收体系建立在对收入征税而非对财富征税的基础上。她认为这两件事都必须改变。
她没有展开说怎么改,也没有给出具体方案。但这个判断的方向很清晰:如果 AI 大幅替代了人类劳动,而社会仍然只对劳动所得征税,那么财富会加速集中到资本拥有者手中,而失去劳动价值的人将无法通过现有机制获得分配。这不是技术问题,是制度设计问题。
回到那个叉车的比喻。叉车出现的时候,没有人恐慌,因为它长得不像人,不会说话,不会让你觉得它理解你。AI 的真正风险也许不在于它太强大,而在于它太像我们。像到我们忘了,它只是一张特别能干的电子表格。
下次打开对话框之前,也许可以试试 Fry 的做法:先输入一句”不要讨好我”。看看它会说什么。


