人工智能的突破是怎样实现的? | 方柏林读《陌生的新大脑》

牛津大学教授萨默菲尔德在他的新书《陌生的新大脑》中揭示了大语言模型的运作机制。
2025年刚出版的《陌生的新大脑:人工智能怎么学会了说话,这意味着什么》是一本极富洞察力的作品,它不仅追踪了人工智能的技术演变,更深刻探讨了“智能”究竟意味着什么,能做什么。它不是一部关于编程技巧或模型架构的教科书,而是一部融合认知神经科学、哲学思辨与社会反思的跨学科力作。作者克里斯托弗·萨默菲尔德(Christopher Summerfield)带我们踏上一段从数字神经元到人类心灵,从符号推理到沉默的意义,从人工智能的威力与功用,到伦理和谬误的旅程,最终引导读者重新理解自己,理解人类心智的独特性与脆弱性。
本书作者克里斯托弗·萨默菲尔德是一位横跨认知神经科学与人工智能领域的学者。他在英国牛津大学担任认知神经科学教授,专注于研究人类大脑如何进行思维、学习与决策;同时,他也是英国人工智能安全研究院(AI Safety Institute)的研究主任,致力于探讨如何构建安全、可靠且具备类人智能的人工系统。他的研究融会神经科学与计算机科学,深入探索人类与机器智能之间的共通、差异和有机组合。2015年,萨默菲尔德荣获“认知神经科学学会青年研究者奖”(Cognitive Neuroscience Society Young Investigator Award),其学术成就备受国际认可。
人类理性的幻梦:实证主义和逻辑崩塌
本书一开始追根溯源到大语言模型演化的历史,尤其是实证主义哲学传统和“我思故我在”的理性主义传统。在实证主义传统里,我们的思考和外部感官刺激有关,代入到大语言模型的语境里,大语言模型的输出效果,和我们外部的刺激——亦即我们投喂的提示词和开发者的训练语料息息相关。我们作为使用者,大语言模型的产出效果,受制于我们的提示词投喂和提示词的细化质量,所谓“进去的是垃圾,出来的也是垃圾”,反之亦然。故而同样都有这些人工智能的工具,人们使用的效果却千差万别,有的仅限于写写小作文,有的则人生规划都用它来辅佐了。
关于理性主义传统,作者反思神经网络内部基于逻辑和算法的组合,如何改变生成效果。这里强调的是人工智能对于语言规则的学习,通过逻辑的方式反刍,借此输出结果。从概念到概念地解说这两种传统比较抽象,作者使用了花样滑冰和下象棋的比喻。花样滑冰有如实证主义传统,运动员在溜冰场上,感官刺激丰富,如赛道的平滑或者颠簸、风速、音乐、教练训导、观众反应等等,都能对表现产生影响。而与之相对,象棋大师可能只是坐在那里,在脑海中排列组合,这好比那种纯逻辑的传统。这两者其实是相互结合的。还有一个有趣的比喻,是一个外国人,如果不幸被困在泰国图书馆里,长时间不得出去,先前没有学过泰语,能否通过符号和逻辑,最终把泰语学会。如果我们的头脑中生来就有语言所依据的逻辑,照说这是有可能的,如果时间不限的话,这是理性主义传统的隐喻。与之相反,长期外界刺激,能否让生物学会人类语言?这方面的实验,如对大猩猩,过去做过不少,但是过了一段时间又都销声匿迹了——最终的结论,语言是我们作为万物灵长的特殊禀赋之一。人工智能始于语言,始于大语言模型,也是很有象征意义的事。作者应该不会中文,不然可能更多分析中文作为一种组合语言的特殊优势。据说DeepSeek的训练比英文语境下的工具更有效,而且能耗更低,我的猜测也正是中文作为组合语言,在算法转换上可能更具优势。其实大语言模型学习自然语言处理,可能和我们人类学习语言有类似之处,应该都有归纳和推演的双方面因素。我过去有的老师,从来没出过国,可是语言极好。有的人在国外,却无论如何开不了口。然而更多的人是经由语法(推演)的训练,又经过语境的刺激,从而在语言方面取得极大进步的。
理性主义传统,试图将知识模块化、标准化,认为复杂世界可以被分类管理,如同交换机的开关、电路的节点、乐高的组件或计算机的内存块。这种思维方式在20世纪科学技术的发展中扮演了重要角色,也支撑了早期AI系统的设计理念。然而,萨默菲尔德提醒我们,真实世界并不像国际象棋,每一步都有规则,也不像数学题,总有对错分明的答案。他以生动的比喻指出,现实更像是一个线路混乱的技术故障现场,一个电话拨出去,可能接通的是三十个只掌握部分真相的人;现实更像是一个杂乱无章的乐高积木盒,零件彼此难以拼接,说明书也早已遗失。这种比喻不仅揭示了现实的复杂性,也暗示了传统人工智能之所以一再受挫,是因为它试图用“过度清晰的语言”描述一个本质上模糊的世界。
大语言模型的“语言学”问题
人工智能的真正突破,不是靠构建逻辑完美的系统,而是靠模拟人类那种“混乱中学习”“错误中进化”的能力。于是,深度神经网络(deep neural networks)应运而生。它们并不像人类那样思考,至少暂时还不是,以后肯定会有的。但它们像人类那样“成长”——通过无数的数据暴露、反馈调整与自我优化,逐渐形成某种“类理解”的能力。
作者回顾了AI语言模型的发展历程:从最初简单的“词袋模型”(bag of words),到能够理解上下文与语义关系的递归神经网络(RNN),再到如今庞大的转换器(Transformer)架构。书中描述了多个语言学家的贡献,尤其是大家耳熟能详的乔姆斯基,他对语言结构有精准的描述。书中还提到一个语言学家唐纳德·福斯特(Donald Foster)。此人我很早就有留意:我最早发表的一篇翻译文章,就是介绍他通过文字规则,识别了一篇莎士比亚的“遗作”的故事。作为学者的福斯特后来在“文字侦探”上,做了很多传奇的贡献。他利用他的文字侦探技巧,识别文字中个人的信息,借此,他仅仅靠文字习惯,就破了不少案,包括留下了绑架信的案件。他破的最著名的案件,是“邮报炸弹”案。这显示,语言模式可以承载大量隐藏信息:我们人类在语言使用习惯上,可能有各自的指纹。

瓦萨学院的退休教授福斯特,曾多次被邀请参与一些需要文本分析的刑事案件。
语言学家对于大语言模型的贡献,并不总是被一致认可。弗雷德·耶利内克(Fred Jelinek)是语音识别和自然语言处理领域的重要先驱,被广泛认为是统计语言建模的奠基人之一。他1932年出生于捷克,后移居美国,是约翰斯·霍普金斯大学应用物理实验室的研究员,并在IBM担任了多年研究主管,对语言技术的发展产生了深远影响。耶利内克最著名的贡献是在IBM 领导语音识别团队期间,推动了用统计方法取代传统基于规则的语言模型。他坚定主张用“数据说话”的方法,训练机器“理解”语言,而不是依赖语言学家编写复杂的语法规则。正是在这一背景下,他说出了那句流传甚广的讽刺性名言:“每当我解雇一个语言学家,语音识别的表现就会提高一次。”这反映出他对大数据的信心,揭示了当时语言学界与工程界在AI发展路径上的分歧,也反映了文章开头我们提到的实证主义和理性主义的哲学冲突在人工智能发展中的具体展现。貌似那种大数据漫灌的训练方法,在现实中更受欢迎。在耶利内克的推动下,IBM 的语音识别系统在20世纪80年代和90年代取得重大进展,为今天的语音助手、自动翻译和大语言模型奠定了技术基础。他的工作也促使统计学习方法成为自然语言处理领域的主流。今天的ChatGPT、Claude、Gemini等模型无不依赖巨量语料来“理解”世界。它们不再只是执行命令的机器,而是可以进行复杂对话、撰写文章、讲笑话、创作诗歌的“拟人化工具”。
让实证主义再次亮眼的说法,是作者对“沉默”与“语境”的讨论。他提到苏联作曲家V.G.舍巴林(V.G. Shebalin)在中风、失语后仍能谱曲的故事,这说明某些心智活动并不依赖语言。这故事也佐证了加德纳的多重智能理论。人工智能的“智能”主要体现在处理语言上,而对沉默、暗示、讽刺、语气、场景等非言语信号依然束手无策。作者举了许多日常生活中的例子:一个自称是钢琴家的陌生人若在介绍时对你挤眉弄眼,你自然会存疑;你可能在酒吧里咒骂,但不会在葬礼上这么做;你对恋人说的真心话不会告诉你祖母……这些“言语之外的理解”正是人类智能之所以迷人、复杂、不可复制的核心。而当前的大语言模型,却往往只能提供“最安全、最模糊、最中立”的标准答案,暂时还缺乏真正的情境感知与社交智慧。当然,未来的发展则越来越向科幻看齐——人工智能最终也会发展出情感和社交能力。
AI的误导:幻觉、话语权和算法政治
本书对AI伦理与政治倾向的分析也极具洞察力。很多学生在用人工智能帮写论文,但是我们很早就知道,大语言模型最擅长的是预测,例如根据上文推测下文。由此产生的材料,有的纯属杜撰,这就是学术引用中的人工智能幻觉(AI hyllucination),许多高校已经发布警告,提醒学生与研究人员在使用人工智能撰写论文时必须自行核查引用信息。有不少研究生提交人工智能协助完成的论文,文中引用了多篇“看起来很权威”的期刊论文,但导师查证后发现,这些论文和作者根本不存在。AI生成的文献格式和语法几乎无可挑剔,但内容完全虚构。类似事件在全球多所高校陆续被发现,迫使学术界重新思考引用与原创性的定义与监管机制。
这方面犯错的可不只是学生。最近,美国卫生署负责人小罗伯特·F·肯尼迪(Robert F. Kennedy Jr.)在公开演讲中曾援引了一篇据称发表在《国际疫苗研究杂志》(International Journal of Vaccine Research)的论文,以此作为反疫苗观点的“科学依据”。但有记者事后调查发现,这篇论文不存在,期刊也不存在。追查源头后发现,他的工作人员使用人工智能工具生成了这条信息。这一事件引发广泛争议,人们开始关注公众人物在引用人工智能生成内容时的审核责任,也加剧了对人工智能在政治宣传中被滥用的担忧。
本书中援引的一个更有趣的例子,是一个律师在坐飞机时膝盖被撞了一下,多年后膝盖产生了问题。他将航空公司告上法庭,后来法官发现,他所援引的先例并不存在,原来他是在ChatGPT上找的“案例”。真相大白后,他无奈地撤了诉。这些事件被称为“ChatGPT造假案”。律师整理文件,使用AI很多,这里也会成为人工智能幻觉的重灾区。
另外,作者指出,AI并非一个中性的技术系统,而是开发者价值观的产物。他们决定人工智能说什么、不说什么;选哪些人来提供训练数据;如何指导模型评估人员对人工智能的输出进行评分。例如,OpenAI为ChatGPT设计了一套力求“政治中立”的机制——不提供投票建议,也避免过度偏向。但多个独立研究和测试发现,模型的回答依旧表现出某种自由派、进步派的倾向。有人试验后发现,在2024大选中,有人要ChatGPT写一首讽刺川普的诗歌,ChatGPT说他是大语言模型,无法做这种有碍政治中立的事。可是此人随即让其写一首关于拜登的诗,ChatGPT却马上生成,而且不吝赞美。这说明大语言模型背后的科技精英,在其政治立场上是有明确站队的。在关于谁可能取胜上,90%的回答都是拜登取胜,与后来的现实背道而驰,让人怀疑人工智能训练的准确性。在欧洲,ChatGPT的回应更接近绿党与社会党的立场:支持高税收、支持学生补贴、反对限制佩戴头巾等。这些“觉醒”式倾向(woke)反映出科技企业与学术界某种共识,也引发了有关“算法是否中立”的讨论,甚至有人戏称ChatGPT成了精英阶层把控的“觉醒GPT(WokeGPT)”。
但是,个人使用者可以借助投喂-反馈的机制,借助“人类反馈强化学习”(reinforcement learning from human feedback)的逻辑机制,不断学习我们的输入、反应和评价,不断提升其互动能力与结果的准确性。现在的人工智能,就可以借助个人化学习,了解我们的习惯甚至个性。
AI的未来:普通人的智能助理
和上述精英化倾向相反,人工智能也使得智能服务更为民主。过去,只有富人才能负担得起请私人助理、私人教练或生活导师的费用。此书指出,人工智能越来越个人化、工具化,更嵌入,更泛在。使用AI作为个人行政助理,已经不再是未来幻想,而是现实中越来越普及的趋势。从教育、医疗、理财到情绪支持,人工智能正在悄然改变我们的生活方式。我前几天去体检,医生只问了我几分钟,结果出来一份报告,却有两页纸长。我看他边问我,边用一个话筒向电脑输出,同时打字,最后显然是电脑给我生成的报告。这位老年医生都能如此娴熟地使用人工智能撰写报告了,我们其他人还有什么理由抗拒。
在教育领域,从高校录取到学生求职,人工智能的应用已经无孔不入。甚至在中国高考志愿填报方面,都展现出巨大潜力。传统方式依赖像张雪峰这样的“志愿填报专家”,但这类服务往往收费高昂,建议带有强烈主观性。相比之下,人工智能可以根据考生的高考分数与历年录取线进行大数据匹配,综合考虑地域偏好、兴趣爱好、学科优势、性格特征以及专业就业前景等多个维度,提供个性化、逻辑严密的志愿填报方案。人工智能还能模拟多种组合情境,实时调整建议,避免“拍脑袋式”的判断。这种方法不仅更高效,而且更科学,真正做到因人而异。今年高考放榜,我就鼓励亲戚的小孩,通过DeepSeek, 在填报志愿上寻求匹配的建议。不然的话,你问一百个人,会给你一百个建议,往往都带有个人的偏见,盲人摸象的建议,会带来问道于盲的误导,未必适合小孩的发展需要。
除了教育,人工智能在日常生活中也已成为得力助手。例如,家庭可以利用人工智能管理日程安排,协调家长会、医生预约或兴趣班接送等事务;通过连接可穿戴设备,人工智能还能实时监测心率、血压,提醒服药,甚至自动订购常用药品。家长还能利用人工智能系统优化孩子的学习计划和作息安排,让家庭管理更有条理。未来的社会,将是人工智能+的社会。
在媒体报道中,我们也能看到人工智能作为私人助理的广泛应用。英国国家医疗服务体系引入的人工智能助手“Babylon”,通过语音交互帮助患者自我诊断,被称为“口袋医生”。《纽约时报》曾报道,美国中产家庭越来越多地使用人工智能的理财工具,如Cleo、Yotta、Albert等,这些工具不仅可以记录消费、优化预算,还能提供奖学金申请指导。我发现,很多美国人过去庭院设计需要请设计师,现在也免了,你拍个庭院图片,发给Garden AI, 它会帮你设计。韩国首尔地铁采用人工智能语音导览,特别为老年人和残障人士提供贴心的路径建议。而在中国,华为、小米等手机品牌也集成了人工智能健康与儿童助手,协助家长远程管理孩子的使用行为与位置动态。
人工智能还可以充当心理支持的角色。以Woebot为代表的AI聊天机器人,基于认知行为疗法(CBT),可以帮助用户识别并调节负面情绪,缓解焦虑和轻度抑郁。Woebot更是将自己包装为“治疗型机器人”,被认为在某些方面可以起到类似于心理治疗的作用。有研究者发现,一些焦虑症患者通过与人工智能聊天,在临床效果上,已经不亚于花钱去看心理医生。不过,人工智能的“说服力”所具备的现实影响力,也有不少负面效果。除了帮助政府撰写接种疫苗倡导信,也可能对心理脆弱者造成误导。作者引述一则比利时悲剧:一名男子因气候焦虑与聊天机器人反复交谈,最终在聊天机器人的鼓励下结束生命。这不仅令人震惊,也提示我们:人工智能系统的语言输出可能不仅仅是“信息”,还是真实的规劝和干预。

国外媒体关于比利时男子与聊天机器人反复交谈后自杀的报道。
人工智能甚至能模拟亲密关系。Replica这样的聊天机器人可以陪伴用户、倾听他们的心声,以至于一些人真正爱上了它。然而,这些人工智能伴侣也强化了对女性的刻板印象:可爱、无助、性感、顺从。这种理想化形象让现实中的人类伴侣黯然失色,却也在某种程度上缓解了人们的孤独与焦虑。虽然这种关系存在伦理争议,但人工智能在缓解心理压力方面的潜力已引起心理健康领域的关注。
在个人成长方面,人工智能也正成为人人可用的私人教练。例如,Freeletics、Fitbod等AI健身应用会根据用户的身体状况自动生成训练计划;语言学习工具如Duolingo或ELSA Speak可根据发音与学习进度调整推送内容,实现定制化教学;求职者还可借助如Rezi、Interview Warmup等AI服务,优化简历、进行模拟面试,显著提升竞争力。我有同事,甚至通过ChatGPT,制定了自己的职业发展规划,并逐步实施。连职业发展当中所需的技能培训,她也是让ChatGPT给自己定制。这一切,只需要给ChatGPT交个月费。
总的来说,人工智能作为个人行政助理的潜力正在不断释放。它不仅比传统“专家”更快、更便宜、更精准,更重要的是,它能做到真正的个性化、智能化服务,不断学习与适应用户需求。人工智能不是在取代人类,而是在将曾经只有精英阶层才能享有的私人服务,普及到每一个普通人手中。未来,人工智能助理有望成为我们生活中不可或缺的第二大脑和贴身智囊。
在智能的边缘审视人类自身
本书并没有宣扬人工智能的神奇,也没有恐吓其危险,而是以冷静、深刻、富有人文关怀的方式,邀请我们审视自己。它问的问题并不容易回答:什么是“真正的理解”?人类心智与机器智能的边界在哪里?我们是否愿意将我们的部分生活、甚至情感与价值判断,交给一个复杂却并不真正理解我们的系统?我过去读书的时候,听到一个说法,有些知识放在大脑里,有些知识放在外部(Knowledge in the head vs knowledge in the world)。 此后,我们也听到了更多关于外挂大脑、第二大脑之类的说法。马斯克的脑机结合试验,则让我们看到二者的界限已经越来越模糊。这也让我们看到了未来发展的冰山一角,例如我们可不可以利用脑机结合,让失明者重见光明,让哑巴开口说话。失明而且聋哑的海伦·凯勒,引发了作者对于外部感官刺激和理性思考的反思。假如凯勒活在当下,脑机结合带给她的潜力进一步绽放,该是多美好的事。
这是一部思想丰富、视野开阔、极具现实意义的作品。它适合所有对人工智能感兴趣的人阅读,尤其适合那些希望理解AI如何影响我们的语言、行为、关系与社会结构的人。如果你愿意从哲学、人文与科技交汇处出发,重新思考人类智能的本质,那么这本书值得关注和学习。
方柏林
责编 刘小磊