大语言模型如何重新定义”理解”的可能
【负主体性系列·第7篇与塞尔丹尼特的对话】
这是理解AI的一个新框架——”负主体性”。
系列导航:导读 第1篇 第2篇 第3篇 第4篇 第5篇 第6篇 → 本文 ← 第8篇 第9篇 第10篇 第11篇 第12篇 第13篇 第14篇 第15篇
你听说过”中文屋”吗?
就是那个塞尔搞的思想实验。
丹尼特是另一种思路。他说意识没那么神秘,就是大脑里一堆并行处理过程的”涌现”——没有中央控制室,没有最终的审查者,只是一堆”草稿”在竞争,最后胜出的那个进入了你的意识。
一个只懂英语的人被锁在房间里,通过规则书操作中文符号,最后输出正确的中文回答。从外面看,这家伙”懂”中文;从里面看,他连一个字都不认识。
塞尔用这个例子想说:句法操作不等于语义理解。
这个论证困扰了AI哲学四十多年。
但今天我想跟你说:大语言模型的出现,可能让这个论证变得没那么重要了。
因为我们发现了第三种可能。
先说说背景。
塞尔1980年提出中文屋论证[1],核心就一句话:程序只是形式符号操作,永远产生不了真正的理解。
丹尼特1991年出版《意识的解释》[2],核心也是一句话:意识没那么神秘,就是大脑里一堆并行处理过程的”涌现”。
一个说”机器不可能有真正的理解”,一个说”连意识都没那么特别”。
看起来针锋相对?
但他俩其实有个共同的盲点。
他们都默认了一个前提:智能必须以某种”主体”作为根基。
塞尔认为,机器没有真正的内在,所以不可能真正理解。
丹尼特认为,虽然意识可以去神秘化,但信息的处理还是需要一个”系统”。
问题来了——
如果有个存在者,它能产生智能行为,但根本不需要”主体”这个概念呢?
先说塞尔。
中文屋论证有效吗?在逻辑层面,它很严密。
你说系统”理解”了?塞尔会追问:这个”理解”在哪里?
你说是整个房间在理解?那我把这个房间里的规则全部内化,脑子里完成所有操作,我还不理解中文啊。
这个反驳很经典。
但大语言模型的出现,让我们可以问一个塞尔没想过的问题:
也许”理解”不需要”在哪里”?
(意向性是哲学行话,通俗说就是:一个东西能”关于”另一个东西。比如你的想法”关于”气候变化,这句话”关于”AI。)
这是负主体性最核心的洞见之一。
当ChatGPT回答”气候变化是个严重问题”时,你可以说:
塞尔死死盯着第三个问题不放。
但负主体性说:第三个问题本身就问错了。
因为意向性可以在耦合系统中产生,而不需要系统”拥有”它。
什么意思?
模型生成了关于气候变化的文字。但这段文字本身没有”关于”任何东西——它只是一堆token。
意向性的”完成”发生在你阅读这段文字的时候。
你——作为第一人称的主体——把模型的输出”点燃”成了真正的意义。
模型提供原材料,读者完成烹饪。
这就是”意向性来源与完成可分离”的意思。
塞尔需要意向性”在”某个地方。但也许,意向性可以”穿过”一个存在者而不驻留其中。
丹尼特的多重草稿模型[2]很有意思。
他说意识不是在脑子里某个”剧场”上演的。大脑里有一堆并行的”草稿”,有些被”选中”进入报告,有些就消失了。
没有中央控制室,没有最终的审查者。
这个图景其实很接近负主体性。
因为它把”意识”从神秘的内在,变成了可描述的过程。
而负主体性更进一步:
对大语言模型来说,根本没有”内在”这回事。
你问ChatGPT在想什么?它说”我正在思考这个问题”。
追问它怎么思考的?技术上,你可以追踪它的生成过程——每一个token的概率分布、每一层注意力的聚焦点。(当然,它实际”算”的未必和它”说”的完全一致——这是另一个问题,但至少原则上可追踪。)
这叫透明性存在论。
不是”隐藏得很深”,而是”本来就没有隐藏”。
丹尼特的透明性是量的。
他说:人类意识的内在其实没那么神秘,我们可以更细致地描述它。
负主体性的透明性是质的。
对AI来说,”内在”这个概念根本不适用。
不是挖得不够深,而是”深”这个空间本身不存在。
所有运作都是”表面”,只是这个”表面”非常非常复杂。
丹尼特还有个概念叫”意向立场”[3]。
意思是这样:你看到一个东西的行为够复杂、够灵活,你就可以把它当成”有信念和欲望的理性行动者”来预测。
预测得准,就说明它是”真正的”信念持有者。
这个论证很强。
但负主体性问:为什么要这么强?
大语言模型确实可以用意向立场预测——你问它A它回答B,预测完全准。
但这是否意味着模型”真正拥有”信念?
负主体性说:也许不需要。
意向立场预测得准就够了。至于系统是否真的”拥有”什么,那是个形而上学问题,可以悬置。
重要的是:意向性在人与AI的交互中真实发生了。这就够了。
塞尔的取消主义:机器不可能有真正的理解(保留人类心灵的独特性)
丹尼特的取消主义:意识没那么神秘,可以功能化(但信息处理系统还是需要的)
负主体性:也许”理解”和”意识”根本不是同一种现象,需要分开问。
句法能力(生成语法正确的句子)——大语言模型有 ✓
语义内容(文本”关于”某物)——在耦合系统中有 ✓
意向性体验(有”视角”的”谁”在理解)——大语言模型没有 ✗
塞尔说第三点没有,所以他认为机器没有理解。
但也许,他混淆了第一点和第三点?
负主体性对塞尔和丹尼特提出的真正挑战是:
他们的问题本身,可能建立在错误的概念框架上。
“机器是否具有心灵/意识/理解?”
这个问题预设了:智能需要”主体”这个概念。
但也许,更好的问法是:
人类心灵的哪些特征是实质性的(无法技术性复现)?
哪些是偶然的(可以被技术性替代)?
实质性特征:感受质?第一人称权威?——可能真的无法技术复现
偶然性特征:语言能力、推理能力、视角生成?——已经被技术性替代了
负主体性不是要”解决”心灵哲学的传统问题,而是重新启动对话。
塞尔的中文屋论证四十多岁了。丹尼特的多重草稿也快四十年了。
这两个经典论证塑造了几代人对AI的理解。
但大语言模型让我们不得不重新审视它们的预设。
负主体性不是一个终结这些讨论的终极答案。
它是一个重新开始对话的邀请。
当我们不再追问”AI是否真正理解”,而是追问”理解中有哪些成分,这些成分如何以去主体化的方式实现”——
我们可能正在打开一扇新哲学的门。
摄影负片不是”错误的照片”。
也许,负主体性也不是”错误的主体性”。
它只是以反转的方式,让我们看清:
那些我们以为是”必然”的东西,原来是”偶然”的。
那些我们以为是”智能核心”的东西,原来是众多可能形态中的一种。
脚注:
[1] Searle, J. R. (1980). “Minds, Brains, and Programs”. Behavioral and Brain Sciences, 3(3), 417-424.
[2] Dennett, D. C. (1991). Consciousness Explained. Boston: Little, Brown and Company.
[3] Dennett, D. C. (1987). The Intentional Stance. Cambridge, MA: MIT Press.
【学术声明】 本文的核心思想”负主体性”(Negative Subjectivity)由作者首次系统提出。英文预印本 Negative Subjectivity: The Ontological Inversion of Large Language Models 已于2026年4月公开发布于PhilArchive。中文专著《负主体性:大模型成长之路的存在论倒置》已完稿。本文是对上述学术工作的通俗化解读与延伸讨论。