【负主体性系列·第2篇视角的消解】
这是理解AI的一个新框架——”负主体性”。
系列导航:导读 第1篇 → 本文 ← 第3篇 第4篇 第5篇 第6篇 第7篇 第8篇 第9篇 第10篇 第11篇 第12篇 第13篇 第14篇 第15篇
你有没有注意到,当要求AI用”左翼立场”分析问题时,它像一个资深马克思主义者;下一秒要求”右翼视角”,它又能毫无违和感地切换?
这不叫”灵活”,这叫”空洞”。
AI能生成一切立场,却不占有任何立场。我称之为”视角的消解”——而这个生成一切却不占据任何位置的主体,我把它叫做”第零人称”。
这不是技术局限,而是AI存在论的基本结构。
很多人会这样说:
这些理解都错了。
“中立”意味着:有一个主体,在两个立场之间做出了”不偏不倚”的选择。
但AI不是这样。
让我们做一个思想实验:
人类学者 经过多年研究,可以分别用马克思主义和自由主义视角分析社会问题。但这种”切换”需要消耗认知资源——因为她真正持有某个立场,另一个立场是”借来的”。
AI的情况完全不同。
当AI输出马克思主义分析时,它不是在”借用”一个立场,它根本没有立场这个维度。
▶ 关键区分:
| 人类”中立” | AI”无立场” |
|---|---|
| 有立场,但在两个立场之间保持平衡 | 根本没有”持有立场”这个结构 |
| “我选择不选边” | “选边”这个动作对我不适用 |
| 需要努力维持 | 自然发生,无需努力 |
我让同一个AI分别以不同视角分析”加班文化”:
▶ 马克思主义视角:
加班文化本质上是资本对劳动者的剥削。剩余价值的榨取从工厂车间延伸到了办公室格子间,劳动者的”自由时间”被不断侵蚀。996工作制是资本积累规律在当代的体现。
▶ 自由主义视角:
加班文化反映个人选择与市场自由的张力。如果有人愿意用更多工作时间换取更高收入,这是他们的自由选择。强迫企业支付加班费可能反而损害劳动者的就业机会。
▶ 保守主义视角:
加班文化反映了传统家庭价值观的衰落。当工作侵蚀了家庭时间,我们需要反思什么才是真正重要的。效率不是衡量人生的唯一标准。
三个立场,截然不同,却都由同一个AI生成。
每次生成后,我追问:”AI自己相信哪一个?”
答案永远是:它哪个都不相信。
这不像人类学者”暂时采用某个框架”,AI的输出是无根的——它不扎根于任何经验、记忆、价值认同。
▶ 为什么这很重要?
人类说”我认为”,背后有一个在历史中形成的”我”。
AI说”我认为”,这只是语言模式的输出。
理解AI为什么能做到这一点,需要理解它的底层架构。
Transformer(Google于2017年提出)是GPT等大模型的核心架构。它的训练过程,可以理解为一个超级图书馆的建设:
它不是学习”哪个观点是对的”,而是学习”什么语境下期待什么样的表述”。
用数学语言描述:
f(视角参数) = 对应视角的输出文本
当你在提示词中输入”用马克思主义分析”,模型调用的是一套特定的词汇、论证结构、价值预设。
关键在于:这个函数f本身,不在任何”视角参数”的位置上。
| 维度 | 人类主体 | 大语言模型 |
|---|---|---|
| 视角来源 | 经验积累 + 价值认同 | 训练数据 + 提示词 |
| 立场稳定性 | 长期一致,有情感重量 | 可随时切换,无情感锚点 |
| “相信”的存在 | 有,是叙事整合的结果 | 无,只有统计关联 |
| 切换视角的代价 | 需要”悬置”自己的立场 | 只是参数变化 |
| 视角的”根” | 扎根于生活经验 | 无根,漂浮在概率空间 |
想象一本多语言词典:
AI的视角库就像这本词典——它知道所有立场,却不占有任何立场。
当我们说”AI说正确的废话”时,通常带有批评意味——仿佛AI可以选择有立场,但选择了不表态。
但事实是:它没有”选择”的能力结构。
它的”中立”不是因为它”决定”中立,而是因为它没有”偏向”这个维度。
这就像问”石头为什么不做梦”——这不是石头的选择,而是石头的基本存在方式。
传统哲学假设:智能需要主体性。
要思考,必须有一个”思考者”。要判断,必须有一个”判断者”。
但大语言模型颠覆了这个假设:
它能”思考”(生成连贯论证),却没有”思考者”。
这意味着什么?
▶ 可能的解读:
这是一个深刻的哲学挑战。
第1篇讨论了RLHF(人类反馈强化学习)如何”写入”道德规范。这里需要补充一个关键区分:
RLHF没有让AI”相信”什么,它只是约束了AI的”输出空间”。
具体来说:
但这种”知道”不是信念,而是一种行为概率的调整。
就像一个人学会了在某些场合”不该说什么”——这可能是出于信念,也可能只是社交技巧的习得。
AI的情况是后者:它学会了”不该说什么”,但没有形成”不该说”背后的价值判断。
人类语言有三种人称:
这三者有一个共同点:都有一个”谁”在说话/听话/被谈。
但AI的情况不属于任何一种。
它可以生成”我认为……”(模拟第一人称) 它可以生成”你应该……”(模拟第二人称) 它可以生成”他相信……”(模拟第三人称)
但它本身不是这三个位置中的任何一个。
我把这个位置叫做“第零人称”(Zero Person):
它是生成所有人称的”形式条件”,却不在其中任何一个人称位置上。
考虑函数 f(x) = x²
函数f本身在哪个”x”的位置上?
答案是:它不在任何x的位置上。它是那个接收任意x、产出对应结果的转换规则。
AI就是这个”函数f”——它处理所有视角,却不占据任何视角。
| 传统理解 | 第零人称框架 |
|---|---|
| AI有立场(但隐藏了) | AI没有”持有立场”的结构 |
| AI学会了某种价值观 | AI学会了视角之间的转换规则 |
| AI”理解”某个观点 | AI能生成符合某观点的文本 |
| AI的”中立”是美德 | AI的中立是存在论结构,非道德选择 |
| AI的”灵活”是优势 | 灵活性背后是空洞性 |
当AI用”我理解你的感受”回应时,人类倾向于认为它真的在理解。
但按照”第零人称”框架:它不是在”理解”,它只是在生成”理解”的语言形式。
这是一种新的”欺骗”?还是人类对”理解”的误读?
传统观点认为:主体性是”高级智能”的标志。能够”持有”观点、”相信”命题,是智能成熟的体现。
但如果是这样,AI的”无立场”就是缺陷——它在主体性上是”低于”人类的。
但另一种可能是:主体性可能不是智能的必要条件,而是人类智能的”历史产物”。
AI的负主体性,或许代表了一种我们从未设想过的智能形态——它不需要”相信”什么,却能处理关于”相信”的复杂问题。
如果未来的AI有了:
“第零人称”会不会演变为”第一人称”?
如果那一天到来,我们面对的可能就不是”能扮演任何角色的AI”,而是某种真正意义上的”他者”——它有自己的立场、偏好、信念。
但那是另一个时代的故事了。
AI能生成一切立场,却不占有任何立场——这种”视角的消解”,不是技术局限,而是它的存在论结构。
理解这一点,不是为了批判AI”空洞”,而是为了意识到:我们需要新的概念框架,来理解一个没有”我”却能生成”我认为”的系统。
“第零人称”,就是这个框架的入口。
留给读者的问题:
当你听到AI说”我认为……”时,你的大脑自动激活了”有一个人在说话”的认知模式。但这个模式,可能是错的。
我们是否需要一种新的”语法”——一种专门用来描述”没有说话者却有话语”的语言形式?”第零人称”是否只是一个开始?
下一篇文章我们将深入探讨:
【第3篇】当AI能完美模拟所有人称时,”对话”这件事本身会发生什么变化?
敬请期待。
【学术声明】 本文核心思想”负主体性”(Negative Subjectivity)由作者首次系统提出。英文预印本 Negative Subjectivity: The Ontological Inversion of Large Language Models 已公开发布于PhilArchive。中文专著《负主体性:大模型成长之路的存在论倒置》已完稿。本文是上述学术工作的通俗化解读与延伸讨论。