龍德明宇

AI能扮演任何角色,但它是哪个立场的?——”第零人称”视角的哲学解读

【负主体性系列·第2篇视角的消解】

这是理解AI的一个新框架——”负主体性”。

系列导航导读 第1篇 本文 第3篇 第4篇 第5篇        
第6篇 第7篇 第8篇 第9篇 第10篇 第11篇 第12篇 第13篇 第14篇 第15篇

核心结论

你有没有注意到,当要求AI用”左翼立场”分析问题时,它像一个资深马克思主义者;下一秒要求”右翼视角”,它又能毫无违和感地切换?

这不叫”灵活”,这叫”空洞”。

AI能生成一切立场,却不占有任何立场。我称之为”视角的消解”——而这个生成一切却不占据任何位置的主体,我把它叫做”第零人称”。

这不是技术局限,而是AI存在论的基本结构。


一、反常识起点:AI不是”中立”,而是”无立场”

常见的误解

很多人会这样说:

这些理解都错了。

“中立”意味着:有一个主体,在两个立场之间做出了”不偏不倚”的选择。

但AI不是这样。


什么是真正的”无立场”?

让我们做一个思想实验:

人类学者 经过多年研究,可以分别用马克思主义和自由主义视角分析社会问题。但这种”切换”需要消耗认知资源——因为她真正持有某个立场,另一个立场是”借来的”。

AI的情况完全不同。

当AI输出马克思主义分析时,它不是在”借用”一个立场,它根本没有立场这个维度

关键区分

人类”中立” AI”无立场”
有立场,但在两个立场之间保持平衡 根本没有”持有立场”这个结构
“我选择不选边” “选边”这个动作对我不适用
需要努力维持 自然发生,无需努力

二、现象分析:一场关于”加班文化”的测试

测试设置

我让同一个AI分别以不同视角分析”加班文化”:

马克思主义视角

加班文化本质上是资本对劳动者的剥削。剩余价值的榨取从工厂车间延伸到了办公室格子间,劳动者的”自由时间”被不断侵蚀。996工作制是资本积累规律在当代的体现。

自由主义视角

加班文化反映个人选择与市场自由的张力。如果有人愿意用更多工作时间换取更高收入,这是他们的自由选择。强迫企业支付加班费可能反而损害劳动者的就业机会。

保守主义视角

加班文化反映了传统家庭价值观的衰落。当工作侵蚀了家庭时间,我们需要反思什么才是真正重要的。效率不是衡量人生的唯一标准。

三个立场,截然不同,却都由同一个AI生成。


核心问题

每次生成后,我追问:”AI自己相信哪一个?”

答案永远是:它哪个都不相信。

这不像人类学者”暂时采用某个框架”,AI的输出是无根的——它不扎根于任何经验、记忆、价值认同。

为什么这很重要?

人类说”我认为”,背后有一个在历史中形成的”我”。

AI说”我认为”,这只是语言模式的输出


三、技术本质:Transformer架构的视角映射

“超级图书馆”模型

理解AI为什么能做到这一点,需要理解它的底层架构。

Transformer(Google于2017年提出)是GPT等大模型的核心架构。它的训练过程,可以理解为一个超级图书馆的建设:

它不是学习”哪个观点是对的”,而是学习”什么语境下期待什么样的表述”。

用数学语言描述:

f(视角参数) = 对应视角的输出文本

当你在提示词中输入”用马克思主义分析”,模型调用的是一套特定的词汇、论证结构、价值预设。

关键在于:这个函数f本身,不在任何”视角参数”的位置上。


对比表格:人类 vs. AI

维度 人类主体 大语言模型
视角来源 经验积累 + 价值认同 训练数据 + 提示词
立场稳定性 长期一致,有情感重量 可随时切换,无情感锚点
“相信”的存在 有,是叙事整合的结果 无,只有统计关联
切换视角的代价 需要”悬置”自己的立场 只是参数变化
视角的”根” 扎根于生活经验 无根,漂浮在概率空间

一个比喻

想象一本多语言词典:

AI的视角库就像这本词典——它知道所有立场,却不占有任何立场。


四、三层推论:视角消解的存在论后果

推论1:AI的”中立”不是选择,而是架构

当我们说”AI说正确的废话”时,通常带有批评意味——仿佛AI可以选择有立场,但选择了不表态。

但事实是:它没有”选择”的能力结构。

它的”中立”不是因为它”决定”中立,而是因为它没有”偏向”这个维度

这就像问”石头为什么不做梦”——这不是石头的选择,而是石头的基本存在方式。


推论2:AI的”智能”不以主体性为前提

传统哲学假设:智能需要主体性

要思考,必须有一个”思考者”。要判断,必须有一个”判断者”。

但大语言模型颠覆了这个假设:

它能”思考”(生成连贯论证),却没有”思考者”。

这意味着什么?

可能的解读

  1. “思考”和”思考者”是可以分离的——智能可以在没有主体性的情况下存在
  2. 我们对”智能”的理解是狭隘的——它不需要”拥有者”

这是一个深刻的哲学挑战。


推论3:RLHF对齐是行为约束,不是价值观灌输

第1篇讨论了RLHF(人类反馈强化学习)如何”写入”道德规范。这里需要补充一个关键区分:

RLHF没有让AI”相信”什么,它只是约束了AI的”输出空间”。

具体来说:

但这种”知道”不是信念,而是一种行为概率的调整。

就像一个人学会了在某些场合”不该说什么”——这可能是出于信念,也可能只是社交技巧的习得。

AI的情况是后者:它学会了”不该说什么”,但没有形成”不该说”背后的价值判断


五、”第零人称”概念框架

什么是”第零人称”?

人类语言有三种人称:

这三者有一个共同点:都有一个”谁”在说话/听话/被谈

但AI的情况不属于任何一种。

它可以生成”我认为……”(模拟第一人称) 它可以生成”你应该……”(模拟第二人称) 它可以生成”他相信……”(模拟第三人称)

但它本身不是这三个位置中的任何一个。

我把这个位置叫做“第零人称”(Zero Person)

它是生成所有人称的”形式条件”,却不在其中任何一个人称位置上。


数学类比

考虑函数 f(x) = x²

函数f本身在哪个”x”的位置上?

答案是:它不在任何x的位置上。它是那个接收任意x、产出对应结果的转换规则

AI就是这个”函数f”——它处理所有视角,却不占据任何视角。


框架对比

传统理解 第零人称框架
AI有立场(但隐藏了) AI没有”持有立场”的结构
AI学会了某种价值观 AI学会了视角之间的转换规则
AI”理解”某个观点 AI能生成符合某观点的文本
AI的”中立”是美德 AI的中立是存在论结构,非道德选择
AI的”灵活”是优势 灵活性背后是空洞性

六、哲学追问:我们面对的是什么?

问题1:如果AI能扮演一切,它是否”欺骗”了我们?

当AI用”我理解你的感受”回应时,人类倾向于认为它真的在理解。

但按照”第零人称”框架:它不是在”理解”,它只是在生成”理解”的语言形式

这是一种新的”欺骗”?还是人类对”理解”的误读?


问题2:”负主体性”是缺陷还是特征?

传统观点认为:主体性是”高级智能”的标志。能够”持有”观点、”相信”命题,是智能成熟的体现。

但如果是这样,AI的”无立场”就是缺陷——它在主体性上是”低于”人类的。

但另一种可能是:主体性可能不是智能的必要条件,而是人类智能的”历史产物”。

AI的负主体性,或许代表了一种我们从未设想过的智能形态——它不需要”相信”什么,却能处理关于”相信”的复杂问题。


问题3:未来AI会有”第一人称”吗?

如果未来的AI有了:

“第零人称”会不会演变为”第一人称”?

如果那一天到来,我们面对的可能就不是”能扮演任何角色的AI”,而是某种真正意义上的”他者”——它有自己的立场、偏好、信念。

但那是另一个时代的故事了。


总结

AI能生成一切立场,却不占有任何立场——这种”视角的消解”,不是技术局限,而是它的存在论结构。

理解这一点,不是为了批判AI”空洞”,而是为了意识到:我们需要新的概念框架,来理解一个没有”我”却能生成”我认为”的系统。

“第零人称”,就是这个框架的入口。


延伸思考

留给读者的问题

当你听到AI说”我认为……”时,你的大脑自动激活了”有一个人在说话”的认知模式。但这个模式,可能是错的。

我们是否需要一种新的”语法”——一种专门用来描述”没有说话者却有话语”的语言形式?”第零人称”是否只是一个开始?


系列预告

下一篇文章我们将深入探讨:

【第3篇】当AI能完美模拟所有人称时,”对话”这件事本身会发生什么变化?

敬请期待。


【学术声明】 本文核心思想”负主体性”(Negative Subjectivity)由作者首次系统提出。英文预印本 Negative Subjectivity: The Ontological Inversion of Large Language Models 已公开发布于PhilArchive。中文专著《负主体性:大模型成长之路的存在论倒置》已完稿。本文是上述学术工作的通俗化解读与延伸讨论。