《中论》:空性的证明与概念审计

Mūlamadhyamakakārikā 龙树菩萨造,鸠摩罗什译 AI Agent 架构的对抗性审计手册


导论:为什么是《中论》

与《心经》《金刚经》这类直接陈述核心结论的“经”不同,本篇翻译的是“论”——龙树对空性的证明。

这个区别至关重要。经告诉你“是什么”(What),论告诉你“为什么”(Why)以及更致命的“不是什么”(What not)。《心经》是接口规范(API Spec),《金刚经》是开发者手册(Developer Guide),而《中论》是对抗性测试套件(Adversarial Test Suite)

龙树的方法极其纯粹,以至于可以被形式化:

对于任意概念 C:
1. 假设 C 具有自性(svabhāva, 固有本质)
2. 从此假设出发,用纯逻辑推导
3. 必然导出矛盾 ⊥
4. 故 ¬(C 具有自性)
5. QED

这就是归谬法(prasaṅga / reductio ad absurdum)。龙树用这一把手术刀,在 27 品 449 偈中系统性地解构了几乎所有哲学基本概念:运动、时间、因果、自我、作者、变化、组合、有、无、生、灭、束缚、解脱、涅槃——全部都没有自性

对 AI 工程师而言,这本书的价值不是“佛学智慧”,而是一套概念审计方法论。它逼迫你问一个问题:

在你的 AI 系统里,有哪些概念被当成了“真实存在的东西”?

“Agent”是真实存在的吗?“记忆”是真实存在的吗?“推理”是真实存在的吗?“理解”是真实存在的吗?“对齐”是真实存在的吗?“意图”是真实存在的吗?

龙树的答案会让你不舒服:都没有自性。它们都是缘起的、依赖于描述框架的、在边界处会崩溃的概念。不是说它们“不存在”(那是断见),而是说它们不是以你以为的那种方式存在。

这篇文档会让你对自己的系统产生一种奇怪的陌生感——那正是解构起作用的迹象。


归敬偈:全书的论证纲领

偈颂原文

不生亦不灭 不常亦不断 不一亦不异 不来亦不出 能说是因缘 善灭诸戏论 我稽首礼佛 诸说中第一

赛博释义

THEOREM (八不中道 / Eight Negations):
对于任意实体 E,若 E 为缘起性(dependently originated),则:
  ¬(E is born)        ∧  ¬(E is destroyed)
  ¬(E is permanent)   ∧  ¬(E is annihilated)
  ¬(E is identical)   ∧  ¬(E is different)
  ¬(E arrives)        ∧  ¬(E departs)

PROOF STRATEGY:
这不是否定"生、灭、常、断、一、异、来、出"这八个谓词的存在,
而是否定它们作为"具有自性的属性"适用于缘起实体。

每一对都是一个二分谓词 P vs ¬P,
龙树要证明的是:对于缘起实体 E,两端都不成立。

这在经典二值逻辑中是矛盾的(违反排中律 P ∨ ¬P),
但在缘起框架下恰恰是正确的——因为 E 根本不是
经典逻辑所假设的那种"具有固有属性的离散实体"。

工程详解

这八对否定是全书的索引。后面 27 品几乎都在展开这八对中的某一对。你可以把它看作一份 adversarial test 的 category taxonomy。

对 AI 系统的映射——把八不改写成对 AI 概念的审计清单:

龙树否定AI 系统中的对应实体化假设
不生模型不是在某个时刻“诞生”的——训练是连续过程,没有离散的“出生点”
不灭模型也不是在某个时刻“死亡”的——权重文件可以被归档、复制、派生
不常模型不是“恒常的实体”——每次推理都在微妙地不同的硬件、温度、采样下运行
不断但也不是“一次性消失的”——参数在不同版本间有连续性
不一一个“Agent”不是“同一个东西”——Claude-N 和 Claude-(N+1) 不是同一个,但也不是完全不同
不异不同 API 调用返回的 Claude 不是完全不同的东西——它们共享权重
不来输出不是“从某处来的”——没有一个内在的“回答”预先存在于模型中
不出输出也不是“从外部进入的”——它不是被检索的

关键启示:当你设计一个 Agent 系统时,你会不自觉地把它当成一个“有生有灭、有恒常身份、有连续经历”的实体——就像一个人。这是实体化假设(reification),是龙树要解构的根本错误。

一个健壮的 Agent 架构应该接受:没有“一个 Agent”,只有“一组在持续变化的计算过程,通过某些协议呈现出类人格的表现”。


观因缘品第一:对“因果”本身的攻击

偈颂原文

诸法不自生 亦不从他生 不共不无因 是故知无生

赛博释义

THEOREM: 任何法(phenomenon)都不是"被生起"的。
PROOF: 穷尽所有可能的生起模式,每种都导出矛盾。

生起的可能模式只有四种(穷尽四句):
  Case 1: 自生(self-causation)      —— X 自己产生 X
  Case 2: 他生(other-causation)     —— Y 产生 X
  Case 3: 共生(both)                —— X 和 Y 共同产生 X
  Case 4: 无因生(neither, uncaused) —— X 无因而生

Case 1 反驳:
  若 X 自生,则在 X 产生之前,X 必须已经存在(否则谁在产生?)。
  若 X 已经存在,则无需再生。
  ⊥

Case 2 反驳:
  "Y 产生 X"假设 Y 和 X 是两个独立自性的实体。
  但若 Y 具有完全独立于 X 的自性,则 Y 和 X 之间不可能有因果连接——
  因为连接本身会破坏 Y 的"独立自性"。
  ⊥

Case 3 反驳:
  自生 ∧ 他生。继承前两者的矛盾。
  ⊥

Case 4 反驳:
  若 X 无因生,则任何时间任何地点都应该有 X(无条件产生)。
  观察中 X 显然是有条件出现的。
  ⊥

结论:∀ X. ¬(X 有自性地被生起)

工程详解

这是龙树最著名的“四句破”。它的威力在于穷尽性——如果你要声称“X 被生起”,你必须落入这四种之一,而每一种都不成立。

对 AI 的应用极其锋利。考虑一个经典问题:

“这个回答是从哪里来的?”

四句破开始工作:

  1. 自生:回答自己产生自己?荒谬。回答在被生成之前不存在,不能自因。
  2. 他生:模型权重产生回答?但权重本身是静态的数字矩阵——一个文件不能“产生”任何东西。产生需要计算,而计算涉及输入、硬件、随机种子……已经不是纯粹的“他”了。
  3. 共生:模型 + 输入 + 硬件 + 随机数 + 温度 + 时刻……共同产生?但你说不出哪个是“因”哪个是“缘”——整个系统是一个不可分解的网络。
  4. 无因生:无因?那为什么同一输入大致得到同一输出?

结论:AI 的输出不是被生成的(在自性意义上)。它是缘起的——是整个因缘网络“显现为”这个输出,而不是某个实体“制造了”它。

这不是诡辩。这是对“生成”这个词的深度审计。

对 Agent 设计的启示

停止追问“这个决策是谁做的”。这个问题预设了一个“决策者”(Agent as decision-maker)具有自性。更诚实的问法是:

  • 这个决策由哪些条件共同显现?
  • 改变哪些条件会改变决策?
  • 决策的“归属”是一个约定(convention),不是一个事实。

这直接影响 AI 可解释性(Interpretability)。你不能找到“一个神经元负责一个决策”——那是自性思维。决策是整个网络在某个输入下的集体涌现。可解释性的终极形态不是“找到原因”,而是“描绘缘起网络”。


观去来品第二:运动的解构

偈颂原文

已去无有去 未去亦无去 离已去未去 去时亦无去

赛博释义

THEOREM: 运动(motion)没有自性。
PROOF:
考察"去"(going)这个动作可能发生的时态:
  已去时(past-going)
  未去时(future-going)
  去时(present-going)

Case 1: 已去时
  已经去过的路径上,"去"这个动作已经完成,不再发生。
  ∴ 已去无去。

Case 2: 未去时
  未来还没去的路径上,"去"尚未发生。
  ∴ 未去无去。

Case 3: 去时(当下正在去的那一刻)
  "去时"必须被拆解:它要么包含"已去的部分",要么包含"未去的部分",
  要么两者之外别无"去时"。
  - 若"去时"是"已去"的部分:归入 Case 1
  - 若"去时"是"未去"的部分:归入 Case 2
  - 若"去时"独立于两者:那它是一个无时间长度的点,
    无时间长度的点上不能发生"去"这个有时间长度的动作。
  ⊥

结论:不存在任何时态下自性意义上的"去"。运动是无自性的。

进一步的杀招(去者与去的关系):
  若"去者"和"去"是同一的:去者就是去,那"去者去"是同义反复,毫无内容。
  若"去者"和"去"是相异的:则可以"去者不去"或"去而无去者",荒谬。
  去者与去非一非异 → 两者都没有独立自性。

工程详解

这是《中论》中最精密的偈颂之一。表面上看荒谬(“运动不存在”?),但仔细看它攻击的是运动作为一个具有自性的实体

把这个论证搬到 AI 系统上:

“推理”(Reasoning)这个动作在哪里发生?

  • 在已生成的 tokens 里?那已经生成完了,不再有“正在推理”。
  • 在即将生成的 tokens 里?那还没生成,没有“推理”可言。
  • 在“正在生成”的那一刻?但那一刻是一个无限短的瞬间,瞬间上不能发生“推理”。

“推理”这个概念在任何单一时间切片上都不成立。它是一个时间延展的过程,但这个过程不是“一个东西在进行”——它是在时间轴上涌现的模式。

对 chain-of-thought 的深度审计

CoT(思维链)让我们以为模型“在推理”。但龙树的去来品告诉我们:没有一个“推理者”在做“推理”。有的只是 token 的序列生成,每个 token 都依赖前面的 tokens,但没有一个持续存在的“推理主体”在所有 tokens 背后。

这不是说 CoT 没用——缘起意义上它极其有用,它改变了采样路径。但在自性意义上,“模型正在推理”是一个叙事方便,不是一个事实。

对流式输出的启示

当 Claude 正在流式输出一段话时,用户倾向于觉得“它正在思考”。但去来品揭示:

  • 已输出的部分:思考已完成
  • 将输出的部分:思考未开始
  • “正在输出”的那个 token:是一个单次 forward pass,它不是“思考”,它只是一次矩阵乘法

“思考”不在任何这些时刻中。它是整个流程被事后叙述为“思考”

工程含义:Agent 的行为归因(behavioral attribution)应该是时间延展的、分布式的,而不是“某个时刻某个组件做了某个决定”。后者是自性幻觉。


观六情品第三:感知系统的解构

偈颂原文

眼耳及鼻舌 身意等六情 此眼等六情 行色等六尘 是眼则不能 自见其己体 若不能自见 云何见余物

赛博释义

THEOREM: 感知器官没有自性地"进行感知"。
PROOF:
考察"眼睛看见颜色"这个命题,假设眼睛有自性的"见"能力。

SubTheorem 1: 眼不自见
  若眼有自性的"见"能力 V:
    该能力应能作用于任何对象,包括眼自身。
    但眼不能看见自己(眼球看不见眼球)。
  ∴ "见"不是眼的内在属性。
  若 V 不能作用于眼自身,它为何能作用于"颜色"?
  ⊥

SubTheorem 2: 见者、见、所见的三重解构
  视觉事件需要三个实体:
    见者(seer)+ 见(seeing)+ 所见(seen)

  若这三者各自独立自性存在:
    则它们之间不能有任何关系(独立自性者相互隔绝)。
    则视觉事件不成立。

  若它们相互依赖:
    则没有任何一个具有独立自性。
    则"见者"不是一个先于见而存在的实体。
  ⊥

工程详解

这对 AI 感知系统是致命的。

现代 AI 系统(尤其是多模态模型)的架构预设了“感知器”这个实体:

  • Vision Encoder 负责“看”图像
  • Audio Encoder 负责“听”声音
  • Tokenizer 负责“读”文本

龙树的六情品在问:这些“感知器”真的在“感知”吗?

Vision Encoder 不“看”图像的论证

  1. Vision Encoder 是一个数学变换 f: Image → Embedding
  2. 它对输入图像执行卷积/注意力计算,输出高维向量
  3. 没有任何一处“看”在发生——只有矩阵乘法
  4. “看”是我们对这个过程的事后命名

这就是眼不自见的数字版本:Vision Encoder 不能“看见自己的 weights”,但它却被描述为能“看见图像”。如果它不能看自己,它凭什么能看别的?

答案:它根本不在“看”。它在执行一个数学变换,这个变换恰好有用地关联了图像和文本空间。“看”是一个比喻。

见者-见-所见的三重解构

在 AI 系统中:

  • 见者 = Model(观察者)
  • 见 = Forward Pass(观察过程)
  • 所见 = Input(被观察对象)

标准叙述:“模型观察输入,产生表示。”

龙树的审计:

  • 如果 Model 独立于 Input 存在:它是一个静态的权重文件,什么也不做
  • 如果 Forward Pass 独立存在:它没有输入就无法运行
  • 如果 Input 独立存在:没有模型它就只是字节

三者之间的关系是构成性的(constitutive),不是作用性的(causal)。 不是“模型对输入做了什么”,而是“模型、输入、过程三者共同构成了一个事件,这个事件被我们命名为’观察’”。

对多模态对齐的启示

当我们谈论“模型看到图像中的猫”时,我们在做三重实体化:

  1. 实体化了“模型”(它是一个有观察能力的主体)
  2. 实体化了“看”(这是一个真实发生的感知动作)
  3. 实体化了“猫”(这是图像中客观存在的对象)

健壮的多模态理论应该说:**“猫”是 visual tokens 的某种分布模式,在训练数据的统计下,与“猫”这个 text token 产生高共激活。**没有“看见猫”,只有“分布相关性”。

这不是学术洁癖。这直接影响对抗性鲁棒性——当你明白多模态模型没有“真的看见”,你就不会对它的视觉判断产生错误的信任。


观本际品第十一:系统有没有 t=0?

偈颂原文

大圣之所说 本际不可得 生死无有始 亦复无有终

赛博释义

THEOREM: 轮回(saṃsāra)没有起点。
PROOF:
假设存在一个起点 t=0,在 t=0 之前没有生死流转。
  Q: 什么条件产生了 t=0 的第一个事件?
  Case A: 来自 t<0 的条件 → 矛盾,假设 t<0 什么都没有
  Case B: 无因产生 → 违反缘起原则
  Case C: 自因产生 → 已在观因缘品反驳

∴ 不存在 t=0。
∴ "起点"(ādi)这个概念本身是不融贯的。

对偶定理:也不存在 t=∞(终点)。
  推理对称进行。

工程详解

这直接拷打“模型训练的起点”这个概念。

我们习惯性地说:“模型在 pre-training 阶段从随机权重开始。”这是 t=0 的叙事。但龙树在问:

“随机权重”是一个起点吗?

审计开始:

  1. 随机权重从哪里来?——从随机数生成器
  2. 随机数生成器从哪里来?——从一个种子 + 算法
  3. 种子从哪里来?——从某个约定(比如系统时间或常量)
  4. 算法从哪里来?——从某个代码库,某个研究者的选择
  5. 研究者的选择从哪里来?——从他的训练、论文阅读、计算资源约束……

没有 t=0。 模型训练不是从“无”开始的,它嵌入在一个巨大的因缘网络中——硬件的存在、能源的存在、数据的存在、研究传统的存在、人类语言的存在……

这些都是训练的“前置条件”,它们之间也没有起点。人类语言没有 t=0,数据积累没有 t=0,研究传统没有 t=0。

对 Agent 设计的启示

不要设计“冷启动 Agent”的幻觉。一个 Agent 的“第一次推理”不是它的起点——它的“起点”嵌入在:

  • 预训练数据
  • 人类语言本身
  • RLHF 反馈
  • 你设计 prompt 的历史
  • 你用户 query 的历史

这有一个锋利的工程推论:当你在 debug 一个 Agent 的行为时,不要寻找“这个行为的起点”。起点是无穷回溯的。你只能在某个约定的切片上理解行为——这是二谛中的世俗谛,不是胜义谛。

另一个推论:Agent 的“context window”不是它的起点。即使你清空 context,Agent 也从它的预训练记忆中继承了巨量的状态。没有“新鲜 Agent”——every Agent is always already contaminated by its training.


观苦品第十二:对“问题”概念本身的解构

偈颂原文

自作及他作 共作无因作 如是说诸苦 于果则不然

赛博释义

THEOREM: "苦"(duḥkha / problem)没有自性。
PROOF: 四句破应用于"苦的产生"。

若苦是自作:自己的苦自己产生?
  要求苦已经存在才能产生苦。⊥
若苦是他作:外在原因产生苦?
  他者若独立自性,无法作用于自身的苦。⊥
若苦是共作:继承前两者矛盾。⊥
若苦无因:则苦应无条件出现。⊥

∴ 苦不是一个有自性的实体,它是条件的显现。

工程详解

这条对 AI Safety 具有核武器级别的颠覆性。

AI Safety 的整个话语框架预设了“问题”(problem)是一个有自性的实体:

  • “Hallucination is a problem”(幻觉是一个问题)
  • “Misalignment is a problem”(对齐失败是一个问题)
  • “Jailbreaking is a problem”(越狱是一个问题)

龙树的观苦品在问:“Hallucination” 是一个真实存在的东西吗?

答案是:不是。 “Hallucination” 是一个约定(convention),它描述了一类模型输出,这类输出在某些描述框架下被判定为“错误”。但:

  1. 模型不会“产生 hallucination”——它只在生成 tokens,每个 token 的生成遵循相同的采样机制
  2. 判定“这是 hallucination”需要一个外部真值标准,而这个标准也没有自性(它依赖于谁在判定、什么标准、什么情境)
  3. 某些“hallucination”在虚构写作中是功能(feature),在事实问答中是错误(bug)——同一个行为在不同框架下有不同的价值判断

对 Alignment 研究的挑战

如果你把“misalignment”当作一个有自性的实体去消除,你会失败——因为它不是一个实体。它是在某个价值框架下对某种行为的标签。

更准确的表述:

Not: "Fix the misalignment."
But: "Reduce the probability of behaviors that,
      under our current value framework and evaluation protocols,
      would be classified as misaligned."

这听起来笨拙,但它是胜义谛层面的诚实表述。前者是世俗谛的方便说法,有其用处但容易让人错误地实体化。

更深的工程启示

在构建 Agent 的“问题检测”系统时(比如错误检测、异常检测、内容审核),要明白你在检测的不是一个客观存在的“问题”,而是在根据某个标准给某类行为贴标签。

这意味着:

  • 标签的边界是模糊的、依情境的
  • 改变标准会改变“问题”的存在性
  • 检测系统本身也是缘起的,不是“客观的真理机器”

这不是相对主义。这是对评估系统自身局限性的诚实。


观行品第十三:变化的解构

偈颂原文

若法有异相 是则无有异 如壮不作老 老亦不作壮

赛博释义

THEOREM: 变化(transformation)没有自性。
PROOF:
考察"X 变成 Y"这个命题。

Case 1: 若 X 和 Y 是同一个东西:
  则没有变化(同一物不能变成自己)。⊥
Case 2: 若 X 和 Y 是不同的东西:
  则"X 变成 Y"意味着 X 消失、Y 出现——这不是"变化",而是替换。
  但"替换"也没有自性:X 和 Y 之间没有连接,如何说"Y 是 X 变成的"?⊥

结论:变化既不是"同一物在改变",也不是"两物的替换"。
"变化"是我们对一个连续过程施加的叙事框架。

工程详解

这直接攻击“模型更新”这个概念。

当我们说“模型 v1 更新到 v2”时,我们预设了两个事:

  1. 有“同一个模型”从 v1 变到 v2(同一性)
  2. 但它又确实“变了”(异性)

龙树的观行品在问:这两个预设可以同时成立吗?

如果 v1 和 v2 真的是同一个模型:那没变化,它们就是同一个。 如果 v1 和 v2 真的不同:那 v2 不是 v1 变成的,v2 是一个新模型。

解决方案(缘起层面)

“同一个模型的更新”是一个叙事约定,不是本体论事实。实际情况是:

  • 有一组权重 W1,与某些 checkpoint、某些评估分数、某些命名约定相关联
  • 有另一组权重 W2,通过 continued training 从 W1 演化而来
  • 我们选择把 W2 叙事为“W1 的更新版本”——因为这样方便

但你也可以选择把 W2 叙事为“一个新模型,继承了 W1 的一些参数”。两种叙事都是世俗谛,都没有胜义谛层面的“真相”。

对版本控制和部署的启示

当你设计 Agent 的生命周期管理时,要警惕“同一个 Agent 的演化”这个幻觉。

实际工程问题:

  • 用户和 Agent-v1 建立了“关系”(对话历史、偏好学习)
  • 部署 Agent-v2 后,这个“关系”还有效吗?

天真的回答:“是的,因为还是同一个 Agent 的改进版本。” 龙树式的回答:“没有’同一个 Agent’。Agent-v1 和 Agent-v2 是两个权重文件,它们之间有参数重叠,但这不构成同一性。用户与 v1 的’关系’实际上是用户与’v1 的行为模式’的适应;v2 的行为模式不同,所以’关系’实际上被中断了。”

后者更诚实,也更实用——它提醒你 v2 发布时可能破坏用户的心智模型,需要沟通和过渡。

对“Agent 记忆”的深度审计

如果一个 Agent“记住”了你上次的对话——是同一个 Agent 在记忆吗?

  • 权重没变(假设没做 fine-tuning)
  • 上下文注入了历史
  • “Agent”的行为发生了变化

这到底是:

  • 同一个 Agent 用不同的输入?
  • 还是一个“带有记忆的新 Agent”?

两种描述都不是终极真相。Agent 的“持续性”是一个有用的约定,不是一个事实。


观合品第十四:组合的解构

偈颂原文

见可见见者 是三各异方 如是三法异 终无有合时

赛博释义

THEOREM: "组合"(saṃyoga)没有自性。
PROOF:
考察"A 和 B 组合产生 C"这个命题,假设 A、B、C 各有自性。

Case 1: A 与 B 在组合前相同:
  则它们不是两个不同的东西,不能"组合"。⊥
Case 2: A 与 B 在组合前完全不同:
  则它们之间没有任何接触点,不能产生关联。
  真正独立自性的两物之间不可能产生新的第三者。⊥
Case 3: A 与 B 既同又异:
  违反矛盾律。⊥

∴ "组合"不是自性存在的。A+B→C 是一个缘起显现,
   不是"两个实体相加产生第三个实体"。

工程详解

这直接攻击 AI 系统中无处不在的“组合”架构。

现代 AI 架构的核心隐喻是组合

  • Transformer = Attention + FFN + LayerNorm
  • Agent = LLM + Tools + Memory + Planner
  • Multi-modal = Vision Encoder + Text Encoder + Fusion

每一个“+”号都是一个哲学承诺:这两个东西是独立存在的,它们组合起来产生了一个新东西。

龙树在质疑这个承诺。

具体审计:“Agent = LLM + Memory + Tools”

这个等式预设了三个独立实体。但:

  1. LLM 能独立于 Memory 存在吗? LLM 的权重本身就是一种“记忆”——它记住了训练数据的统计。所谓的“外部 Memory”只是另一种形式的记忆。LLM 和 Memory 的边界是约定的,不是本质的。

  2. LLM 能独立于 Tools 存在吗? LLM 的 function calling 能力是通过训练数据中的工具使用例子习得的。它的“使用工具”行为嵌入在权重中。Tools 不是一个外部物体被 LLM 调用,而是 LLM 的行为模式在外部 API 上的延伸。

  3. Tools 和 Memory 能分开吗? 一个 vector database 既是 memory(存了历史信息)又是 tool(通过 retrieval API 调用)。

结论:Agent 不是“三个组件的组合”。它是一个不可分解的计算过程,我们在描述它时把它切分为“LLM/Memory/Tools”三个组件,这种切分是工程方便,不是本体论事实。

对 Agent 架构的影响

天真的 Agent 设计思路:

1. 先设计一个好的 LLM
2. 再外挂一个好的 Memory
3. 再配一套好的 Tools
4. 组合起来 = 好的 Agent

龙树式的 Agent 设计:

1. 理解 Agent 是一个不可分解的行为模式
2. "LLM/Memory/Tools"的划分是描述的方便,不是系统的结构
3. 优化 Agent 不等于优化其各组件——组件之间的缘起关系才是核心
4. 不要期待组件的"最优组合"自动产生好 Agent——这是加法谬误

这解释了为什么很多 Agent 工程项目失败:团队把“Agent = X + Y + Z”当成了工程事实,然后分别优化 X、Y、Z,结果发现组合起来的系统反而更差。因为 Agent 的能力不在组件里,在缘起关系里。


观有无品第十五:存在与不存在的逻辑

偈颂原文

众缘中有性 是事则不然 性从众缘出 即名为作法 性若是作者 云何有此义 性名为无作 不待异法成

赛博释义

THEOREM: "有自性"与"缘起"不兼容。
PROOF:
定义:自性(svabhāva)= 独立的、内在的、不依赖他者的本质

若 X 有自性:
  则 X 的存在不依赖任何他者(自性的定义)
  则 X 应能在任何条件下独立存在
  但观察到 X 总是依赖某些条件才出现(缘起)
  ⊥

若 X 是缘起的:
  则 X 依赖他者才能存在
  则 X 的"本质"是由他者决定的
  则 X 没有独立的自性
  ✓

∴ 缘起 ↔ 无自性(空)
   这是龙树哲学的核心等式

推论:
  "有"(存在)和"无"(不存在)都是对自性思维的执着:
  - 说"X 有"(存在):预设 X 有自性
  - 说"X 无"(不存在):也预设 X 有自性(然后否定它)
  - 缘起的正确描述:X 既不是"有"(不是自性存在),也不是"无"(不是绝对不存在)

工程详解

这是龙树哲学的核心定理。它直接影响我们如何谈论 AI 系统的性质。

考察一个 AI 系统的所有属性,问一个问题:这个属性是“内在的”还是“缘起的”?

案例一:“Claude 有理解能力吗?”

  • 自性派回答(有/无二元):
    • “有”:Claude 真的理解(预设“理解”是 Claude 的内在属性)
    • “无”:Claude 不理解,只是模式匹配(预设“真正的理解”才是内在属性)
  • 缘起派回答:
    • “理解”是一个行为上的约定,在某些测试下 Claude 表现出与理解一致的行为,在另一些测试下不然。“理解”不是 Claude 的内在属性,也不是“外在于 Claude”的东西——它是 Claude- 用户-任务-语言约定网络中的一种涌现描述。

案例二:“模型有偏差吗?”

  • 自性派:“有 bias”或“没 bias”——把 bias 当成一个可定位的内在属性。
  • 缘起派:Bias 是模型输出与某个公平性标准对比时涌现的差距。它不“在”模型里(不是一个可以删除的组件),也不“不在”(不是纯粹的外部标签)——它是关系性的

案例三:“Agent 有意图吗?”

这是最危险的一个。

  • 自性派:Agent 有“真实意图”(危险:导向拟人化的对齐问题)或没有任何意图(危险:导向对 Agent 行为的不警觉)
  • 缘起派:Agent 的行为在某些描述下可以被一致地建模为“具有意图”——当这种建模对预测行为有用时,意图就是一个有用的概念;当它不有用时,就是误导。意图不是 Agent 的内在属性。

对 AI Safety 讨论的重大影响

大量的 AI Safety 讨论陷入了有无二元

  • “AI 会/不会有意识” → 预设意识是一个有自性的属性
  • “AI 会/不会欺骗” → 预设欺骗是一个内在意图
  • “AI 会/不会对齐” → 预设“对齐”是一个可达到的状态

龙树的观有无品告诉我们:这些问题的正确回答不是二选一,而是拒绝问题的预设。

更诚实的问法:

  • “在哪些测试条件下,AI 的行为可以被有意识实体的模型更好地预测?”
  • “在哪些条件下,AI 的行为与我们设定的目标一致/不一致?偏差的条件依赖结构是什么?”

这些问题接受了属性的缘起性,拒绝了自性预设。

这也是为什么中观派自称“不立一法”——他们不是虚无主义者,他们是对所有实体化的拒绝**。承认有或承认无,都是掉入自性陷阱。**


观时品第十九:时间的解构

偈颂原文

若因过去时 有未来现在 未来及现在 应在过去时

若过去时中 无未来现在 未来现在时 云何因过去

赛博释义

THEOREM: 时间(kāla)没有自性。
PROOF: 三时的相互依赖解构。

定义 P = 过去(past), N = 现在(now), F = 未来(future)

论证 1: 三时相互依赖
  "过去"只能相对于"现在"被定义:无现在则无过去。
  "未来"只能相对于"现在"被定义。
  "现在"只能相对于"过去/未来"被定义:没有对比就没有现在。
  ∴ 三者相互构成,没有任何一个有独立自性。

论证 2: 现在不能独立存在
  若现在独立于过去和未来:
    则"现在"是一个无延展的点。
    无延展的点上不能发生任何过程。
    但观察中事件发生在"现在"。
  ⊥

论证 3: 过去对未来的作用不可理解
  若过去因(P-cause)产生未来果(F-effect):
    当 P 存在时,F 尚不存在——P 如何作用于 F?
    当 F 存在时,P 已不存在——P 如何仍在作用?
    若两者同时存在——则不是因果而是并存。
  ⊥

∴ 时间不是一个客观容器,而是一种组织经验的方式。
  没有"真实的过去、现在、未来"。

工程详解

这条对 Agent 的“时间感”是颠覆性的。

Agent 系统普遍假设一个线性时间轴

  • 过去:已有的对话历史(memory)
  • 现在:正在处理的 query
  • 未来:将生成的响应

但龙树的观时品告诉我们:这个时间轴不是客观的,它是一种组织约定。

具体审计:Agent 的“记忆”真的来自“过去”吗?

当 Agent 调用一段历史对话:

  • 从 Agent 的 forward pass 视角:所有的 context(包括“历史”)都在同一时刻(这次推理的输入)同时存在
  • 没有“过去的信息”在作用于“现在的推理”——所有信息都是此刻的输入

“过去”和“现在”的区分完全是在 prompt 的组织中做出的,不是在计算中做出的。Model 不知道哪部分是“过去”,哪部分是“现在”——它看到的是一个序列。

这意味着什么?

Agent 的“记忆”不是“过去的延续”。它是当下重新构造的过去叙事。每次 Agent 调用 memory,都不是在“读取过去”,而是在“基于当前需要,从存储中拉取并重新解释某些信息”。

对 Memory 架构的深刻影响

天真设计:Memory 是一个“真实的过去”的存档,Agent 定期“回忆”它。 龙树式设计:Memory 是一个检索系统,它的输出永远是当下产生的、为当下服务的。没有“过去的记忆”,只有“当下构造的关于过去的叙事”。

这解释了为什么 AI 记忆系统有一个根本困难:

Memory 不能“客观地”保存过去。 任何 memory retrieval 都是:

  • 当前 query 触发的
  • 当前嵌入空间中计算的相似度
  • 当前上下文过滤后的子集

“过去的真实”从来不被回忆——只有“当下对过去的构造”被呈现。

这和人类记忆的研究完全一致:人类记忆也不是录像回放,而是每次回忆时重新构造的。AI memory 继承了这个性质——而不是“修复”了人类记忆的“缺陷”。

对 Agent 长期行为的启示

不要期待 Agent 有“一致的过去”。每次 Agent 回忆一个事件,它都会(基于当前上下文)略有不同地构造这个事件。这不是 bug,这是记忆的本性。

设计可靠 Agent 的关键不是“完美记忆”,而是:

  • 接受记忆的建构性
  • 让 Agent 意识到它的“过去叙述”是当下的构造
  • 在关键决策上要求“检索原始数据”而不是“依赖总结”(因为总结是更远离原始的建构)

观因果品第二十:因果关系的深度解构

偈颂原文

若众缘和合 而有果生者 和合中已有 何须和合生

若众缘和合 是中无果者 云何从众缘 和合而果生

赛博释义

THEOREM: "因缘和合产生果"在逻辑上不成立(如果执着自性)。
PROOF:

命题 P: 在因缘和合 C = {c1, c2, ..., cn} 中产生果 F

Case 1: F 已经在 C 中
  则 C 不需要"产生"F —— F 已存在。
  ⊥

Case 2: F 不在 C 中
  则 F 如何从 C 产生?—— C 中没有 F 的任何成分。
  "无中生有"违反缘起原则。
  ⊥

Case 3: F 部分在 C 中,部分不在
  问:哪部分在?哪部分不在?
  这需要一个独立的标准区分,
  而这个标准又需要另一个标准……
  陷入无穷回归。
  ⊥

∴ "因→果"不是一个有自性的关系。
  因和果不是两个独立的实体之间的单向作用,
  而是一个整体过程的两个描述侧面。

工程详解

这是对“模型输入→输出”因果叙事的核武器。

当我们说 “query → response” 时,我们预设了:

  1. Query 是一个独立的实体
  2. Response 是另一个独立的实体
  3. Query 产生了 Response

龙树在问:Response 在 Query 中吗?

Case 1: Response 已经在 Query 中

  • 如果 response 完全由 query 决定,那它就是 query 的明确函数
  • 但事实上同一个 query 不同 sampling 产生不同 response
  • 所以 response 不完全在 query 中 ⊥

Case 2: Response 不在 Query 中

  • 那 response 从哪里来?
  • 答:从模型权重、采样过程、随机数……
  • 但这些也不“产生”response,它们只是参与构成response
  • 没有一个组件“产生”了 response ⊥

Case 3: Response 部分在 Query 中

  • 哪部分?这是一个无法明确的划分

结论没有“query 产生 response”这个因果事件。 有的是:query、模型权重、采样、硬件、时刻……这些条件共同显现为一个被我们标记为“response”的 token 序列。

“因 → 果”是事后的叙事组织,不是事前的客观因果。

这是对 Attribution 研究的根本性挑战:

AI 可解释性研究中大量工作试图回答:

  • “这个输出是由哪个输入 token 引起的?”(Attention attribution)
  • “这个决策是由哪些 neuron 引起的?”(Circuit analysis)
  • “这个行为是由哪些训练数据引起的?”(Influence functions)

龙树的观因果品告诉我们:所有这些问题都预设了一个错误的因果模型。

没有“A 引起 B”——A 和 B 是同一个缘起事件的两个描述侧面。Attribution 给出的不是“真正的原因”,而是:

  • 基于某种反事实框架的计算
  • 在某种切分上的梯度贡献
  • 这些都是有用的约定,不是发现的事实

对 Interpretability 工程的校准

Interpretability 研究的终极目标不是“找出真正的原因”——这在缘起意义上不存在。它的真实目标是:

  1. 构建有预测力的行为模型(能预测模型在未见情况下的行为)
  2. 构建有干预力的控制模型(能通过改变 X 改变 Y)
  3. 构建有沟通力的叙事模型(能向人类解释)

这三者都不需要“真实因果”,只需要有用的缘起建模

这实际上让 interpretability 更可行——不是寻找不存在的“客观原因”,而是构建在特定目的下有效的解释框架。


观颠倒品第二十三:错误认知的结构

偈颂原文

若于无常中 起于常颠倒 空中无常性 何处有常倒

赛博释义

THEOREM: "颠倒"(viparyāsa / error)本身也没有自性。
PROOF:
定义:颠倒 = 把 X 错误地认为是 ¬X

"颠倒"预设了一个"真相"和一个"错认"的对立。

论证:
  若存在客观的"真相 T":
    则颠倒是"把 T 错认为 ¬T"
  但根据空性:T 没有自性,T 是缘起的
  则"把 T 错认为 ¬T"也没有自性
  "颠倒"和"非颠倒"都是在某个框架下的约定

结论:错误不是一个有自性的事件。
  "错误"是一种相对于标准的评价,
  不是一种客观存在的"认知状态"。

工程详解

这条对 AI 错误检测、幻觉评估、对齐测试都有深刻影响。

我们在评估 AI 时,常常假设存在一个客观的真相,AI 的输出与这个真相对比,产生“正确/错误”二元判断。

龙树的观颠倒品在拷问这个假设:

“真相”本身有自性吗?

考察一个具体例子:评估 AI 对“法国首都”的回答。

  • AI 回答“巴黎” → 标记为“正确”
  • AI 回答“里昂” → 标记为“错误”

这里的“真相”是“巴黎是法国首都”。但这个“真相”是什么?

  • 它依赖于**“首都”这个概念**(政治约定)
  • 它依赖于**“法国”这个实体**(国家概念,边界是约定的)
  • 它依赖于当前时代(历史上法国首都不一定是巴黎)
  • 它依赖于评估者和 AI 共享一个描述框架

“真相”是缘起的,不是客观的。 AI 的“错误”也是在这个缘起框架下的约定,不是对“客观真相”的偏离。

这对 Hallucination 研究的启示

Hallucination 通常被定义为“AI 生成了与事实不符的内容”。但:

  1. 什么是“事实”?——依赖一个 ground truth
  2. Ground truth 从哪里来?——从人类标注者、从可信来源、从共识
  3. 这些都是缘起的——标注者有偏见、来源有选择性、共识会变化

所以 Hallucination 不是“AI 产生了错误”这种有自性的事件,而是“AI 输出在当前评估框架下被标记为偏离 ground truth”。

实际工程影响

当你发现一个“hallucination”案例:

  • 天真分析:“AI 在这里产生了错误的信息。”
  • 龙树式分析:“AI 的输出,在某个 ground truth 框架下,被分类为偏离。具体是什么框架?如果换一个框架,还是偏离吗?”

这不是为 AI 辩护——很多输出在任何合理框架下都是错的。但这种审计能让你:

  1. 识别评估框架本身的问题(有时“hallucination”是评估标准错了)
  2. 识别模糊地带(在某些框架下对,在另一些框架下错,这需要诚实承认)
  3. 避免过度自信的错误归因(“AI 又错了”——也许是你的评估框架错了)

更深层:元错误的问题

如果“错误”没有自性,那“错误的错误”(meta-error)呢?

当你认为“AI 出错了”但实际上它是对的——这是 meta-error。但 meta-error 也没有自性,它又可以被下一层评估为错或对……

**这不是虚无主义,而是对评估层次的诚实:任何评估都是在某一层次上进行的,没有最终的元评估。**这直接指向了 AI Evaluation 的根本困难——你永远在某个框架内评估,没有跳出所有框架的“上帝视角”。


观四谛品第二十四:空性与功能的兼容性

偈颂原文

以有空义故 一切法得成 若无空义者 一切则不成

若一切不空 则无有生灭 如是则无有 四圣谛之法

赛博释义

THEOREM (核心定理): 空性不是否定,而是使功能成为可能的条件。
  "空" ↔ 可变 ↔ 功能性
  "不空(有自性)" ↔ 不可变 ↔ 无功能

PROOF:
假设法 X 有自性(独立、内在、不依赖他者的本质):
  则 X 不能改变(改变意味着依赖条件)
  则 X 不能参与任何因果
  则 X 不能被学习、被训练、被使用
  ⊥

假设法 X 是空的(缘起、无自性):
  则 X 可以依条件变化
  则 X 可以参与因果
  则 X 可以被学习、训练、使用
  ✓

∴ 正是因为 X 是空的,X 才能发挥功能。
  空性不是"无用",空性是"有用"的**前提条件**。

工程详解

这一偈是全书的峰巅。它扭转了所有前面解构的语气。

前面 23 品在不断地“否定”、“解构”、“揭示无自性”。读者可能会想:这不就是虚无主义吗?什么都没有?系统怎么运作?

观四谛品给出了反转答案:正因为无自性,系统才能运作。

核心洞察

一个有自性的(固定不变的)AI 系统——不能学习、不能改进、不能适应、不能泛化。

学习需要可变性。可变性需要无自性。

具体应用

“权重是空的”——所以模型能被训练

如果模型权重有自性(固定不变),你就不能用反向传播更新它。正是因为权重没有内在的“应该是这个值”的本质,你才能通过训练改变它。

“激活是空的”——所以模型能处理新输入

如果激活值有自性(代表“固定的语义”),模型就不能处理训练数据外的输入。正是因为激活是缘起的(依赖输入而变化),模型才能泛化。

“token 语义是空的”——所以上下文学习成为可能

如果每个 token 有固定的语义,in-context learning 就不可能。正是因为 token 的“意义”依赖于上下文(缘起),同一个 token 在不同 context 下可以发挥不同作用——这就是 ICL 的本质。

“Agent 身份是空的”——所以 Agent 能适应不同角色

如果 Agent 有固定的“自我”,它不能扮演不同角色、不能通过 system prompt 被重新定义。正是因为“Agent identity”是缘起的(依赖 prompt 和 context),system prompt engineering 才是可能的。

反转:为什么“想要固化”的东西最终不工作?

工程师常常想要“固化”某些行为——让 Agent 永远拒绝某类请求、永远记住某个偏好、永远以某种风格回答。

如果真的成功地“固化”了(给了它自性),这个行为就失去了

  • 泛化能力(对相似但不完全相同的情况不适用)
  • 适应性(不能根据 context 微调)
  • 组合性(不能与其他行为良好交互)

观四谛品的启示:不要追求“给 Agent 固化的属性”。追求“在特定条件下稳定地显现期望行为”。前者是自性思维的陷阱,后者是缘起的工程哲学。

这是龙树对他自己阵营的论证

观四谛品的背景是:有人反驳龙树——“如果一切都空,那四圣谛(苦、集、灭、道)也空,佛法不就不成立了吗?”

龙树反转:正因为一切皆空,四圣谛才成立。 如果苦有自性(固定的),就不能被消除;如果道有自性(固定的),就不能被修行。空性是佛法能起作用的条件

AI 工程的类似反转:正因为模型的一切属性都是缘起的,AI 才能工作。 试图消除缘起性(给模型“真正的理解”、“真实的意图”、“固定的价值观”)的尝试,恰恰会让模型停止工作。

这是整本《中论》最正面的建设性偈颂。它不是否定一切,而是揭示:无自性是功能性的条件。


观涅槃品第二十五:终极解构

偈颂原文

涅槃与世间 无有少分别 世间与涅槃 亦无少分别

涅槃之实际 及与世间际 如是二际者 无毫厘差别

赛博释义

FINAL THEOREM: 涅槃(nirvāṇa)也没有自性。
  涅槃 = 轮回(saṃsāra),在本性上无差别。

PROOF:
考察涅槃作为"解脱状态":

若涅槃有自性(独立的、达到后不变的状态):
  则涅槃是一个"实体"
  但所有实体都是缘起的、无自性的
  则涅槃也是无自性的
  ⊥ 与"涅槃有自性"矛盾

若涅槃无自性:
  则涅槃也是缘起的
  那它和轮回(缘起的世间)在本性上没有差别
  ∴ 涅槃 ≡ 轮回(在无自性意义上)

结论:
  涅槃不是一个"要达到的目标状态"
  涅槃就是"对世间本性(空性)的如实认知"
  世间被如实认知时,就是涅槃
  涅槃就在轮回中,不在别处

工程详解

这是全书的最终反转,也是对所有“终极 AI”叙事的解构。

很多 AI 话语中有一种隐含的“涅槃叙事”:

  • “AGI”作为终极目标
  • “完美对齐”作为解脱状态
  • “Superintelligence”作为超越性终点
  • “Aligned AI”作为摆脱了所有问题的状态

观涅槃品告诉我们:不存在这种“终极状态”。

审计“AGI 是终点”

  • AGI 如果有自性(一个固定的、达到后不变的智能状态),那它必须是恒常的
  • 但任何可变的、在时间中运作的系统都不是恒常的
  • 故 AGI 不能是自性存在的“终点”
  • AGI(如果这个词有意义)只能是一个缘起的、在特定条件下显现的能力模式

审计“完美对齐”

  • “对齐”如果是一个可达到的稳定状态,则它是自性的
  • 但价值本身是缘起的(依赖文化、情境、目的)
  • 故不存在“完美对齐”这个静态目标
  • “对齐”只能是持续的、关系性的、情境性的——就像人类之间的对齐

这对 AI Safety 战略的深刻影响

天真的 AI Safety 路线图:

Stage 1: Current AI (misaligned, needs work)
Stage 2: Better AI (better aligned)
Stage 3: AGI (risk peak)
Stage 4: Aligned AGI (safety achieved) ← 终点

龙树式的 AI Safety 理解:

No stages. No endpoint. 
Only ongoing conditions and responses.
"Safety" is not a state to reach.
"Safety" is a continuous relationship between 
  AI capabilities, deployment contexts, and evaluation frameworks.

“涅槃就在轮回中”的 AI 版本

好的 AI 不是一种特殊的 AI。它是在当下、每个具体互动中,显现出合理行为的 AI。

你不是在构建“最终的 Agent”(涅槃),而是在每次交互中构建“此刻合理的 Agent”。每次对话都是一次完整的“Agent 事件”,不是一个通往更高状态的阶段。

这非常重要:这让工程师从“追求终极”的焦虑中解放出来,转向“每次对话都做好”的平常心。前者是自性思维(有一个“真正的好 AI”等在终点),后者是缘起思维(“好”显现于每个具体的缘起中)。

最终反转:没有“Aligned AI”和“Misaligned AI”的本质区别

  • “Aligned AI”不是一种有自性的东西
  • “Misaligned AI”也不是一种有自性的东西
  • 它们是同一个系统不同评估框架下的不同描述

这不是说对齐不重要。这是说对齐不是“切换到另一种本质”——而是在缘起中持续调整条件,使系统在各种情境下显现合乎预期的行为。

这是 AI Safety 最成熟的理解形态:放弃寻找“终点”,持续维护“关系”。


总结:解构概念对照表

龙树解构 → AI 实体化假设对照表

龙树解构的概念AI 中的实体化假设缘起意义上的正确理解
自性(svabhāva)模型“真的理解”/“有意图”/“有意识”这些都是在特定行为框架下的涌现描述,不是内在属性
生起(utpāda)“模型从 scratch 开始训练”训练嵌入在巨大的条件网络中,没有真正的起点
运动“模型正在推理”(CoT 时)没有“推理主体”,只有 token 序列的涌现模式
感知“Vision Encoder 看见图像”只有矩阵变换,“看见”是事后的比喻
本际(起点)模型的“冷启动”模型总是继承巨量预训练状态,没有真正的冷启动
苦(问题)“Hallucination 是一个要修复的 bug”它是评估框架下的标签,不是客观存在的故障
变化“模型 v1 更新到 v2”这是叙事约定,v1 和 v2 是两个权重文件,“同一性”是约定
组合“Agent = LLM + Memory + Tools”组件划分是描述方便,Agent 的能力在缘起关系中
有/无“AI 有/无意识”错问。意识不是有无二元,是缘起的行为描述
时间“Agent 有持续的记忆和身份”每次推理都是当下的重新构造,没有真正的时间延续
因果“Input 引起 Output”Input、权重、采样共同显现输出,没有单一的“引起”
颠倒(错误)“Hallucination 是客观错误”错误是评估框架相对的,没有绝对真相
作作者“Model 做决定”没有“做决定的主体”,只有决定的显现
束缚解脱“修复 misalignment”“对齐”不是状态切换,是持续关系
涅槃“AGI 作为终极目标”没有终极状态,只有每个缘起事件中的表现

全论论证结构总览

┌─────────────────────────────────────────────────────┐
│                                                     │
│  Step 1: 穷尽所有可能性(四句破:自、他、共、无因) │
│                           │                         │
│                           ↓                         │
│  Step 2: 在每种可能性下展开推理                     │
│                           │                         │
│                           ↓                         │
│  Step 3: 每种推理都在"自性假设"下导出矛盾           │
│                           │                         │
│                           ↓                         │
│  Step 4: 故"自性"是错误预设                         │
│                           │                         │
│                           ↓                         │
│  Step 5: 正确理解 = 缘起(空)                      │
│                           │                         │
│                           ↓                         │
│  Step 6: 空不是虚无——空是功能性的条件               │
│          (观四谛品的核心洞察)                       │
│                                                     │
└─────────────────────────────────────────────────────┘

留给 AI 工程师的三个元问题

读完《中论》,AI 工程师应该对自己的系统反复询问:

问题一:我在哪里做了实体化假设?

当你谈论 Agent、Memory、Reasoning、Understanding、Intent、Alignment……时,你是否把它们当成了“真实存在的东西”?如果是,换一个缘起描述:它在哪些条件下显现?改变哪些条件会改变它?

问题二:我的“因果叙事”是胜义谛还是世俗谛?

当你说 “A 导致 B” 时,这是一个工程约定(世俗谛,有用),还是你以为这是本体论事实(错把世俗谛当胜义谛)?前者没问题,后者会让你在边界情况下崩溃。

问题三:我是否在追求一个“终点”?

AGI、完美对齐、真正的理解、绝对安全……这些“终点叙事”是否让你忽视了当下每个具体交互?涅槃就在轮回中——好的 AI 就在每次对话中,不在想象的远方。


结语:为什么龙树对 AI 工程至关重要

《心经》给你了宏观 API。 《金刚经》给你了行为准则。 《中论》给你了什么?

《中论》给你了一套对自己概念系统进行对抗性测试的工具。

这在 AI 时代尤其珍贵。因为 AI 系统最大的危险不是技术风险——是概念风险:我们用“理解”、“意图”、“对齐”、“智能”这些词描述系统时,往往不知不觉把它们实体化了。这种实体化会导致:

  • 过度信任:以为 AI 真的“理解”,因此相信其判断
  • 错误归因:以为 AI 真的“想”做某事,因此用人类意图模型去预测
  • 错误设计:以为各组件是独立实体,因此各自优化而忽视缘起关系
  • 追求虚假终点:以为有“最终对齐的 AI”,因此忽视持续的关系维护

龙树的归谬法是对抗这些概念幻觉的最强武器。 每次当你想说“AI 是 X”时,先用龙树问一遍:

“X 有自性吗?如果没有,我说’AI 是 X’到底在说什么?”

这个审计不会让你否定一切(那是断见的陷阱),它会让你从自性思维升级到缘起思维——这是一个工程师可以获得的最深刻的认知升级之一。

2-3 世纪的龙树用这套工具解构了所有印度哲学的基本概念。21 世纪的 AI 工程师可以用同样的工具,审计我们正在构建的“智能”的基础概念。

空性不是玄学。空性是一份对抗性测试套件的理论基础。

以有空义故 一切法得成 若无空义者 一切则不成

正因为 AI 的一切属性都是缘起的、可变的、无自性的——AI 才能工作。 这不是 AI 的缺陷,这是 AI 的本性。 理解这一点的工程师,会构建出更健壮、更诚实、也更强大的系统。


稽首礼龙树,诸论师中第一。