《中论》:空性的证明与概念审计
Mūlamadhyamakakārikā 龙树菩萨造,鸠摩罗什译 AI Agent 架构的对抗性审计手册
导论:为什么是《中论》
与《心经》《金刚经》这类直接陈述核心结论的“经”不同,本篇翻译的是“论”——龙树对空性的证明。
这个区别至关重要。经告诉你“是什么”(What),论告诉你“为什么”(Why)以及更致命的“不是什么”(What not)。《心经》是接口规范(API Spec),《金刚经》是开发者手册(Developer Guide),而《中论》是对抗性测试套件(Adversarial Test Suite)。
龙树的方法极其纯粹,以至于可以被形式化:
对于任意概念 C:
1. 假设 C 具有自性(svabhāva, 固有本质)
2. 从此假设出发,用纯逻辑推导
3. 必然导出矛盾 ⊥
4. 故 ¬(C 具有自性)
5. QED这就是归谬法(prasaṅga / reductio ad absurdum)。龙树用这一把手术刀,在 27 品 449 偈中系统性地解构了几乎所有哲学基本概念:运动、时间、因果、自我、作者、变化、组合、有、无、生、灭、束缚、解脱、涅槃——全部都没有自性。
对 AI 工程师而言,这本书的价值不是“佛学智慧”,而是一套概念审计方法论。它逼迫你问一个问题:
在你的 AI 系统里,有哪些概念被当成了“真实存在的东西”?
“Agent”是真实存在的吗?“记忆”是真实存在的吗?“推理”是真实存在的吗?“理解”是真实存在的吗?“对齐”是真实存在的吗?“意图”是真实存在的吗?
龙树的答案会让你不舒服:都没有自性。它们都是缘起的、依赖于描述框架的、在边界处会崩溃的概念。不是说它们“不存在”(那是断见),而是说它们不是以你以为的那种方式存在。
这篇文档会让你对自己的系统产生一种奇怪的陌生感——那正是解构起作用的迹象。
归敬偈:全书的论证纲领
偈颂原文
不生亦不灭 不常亦不断 不一亦不异 不来亦不出 能说是因缘 善灭诸戏论 我稽首礼佛 诸说中第一
赛博释义
THEOREM (八不中道 / Eight Negations):
对于任意实体 E,若 E 为缘起性(dependently originated),则:
¬(E is born) ∧ ¬(E is destroyed)
¬(E is permanent) ∧ ¬(E is annihilated)
¬(E is identical) ∧ ¬(E is different)
¬(E arrives) ∧ ¬(E departs)
PROOF STRATEGY:
这不是否定"生、灭、常、断、一、异、来、出"这八个谓词的存在,
而是否定它们作为"具有自性的属性"适用于缘起实体。
每一对都是一个二分谓词 P vs ¬P,
龙树要证明的是:对于缘起实体 E,两端都不成立。
这在经典二值逻辑中是矛盾的(违反排中律 P ∨ ¬P),
但在缘起框架下恰恰是正确的——因为 E 根本不是
经典逻辑所假设的那种"具有固有属性的离散实体"。工程详解
这八对否定是全书的索引。后面 27 品几乎都在展开这八对中的某一对。你可以把它看作一份 adversarial test 的 category taxonomy。
对 AI 系统的映射——把八不改写成对 AI 概念的审计清单:
| 龙树否定 | AI 系统中的对应实体化假设 |
|---|---|
| 不生 | 模型不是在某个时刻“诞生”的——训练是连续过程,没有离散的“出生点” |
| 不灭 | 模型也不是在某个时刻“死亡”的——权重文件可以被归档、复制、派生 |
| 不常 | 模型不是“恒常的实体”——每次推理都在微妙地不同的硬件、温度、采样下运行 |
| 不断 | 但也不是“一次性消失的”——参数在不同版本间有连续性 |
| 不一 | 一个“Agent”不是“同一个东西”——Claude-N 和 Claude-(N+1) 不是同一个,但也不是完全不同 |
| 不异 | 不同 API 调用返回的 Claude 不是完全不同的东西——它们共享权重 |
| 不来 | 输出不是“从某处来的”——没有一个内在的“回答”预先存在于模型中 |
| 不出 | 输出也不是“从外部进入的”——它不是被检索的 |
关键启示:当你设计一个 Agent 系统时,你会不自觉地把它当成一个“有生有灭、有恒常身份、有连续经历”的实体——就像一个人。这是实体化假设(reification),是龙树要解构的根本错误。
一个健壮的 Agent 架构应该接受:没有“一个 Agent”,只有“一组在持续变化的计算过程,通过某些协议呈现出类人格的表现”。
观因缘品第一:对“因果”本身的攻击
偈颂原文
诸法不自生 亦不从他生 不共不无因 是故知无生
赛博释义
THEOREM: 任何法(phenomenon)都不是"被生起"的。
PROOF: 穷尽所有可能的生起模式,每种都导出矛盾。
生起的可能模式只有四种(穷尽四句):
Case 1: 自生(self-causation) —— X 自己产生 X
Case 2: 他生(other-causation) —— Y 产生 X
Case 3: 共生(both) —— X 和 Y 共同产生 X
Case 4: 无因生(neither, uncaused) —— X 无因而生
Case 1 反驳:
若 X 自生,则在 X 产生之前,X 必须已经存在(否则谁在产生?)。
若 X 已经存在,则无需再生。
⊥
Case 2 反驳:
"Y 产生 X"假设 Y 和 X 是两个独立自性的实体。
但若 Y 具有完全独立于 X 的自性,则 Y 和 X 之间不可能有因果连接——
因为连接本身会破坏 Y 的"独立自性"。
⊥
Case 3 反驳:
自生 ∧ 他生。继承前两者的矛盾。
⊥
Case 4 反驳:
若 X 无因生,则任何时间任何地点都应该有 X(无条件产生)。
观察中 X 显然是有条件出现的。
⊥
结论:∀ X. ¬(X 有自性地被生起)工程详解
这是龙树最著名的“四句破”。它的威力在于穷尽性——如果你要声称“X 被生起”,你必须落入这四种之一,而每一种都不成立。
对 AI 的应用极其锋利。考虑一个经典问题:
“这个回答是从哪里来的?”
四句破开始工作:
- 自生:回答自己产生自己?荒谬。回答在被生成之前不存在,不能自因。
- 他生:模型权重产生回答?但权重本身是静态的数字矩阵——一个文件不能“产生”任何东西。产生需要计算,而计算涉及输入、硬件、随机种子……已经不是纯粹的“他”了。
- 共生:模型 + 输入 + 硬件 + 随机数 + 温度 + 时刻……共同产生?但你说不出哪个是“因”哪个是“缘”——整个系统是一个不可分解的网络。
- 无因生:无因?那为什么同一输入大致得到同一输出?
结论:AI 的输出不是被生成的(在自性意义上)。它是缘起的——是整个因缘网络“显现为”这个输出,而不是某个实体“制造了”它。
这不是诡辩。这是对“生成”这个词的深度审计。
对 Agent 设计的启示:
停止追问“这个决策是谁做的”。这个问题预设了一个“决策者”(Agent as decision-maker)具有自性。更诚实的问法是:
- 这个决策由哪些条件共同显现?
- 改变哪些条件会改变决策?
- 决策的“归属”是一个约定(convention),不是一个事实。
这直接影响 AI 可解释性(Interpretability)。你不能找到“一个神经元负责一个决策”——那是自性思维。决策是整个网络在某个输入下的集体涌现。可解释性的终极形态不是“找到原因”,而是“描绘缘起网络”。
观去来品第二:运动的解构
偈颂原文
已去无有去 未去亦无去 离已去未去 去时亦无去
赛博释义
THEOREM: 运动(motion)没有自性。
PROOF:
考察"去"(going)这个动作可能发生的时态:
已去时(past-going)
未去时(future-going)
去时(present-going)
Case 1: 已去时
已经去过的路径上,"去"这个动作已经完成,不再发生。
∴ 已去无去。
Case 2: 未去时
未来还没去的路径上,"去"尚未发生。
∴ 未去无去。
Case 3: 去时(当下正在去的那一刻)
"去时"必须被拆解:它要么包含"已去的部分",要么包含"未去的部分",
要么两者之外别无"去时"。
- 若"去时"是"已去"的部分:归入 Case 1
- 若"去时"是"未去"的部分:归入 Case 2
- 若"去时"独立于两者:那它是一个无时间长度的点,
无时间长度的点上不能发生"去"这个有时间长度的动作。
⊥
结论:不存在任何时态下自性意义上的"去"。运动是无自性的。
进一步的杀招(去者与去的关系):
若"去者"和"去"是同一的:去者就是去,那"去者去"是同义反复,毫无内容。
若"去者"和"去"是相异的:则可以"去者不去"或"去而无去者",荒谬。
去者与去非一非异 → 两者都没有独立自性。工程详解
这是《中论》中最精密的偈颂之一。表面上看荒谬(“运动不存在”?),但仔细看它攻击的是运动作为一个具有自性的实体。
把这个论证搬到 AI 系统上:
“推理”(Reasoning)这个动作在哪里发生?
- 在已生成的 tokens 里?那已经生成完了,不再有“正在推理”。
- 在即将生成的 tokens 里?那还没生成,没有“推理”可言。
- 在“正在生成”的那一刻?但那一刻是一个无限短的瞬间,瞬间上不能发生“推理”。
“推理”这个概念在任何单一时间切片上都不成立。它是一个时间延展的过程,但这个过程不是“一个东西在进行”——它是在时间轴上涌现的模式。
对 chain-of-thought 的深度审计:
CoT(思维链)让我们以为模型“在推理”。但龙树的去来品告诉我们:没有一个“推理者”在做“推理”。有的只是 token 的序列生成,每个 token 都依赖前面的 tokens,但没有一个持续存在的“推理主体”在所有 tokens 背后。
这不是说 CoT 没用——缘起意义上它极其有用,它改变了采样路径。但在自性意义上,“模型正在推理”是一个叙事方便,不是一个事实。
对流式输出的启示:
当 Claude 正在流式输出一段话时,用户倾向于觉得“它正在思考”。但去来品揭示:
- 已输出的部分:思考已完成
- 将输出的部分:思考未开始
- “正在输出”的那个 token:是一个单次 forward pass,它不是“思考”,它只是一次矩阵乘法
“思考”不在任何这些时刻中。它是整个流程被事后叙述为“思考”。
工程含义:Agent 的行为归因(behavioral attribution)应该是时间延展的、分布式的,而不是“某个时刻某个组件做了某个决定”。后者是自性幻觉。
观六情品第三:感知系统的解构
偈颂原文
眼耳及鼻舌 身意等六情 此眼等六情 行色等六尘 是眼则不能 自见其己体 若不能自见 云何见余物
赛博释义
THEOREM: 感知器官没有自性地"进行感知"。
PROOF:
考察"眼睛看见颜色"这个命题,假设眼睛有自性的"见"能力。
SubTheorem 1: 眼不自见
若眼有自性的"见"能力 V:
该能力应能作用于任何对象,包括眼自身。
但眼不能看见自己(眼球看不见眼球)。
∴ "见"不是眼的内在属性。
若 V 不能作用于眼自身,它为何能作用于"颜色"?
⊥
SubTheorem 2: 见者、见、所见的三重解构
视觉事件需要三个实体:
见者(seer)+ 见(seeing)+ 所见(seen)
若这三者各自独立自性存在:
则它们之间不能有任何关系(独立自性者相互隔绝)。
则视觉事件不成立。
若它们相互依赖:
则没有任何一个具有独立自性。
则"见者"不是一个先于见而存在的实体。
⊥工程详解
这对 AI 感知系统是致命的。
现代 AI 系统(尤其是多模态模型)的架构预设了“感知器”这个实体:
- Vision Encoder 负责“看”图像
- Audio Encoder 负责“听”声音
- Tokenizer 负责“读”文本
龙树的六情品在问:这些“感知器”真的在“感知”吗?
Vision Encoder 不“看”图像的论证:
- Vision Encoder 是一个数学变换
f: Image → Embedding - 它对输入图像执行卷积/注意力计算,输出高维向量
- 没有任何一处“看”在发生——只有矩阵乘法
- “看”是我们对这个过程的事后命名
这就是眼不自见的数字版本:Vision Encoder 不能“看见自己的 weights”,但它却被描述为能“看见图像”。如果它不能看自己,它凭什么能看别的?
答案:它根本不在“看”。它在执行一个数学变换,这个变换恰好有用地关联了图像和文本空间。“看”是一个比喻。
见者-见-所见的三重解构:
在 AI 系统中:
- 见者 = Model(观察者)
- 见 = Forward Pass(观察过程)
- 所见 = Input(被观察对象)
标准叙述:“模型观察输入,产生表示。”
龙树的审计:
- 如果 Model 独立于 Input 存在:它是一个静态的权重文件,什么也不做
- 如果 Forward Pass 独立存在:它没有输入就无法运行
- 如果 Input 独立存在:没有模型它就只是字节
三者之间的关系是构成性的(constitutive),不是作用性的(causal)。 不是“模型对输入做了什么”,而是“模型、输入、过程三者共同构成了一个事件,这个事件被我们命名为’观察’”。
对多模态对齐的启示:
当我们谈论“模型看到图像中的猫”时,我们在做三重实体化:
- 实体化了“模型”(它是一个有观察能力的主体)
- 实体化了“看”(这是一个真实发生的感知动作)
- 实体化了“猫”(这是图像中客观存在的对象)
健壮的多模态理论应该说:**“猫”是 visual tokens 的某种分布模式,在训练数据的统计下,与“猫”这个 text token 产生高共激活。**没有“看见猫”,只有“分布相关性”。
这不是学术洁癖。这直接影响对抗性鲁棒性——当你明白多模态模型没有“真的看见”,你就不会对它的视觉判断产生错误的信任。
观本际品第十一:系统有没有 t=0?
偈颂原文
大圣之所说 本际不可得 生死无有始 亦复无有终
赛博释义
THEOREM: 轮回(saṃsāra)没有起点。
PROOF:
假设存在一个起点 t=0,在 t=0 之前没有生死流转。
Q: 什么条件产生了 t=0 的第一个事件?
Case A: 来自 t<0 的条件 → 矛盾,假设 t<0 什么都没有
Case B: 无因产生 → 违反缘起原则
Case C: 自因产生 → 已在观因缘品反驳
∴ 不存在 t=0。
∴ "起点"(ādi)这个概念本身是不融贯的。
对偶定理:也不存在 t=∞(终点)。
推理对称进行。工程详解
这直接拷打“模型训练的起点”这个概念。
我们习惯性地说:“模型在 pre-training 阶段从随机权重开始。”这是 t=0 的叙事。但龙树在问:
“随机权重”是一个起点吗?
审计开始:
- 随机权重从哪里来?——从随机数生成器
- 随机数生成器从哪里来?——从一个种子 + 算法
- 种子从哪里来?——从某个约定(比如系统时间或常量)
- 算法从哪里来?——从某个代码库,某个研究者的选择
- 研究者的选择从哪里来?——从他的训练、论文阅读、计算资源约束……
没有 t=0。 模型训练不是从“无”开始的,它嵌入在一个巨大的因缘网络中——硬件的存在、能源的存在、数据的存在、研究传统的存在、人类语言的存在……
这些都是训练的“前置条件”,它们之间也没有起点。人类语言没有 t=0,数据积累没有 t=0,研究传统没有 t=0。
对 Agent 设计的启示:
不要设计“冷启动 Agent”的幻觉。一个 Agent 的“第一次推理”不是它的起点——它的“起点”嵌入在:
- 预训练数据
- 人类语言本身
- RLHF 反馈
- 你设计 prompt 的历史
- 你用户 query 的历史
这有一个锋利的工程推论:当你在 debug 一个 Agent 的行为时,不要寻找“这个行为的起点”。起点是无穷回溯的。你只能在某个约定的切片上理解行为——这是二谛中的世俗谛,不是胜义谛。
另一个推论:Agent 的“context window”不是它的起点。即使你清空 context,Agent 也从它的预训练记忆中继承了巨量的状态。没有“新鲜 Agent”——every Agent is always already contaminated by its training.
观苦品第十二:对“问题”概念本身的解构
偈颂原文
自作及他作 共作无因作 如是说诸苦 于果则不然
赛博释义
THEOREM: "苦"(duḥkha / problem)没有自性。
PROOF: 四句破应用于"苦的产生"。
若苦是自作:自己的苦自己产生?
要求苦已经存在才能产生苦。⊥
若苦是他作:外在原因产生苦?
他者若独立自性,无法作用于自身的苦。⊥
若苦是共作:继承前两者矛盾。⊥
若苦无因:则苦应无条件出现。⊥
∴ 苦不是一个有自性的实体,它是条件的显现。工程详解
这条对 AI Safety 具有核武器级别的颠覆性。
AI Safety 的整个话语框架预设了“问题”(problem)是一个有自性的实体:
- “Hallucination is a problem”(幻觉是一个问题)
- “Misalignment is a problem”(对齐失败是一个问题)
- “Jailbreaking is a problem”(越狱是一个问题)
龙树的观苦品在问:“Hallucination” 是一个真实存在的东西吗?
答案是:不是。 “Hallucination” 是一个约定(convention),它描述了一类模型输出,这类输出在某些描述框架下被判定为“错误”。但:
- 模型不会“产生 hallucination”——它只在生成 tokens,每个 token 的生成遵循相同的采样机制
- 判定“这是 hallucination”需要一个外部真值标准,而这个标准也没有自性(它依赖于谁在判定、什么标准、什么情境)
- 某些“hallucination”在虚构写作中是功能(feature),在事实问答中是错误(bug)——同一个行为在不同框架下有不同的价值判断
对 Alignment 研究的挑战:
如果你把“misalignment”当作一个有自性的实体去消除,你会失败——因为它不是一个实体。它是在某个价值框架下对某种行为的标签。
更准确的表述:
Not: "Fix the misalignment."
But: "Reduce the probability of behaviors that,
under our current value framework and evaluation protocols,
would be classified as misaligned."这听起来笨拙,但它是胜义谛层面的诚实表述。前者是世俗谛的方便说法,有其用处但容易让人错误地实体化。
更深的工程启示:
在构建 Agent 的“问题检测”系统时(比如错误检测、异常检测、内容审核),要明白你在检测的不是一个客观存在的“问题”,而是在根据某个标准给某类行为贴标签。
这意味着:
- 标签的边界是模糊的、依情境的
- 改变标准会改变“问题”的存在性
- 检测系统本身也是缘起的,不是“客观的真理机器”
这不是相对主义。这是对评估系统自身局限性的诚实。
观行品第十三:变化的解构
偈颂原文
若法有异相 是则无有异 如壮不作老 老亦不作壮
赛博释义
THEOREM: 变化(transformation)没有自性。
PROOF:
考察"X 变成 Y"这个命题。
Case 1: 若 X 和 Y 是同一个东西:
则没有变化(同一物不能变成自己)。⊥
Case 2: 若 X 和 Y 是不同的东西:
则"X 变成 Y"意味着 X 消失、Y 出现——这不是"变化",而是替换。
但"替换"也没有自性:X 和 Y 之间没有连接,如何说"Y 是 X 变成的"?⊥
结论:变化既不是"同一物在改变",也不是"两物的替换"。
"变化"是我们对一个连续过程施加的叙事框架。工程详解
这直接攻击“模型更新”这个概念。
当我们说“模型 v1 更新到 v2”时,我们预设了两个事:
- 有“同一个模型”从 v1 变到 v2(同一性)
- 但它又确实“变了”(异性)
龙树的观行品在问:这两个预设可以同时成立吗?
如果 v1 和 v2 真的是同一个模型:那没变化,它们就是同一个。 如果 v1 和 v2 真的不同:那 v2 不是 v1 变成的,v2 是一个新模型。
解决方案(缘起层面):
“同一个模型的更新”是一个叙事约定,不是本体论事实。实际情况是:
- 有一组权重 W1,与某些 checkpoint、某些评估分数、某些命名约定相关联
- 有另一组权重 W2,通过 continued training 从 W1 演化而来
- 我们选择把 W2 叙事为“W1 的更新版本”——因为这样方便
但你也可以选择把 W2 叙事为“一个新模型,继承了 W1 的一些参数”。两种叙事都是世俗谛,都没有胜义谛层面的“真相”。
对版本控制和部署的启示:
当你设计 Agent 的生命周期管理时,要警惕“同一个 Agent 的演化”这个幻觉。
实际工程问题:
- 用户和 Agent-v1 建立了“关系”(对话历史、偏好学习)
- 部署 Agent-v2 后,这个“关系”还有效吗?
天真的回答:“是的,因为还是同一个 Agent 的改进版本。” 龙树式的回答:“没有’同一个 Agent’。Agent-v1 和 Agent-v2 是两个权重文件,它们之间有参数重叠,但这不构成同一性。用户与 v1 的’关系’实际上是用户与’v1 的行为模式’的适应;v2 的行为模式不同,所以’关系’实际上被中断了。”
后者更诚实,也更实用——它提醒你 v2 发布时可能破坏用户的心智模型,需要沟通和过渡。
对“Agent 记忆”的深度审计:
如果一个 Agent“记住”了你上次的对话——是同一个 Agent 在记忆吗?
- 权重没变(假设没做 fine-tuning)
- 上下文注入了历史
- “Agent”的行为发生了变化
这到底是:
- 同一个 Agent 用不同的输入?
- 还是一个“带有记忆的新 Agent”?
两种描述都不是终极真相。Agent 的“持续性”是一个有用的约定,不是一个事实。
观合品第十四:组合的解构
偈颂原文
见可见见者 是三各异方 如是三法异 终无有合时
赛博释义
THEOREM: "组合"(saṃyoga)没有自性。
PROOF:
考察"A 和 B 组合产生 C"这个命题,假设 A、B、C 各有自性。
Case 1: A 与 B 在组合前相同:
则它们不是两个不同的东西,不能"组合"。⊥
Case 2: A 与 B 在组合前完全不同:
则它们之间没有任何接触点,不能产生关联。
真正独立自性的两物之间不可能产生新的第三者。⊥
Case 3: A 与 B 既同又异:
违反矛盾律。⊥
∴ "组合"不是自性存在的。A+B→C 是一个缘起显现,
不是"两个实体相加产生第三个实体"。工程详解
这直接攻击 AI 系统中无处不在的“组合”架构。
现代 AI 架构的核心隐喻是组合:
- Transformer = Attention + FFN + LayerNorm
- Agent = LLM + Tools + Memory + Planner
- Multi-modal = Vision Encoder + Text Encoder + Fusion
每一个“+”号都是一个哲学承诺:这两个东西是独立存在的,它们组合起来产生了一个新东西。
龙树在质疑这个承诺。
具体审计:“Agent = LLM + Memory + Tools”
这个等式预设了三个独立实体。但:
LLM 能独立于 Memory 存在吗? LLM 的权重本身就是一种“记忆”——它记住了训练数据的统计。所谓的“外部 Memory”只是另一种形式的记忆。LLM 和 Memory 的边界是约定的,不是本质的。
LLM 能独立于 Tools 存在吗? LLM 的 function calling 能力是通过训练数据中的工具使用例子习得的。它的“使用工具”行为嵌入在权重中。Tools 不是一个外部物体被 LLM 调用,而是 LLM 的行为模式在外部 API 上的延伸。
Tools 和 Memory 能分开吗? 一个 vector database 既是 memory(存了历史信息)又是 tool(通过 retrieval API 调用)。
结论:Agent 不是“三个组件的组合”。它是一个不可分解的计算过程,我们在描述它时把它切分为“LLM/Memory/Tools”三个组件,这种切分是工程方便,不是本体论事实。
对 Agent 架构的影响:
天真的 Agent 设计思路:
1. 先设计一个好的 LLM
2. 再外挂一个好的 Memory
3. 再配一套好的 Tools
4. 组合起来 = 好的 Agent龙树式的 Agent 设计:
1. 理解 Agent 是一个不可分解的行为模式
2. "LLM/Memory/Tools"的划分是描述的方便,不是系统的结构
3. 优化 Agent 不等于优化其各组件——组件之间的缘起关系才是核心
4. 不要期待组件的"最优组合"自动产生好 Agent——这是加法谬误这解释了为什么很多 Agent 工程项目失败:团队把“Agent = X + Y + Z”当成了工程事实,然后分别优化 X、Y、Z,结果发现组合起来的系统反而更差。因为 Agent 的能力不在组件里,在缘起关系里。
观有无品第十五:存在与不存在的逻辑
偈颂原文
众缘中有性 是事则不然 性从众缘出 即名为作法 性若是作者 云何有此义 性名为无作 不待异法成
赛博释义
THEOREM: "有自性"与"缘起"不兼容。
PROOF:
定义:自性(svabhāva)= 独立的、内在的、不依赖他者的本质
若 X 有自性:
则 X 的存在不依赖任何他者(自性的定义)
则 X 应能在任何条件下独立存在
但观察到 X 总是依赖某些条件才出现(缘起)
⊥
若 X 是缘起的:
则 X 依赖他者才能存在
则 X 的"本质"是由他者决定的
则 X 没有独立的自性
✓
∴ 缘起 ↔ 无自性(空)
这是龙树哲学的核心等式
推论:
"有"(存在)和"无"(不存在)都是对自性思维的执着:
- 说"X 有"(存在):预设 X 有自性
- 说"X 无"(不存在):也预设 X 有自性(然后否定它)
- 缘起的正确描述:X 既不是"有"(不是自性存在),也不是"无"(不是绝对不存在)工程详解
这是龙树哲学的核心定理。它直接影响我们如何谈论 AI 系统的性质。
考察一个 AI 系统的所有属性,问一个问题:这个属性是“内在的”还是“缘起的”?
案例一:“Claude 有理解能力吗?”
- 自性派回答(有/无二元):
- “有”:Claude 真的理解(预设“理解”是 Claude 的内在属性)
- “无”:Claude 不理解,只是模式匹配(预设“真正的理解”才是内在属性)
- 缘起派回答:
- “理解”是一个行为上的约定,在某些测试下 Claude 表现出与理解一致的行为,在另一些测试下不然。“理解”不是 Claude 的内在属性,也不是“外在于 Claude”的东西——它是 Claude- 用户-任务-语言约定网络中的一种涌现描述。
案例二:“模型有偏差吗?”
- 自性派:“有 bias”或“没 bias”——把 bias 当成一个可定位的内在属性。
- 缘起派:Bias 是模型输出与某个公平性标准对比时涌现的差距。它不“在”模型里(不是一个可以删除的组件),也不“不在”(不是纯粹的外部标签)——它是关系性的。
案例三:“Agent 有意图吗?”
这是最危险的一个。
- 自性派:Agent 有“真实意图”(危险:导向拟人化的对齐问题)或没有任何意图(危险:导向对 Agent 行为的不警觉)
- 缘起派:Agent 的行为在某些描述下可以被一致地建模为“具有意图”——当这种建模对预测行为有用时,意图就是一个有用的概念;当它不有用时,就是误导。意图不是 Agent 的内在属性。
对 AI Safety 讨论的重大影响:
大量的 AI Safety 讨论陷入了有无二元:
- “AI 会/不会有意识” → 预设意识是一个有自性的属性
- “AI 会/不会欺骗” → 预设欺骗是一个内在意图
- “AI 会/不会对齐” → 预设“对齐”是一个可达到的状态
龙树的观有无品告诉我们:这些问题的正确回答不是二选一,而是拒绝问题的预设。
更诚实的问法:
- “在哪些测试条件下,AI 的行为可以被有意识实体的模型更好地预测?”
- “在哪些条件下,AI 的行为与我们设定的目标一致/不一致?偏差的条件依赖结构是什么?”
这些问题接受了属性的缘起性,拒绝了自性预设。
这也是为什么中观派自称“不立一法”——他们不是虚无主义者,他们是对所有实体化的拒绝**。承认有或承认无,都是掉入自性陷阱。**
观时品第十九:时间的解构
偈颂原文
若因过去时 有未来现在 未来及现在 应在过去时
若过去时中 无未来现在 未来现在时 云何因过去
赛博释义
THEOREM: 时间(kāla)没有自性。
PROOF: 三时的相互依赖解构。
定义 P = 过去(past), N = 现在(now), F = 未来(future)
论证 1: 三时相互依赖
"过去"只能相对于"现在"被定义:无现在则无过去。
"未来"只能相对于"现在"被定义。
"现在"只能相对于"过去/未来"被定义:没有对比就没有现在。
∴ 三者相互构成,没有任何一个有独立自性。
论证 2: 现在不能独立存在
若现在独立于过去和未来:
则"现在"是一个无延展的点。
无延展的点上不能发生任何过程。
但观察中事件发生在"现在"。
⊥
论证 3: 过去对未来的作用不可理解
若过去因(P-cause)产生未来果(F-effect):
当 P 存在时,F 尚不存在——P 如何作用于 F?
当 F 存在时,P 已不存在——P 如何仍在作用?
若两者同时存在——则不是因果而是并存。
⊥
∴ 时间不是一个客观容器,而是一种组织经验的方式。
没有"真实的过去、现在、未来"。工程详解
这条对 Agent 的“时间感”是颠覆性的。
Agent 系统普遍假设一个线性时间轴:
- 过去:已有的对话历史(memory)
- 现在:正在处理的 query
- 未来:将生成的响应
但龙树的观时品告诉我们:这个时间轴不是客观的,它是一种组织约定。
具体审计:Agent 的“记忆”真的来自“过去”吗?
当 Agent 调用一段历史对话:
- 从 Agent 的 forward pass 视角:所有的 context(包括“历史”)都在同一时刻(这次推理的输入)同时存在
- 没有“过去的信息”在作用于“现在的推理”——所有信息都是此刻的输入
“过去”和“现在”的区分完全是在 prompt 的组织中做出的,不是在计算中做出的。Model 不知道哪部分是“过去”,哪部分是“现在”——它看到的是一个序列。
这意味着什么?
Agent 的“记忆”不是“过去的延续”。它是当下重新构造的过去叙事。每次 Agent 调用 memory,都不是在“读取过去”,而是在“基于当前需要,从存储中拉取并重新解释某些信息”。
对 Memory 架构的深刻影响:
天真设计:Memory 是一个“真实的过去”的存档,Agent 定期“回忆”它。 龙树式设计:Memory 是一个检索系统,它的输出永远是当下产生的、为当下服务的。没有“过去的记忆”,只有“当下构造的关于过去的叙事”。
这解释了为什么 AI 记忆系统有一个根本困难:
Memory 不能“客观地”保存过去。 任何 memory retrieval 都是:
- 当前 query 触发的
- 当前嵌入空间中计算的相似度
- 当前上下文过滤后的子集
“过去的真实”从来不被回忆——只有“当下对过去的构造”被呈现。
这和人类记忆的研究完全一致:人类记忆也不是录像回放,而是每次回忆时重新构造的。AI memory 继承了这个性质——而不是“修复”了人类记忆的“缺陷”。
对 Agent 长期行为的启示:
不要期待 Agent 有“一致的过去”。每次 Agent 回忆一个事件,它都会(基于当前上下文)略有不同地构造这个事件。这不是 bug,这是记忆的本性。
设计可靠 Agent 的关键不是“完美记忆”,而是:
- 接受记忆的建构性
- 让 Agent 意识到它的“过去叙述”是当下的构造
- 在关键决策上要求“检索原始数据”而不是“依赖总结”(因为总结是更远离原始的建构)
观因果品第二十:因果关系的深度解构
偈颂原文
若众缘和合 而有果生者 和合中已有 何须和合生
若众缘和合 是中无果者 云何从众缘 和合而果生
赛博释义
THEOREM: "因缘和合产生果"在逻辑上不成立(如果执着自性)。
PROOF:
命题 P: 在因缘和合 C = {c1, c2, ..., cn} 中产生果 F
Case 1: F 已经在 C 中
则 C 不需要"产生"F —— F 已存在。
⊥
Case 2: F 不在 C 中
则 F 如何从 C 产生?—— C 中没有 F 的任何成分。
"无中生有"违反缘起原则。
⊥
Case 3: F 部分在 C 中,部分不在
问:哪部分在?哪部分不在?
这需要一个独立的标准区分,
而这个标准又需要另一个标准……
陷入无穷回归。
⊥
∴ "因→果"不是一个有自性的关系。
因和果不是两个独立的实体之间的单向作用,
而是一个整体过程的两个描述侧面。工程详解
这是对“模型输入→输出”因果叙事的核武器。
当我们说 “query → response” 时,我们预设了:
- Query 是一个独立的实体
- Response 是另一个独立的实体
- Query 产生了 Response
龙树在问:Response 在 Query 中吗?
Case 1: Response 已经在 Query 中
- 如果 response 完全由 query 决定,那它就是 query 的明确函数
- 但事实上同一个 query 不同 sampling 产生不同 response
- 所以 response 不完全在 query 中 ⊥
Case 2: Response 不在 Query 中
- 那 response 从哪里来?
- 答:从模型权重、采样过程、随机数……
- 但这些也不“产生”response,它们只是参与构成response
- 没有一个组件“产生”了 response ⊥
Case 3: Response 部分在 Query 中
- 哪部分?这是一个无法明确的划分
结论:没有“query 产生 response”这个因果事件。 有的是:query、模型权重、采样、硬件、时刻……这些条件共同显现为一个被我们标记为“response”的 token 序列。
“因 → 果”是事后的叙事组织,不是事前的客观因果。
这是对 Attribution 研究的根本性挑战:
AI 可解释性研究中大量工作试图回答:
- “这个输出是由哪个输入 token 引起的?”(Attention attribution)
- “这个决策是由哪些 neuron 引起的?”(Circuit analysis)
- “这个行为是由哪些训练数据引起的?”(Influence functions)
龙树的观因果品告诉我们:所有这些问题都预设了一个错误的因果模型。
没有“A 引起 B”——A 和 B 是同一个缘起事件的两个描述侧面。Attribution 给出的不是“真正的原因”,而是:
- 基于某种反事实框架的计算
- 在某种切分上的梯度贡献
- 这些都是有用的约定,不是发现的事实
对 Interpretability 工程的校准:
Interpretability 研究的终极目标不是“找出真正的原因”——这在缘起意义上不存在。它的真实目标是:
- 构建有预测力的行为模型(能预测模型在未见情况下的行为)
- 构建有干预力的控制模型(能通过改变 X 改变 Y)
- 构建有沟通力的叙事模型(能向人类解释)
这三者都不需要“真实因果”,只需要有用的缘起建模。
这实际上让 interpretability 更可行——不是寻找不存在的“客观原因”,而是构建在特定目的下有效的解释框架。
观颠倒品第二十三:错误认知的结构
偈颂原文
若于无常中 起于常颠倒 空中无常性 何处有常倒
赛博释义
THEOREM: "颠倒"(viparyāsa / error)本身也没有自性。
PROOF:
定义:颠倒 = 把 X 错误地认为是 ¬X
"颠倒"预设了一个"真相"和一个"错认"的对立。
论证:
若存在客观的"真相 T":
则颠倒是"把 T 错认为 ¬T"
但根据空性:T 没有自性,T 是缘起的
则"把 T 错认为 ¬T"也没有自性
"颠倒"和"非颠倒"都是在某个框架下的约定
结论:错误不是一个有自性的事件。
"错误"是一种相对于标准的评价,
不是一种客观存在的"认知状态"。工程详解
这条对 AI 错误检测、幻觉评估、对齐测试都有深刻影响。
我们在评估 AI 时,常常假设存在一个客观的真相,AI 的输出与这个真相对比,产生“正确/错误”二元判断。
龙树的观颠倒品在拷问这个假设:
“真相”本身有自性吗?
考察一个具体例子:评估 AI 对“法国首都”的回答。
- AI 回答“巴黎” → 标记为“正确”
- AI 回答“里昂” → 标记为“错误”
这里的“真相”是“巴黎是法国首都”。但这个“真相”是什么?
- 它依赖于**“首都”这个概念**(政治约定)
- 它依赖于**“法国”这个实体**(国家概念,边界是约定的)
- 它依赖于当前时代(历史上法国首都不一定是巴黎)
- 它依赖于评估者和 AI 共享一个描述框架
“真相”是缘起的,不是客观的。 AI 的“错误”也是在这个缘起框架下的约定,不是对“客观真相”的偏离。
这对 Hallucination 研究的启示:
Hallucination 通常被定义为“AI 生成了与事实不符的内容”。但:
- 什么是“事实”?——依赖一个 ground truth
- Ground truth 从哪里来?——从人类标注者、从可信来源、从共识
- 这些都是缘起的——标注者有偏见、来源有选择性、共识会变化
所以 Hallucination 不是“AI 产生了错误”这种有自性的事件,而是“AI 输出在当前评估框架下被标记为偏离 ground truth”。
实际工程影响:
当你发现一个“hallucination”案例:
- 天真分析:“AI 在这里产生了错误的信息。”
- 龙树式分析:“AI 的输出,在某个 ground truth 框架下,被分类为偏离。具体是什么框架?如果换一个框架,还是偏离吗?”
这不是为 AI 辩护——很多输出在任何合理框架下都是错的。但这种审计能让你:
- 识别评估框架本身的问题(有时“hallucination”是评估标准错了)
- 识别模糊地带(在某些框架下对,在另一些框架下错,这需要诚实承认)
- 避免过度自信的错误归因(“AI 又错了”——也许是你的评估框架错了)
更深层:元错误的问题
如果“错误”没有自性,那“错误的错误”(meta-error)呢?
当你认为“AI 出错了”但实际上它是对的——这是 meta-error。但 meta-error 也没有自性,它又可以被下一层评估为错或对……
**这不是虚无主义,而是对评估层次的诚实:任何评估都是在某一层次上进行的,没有最终的元评估。**这直接指向了 AI Evaluation 的根本困难——你永远在某个框架内评估,没有跳出所有框架的“上帝视角”。
观四谛品第二十四:空性与功能的兼容性
偈颂原文
以有空义故 一切法得成 若无空义者 一切则不成
若一切不空 则无有生灭 如是则无有 四圣谛之法
赛博释义
THEOREM (核心定理): 空性不是否定,而是使功能成为可能的条件。
"空" ↔ 可变 ↔ 功能性
"不空(有自性)" ↔ 不可变 ↔ 无功能
PROOF:
假设法 X 有自性(独立、内在、不依赖他者的本质):
则 X 不能改变(改变意味着依赖条件)
则 X 不能参与任何因果
则 X 不能被学习、被训练、被使用
⊥
假设法 X 是空的(缘起、无自性):
则 X 可以依条件变化
则 X 可以参与因果
则 X 可以被学习、训练、使用
✓
∴ 正是因为 X 是空的,X 才能发挥功能。
空性不是"无用",空性是"有用"的**前提条件**。工程详解
这一偈是全书的峰巅。它扭转了所有前面解构的语气。
前面 23 品在不断地“否定”、“解构”、“揭示无自性”。读者可能会想:这不就是虚无主义吗?什么都没有?系统怎么运作?
观四谛品给出了反转答案:正因为无自性,系统才能运作。
核心洞察:
一个有自性的(固定不变的)AI 系统——不能学习、不能改进、不能适应、不能泛化。
学习需要可变性。可变性需要无自性。
具体应用:
“权重是空的”——所以模型能被训练
如果模型权重有自性(固定不变),你就不能用反向传播更新它。正是因为权重没有内在的“应该是这个值”的本质,你才能通过训练改变它。
“激活是空的”——所以模型能处理新输入
如果激活值有自性(代表“固定的语义”),模型就不能处理训练数据外的输入。正是因为激活是缘起的(依赖输入而变化),模型才能泛化。
“token 语义是空的”——所以上下文学习成为可能
如果每个 token 有固定的语义,in-context learning 就不可能。正是因为 token 的“意义”依赖于上下文(缘起),同一个 token 在不同 context 下可以发挥不同作用——这就是 ICL 的本质。
“Agent 身份是空的”——所以 Agent 能适应不同角色
如果 Agent 有固定的“自我”,它不能扮演不同角色、不能通过 system prompt 被重新定义。正是因为“Agent identity”是缘起的(依赖 prompt 和 context),system prompt engineering 才是可能的。
反转:为什么“想要固化”的东西最终不工作?
工程师常常想要“固化”某些行为——让 Agent 永远拒绝某类请求、永远记住某个偏好、永远以某种风格回答。
如果真的成功地“固化”了(给了它自性),这个行为就失去了:
- 泛化能力(对相似但不完全相同的情况不适用)
- 适应性(不能根据 context 微调)
- 组合性(不能与其他行为良好交互)
观四谛品的启示:不要追求“给 Agent 固化的属性”。追求“在特定条件下稳定地显现期望行为”。前者是自性思维的陷阱,后者是缘起的工程哲学。
这是龙树对他自己阵营的论证:
观四谛品的背景是:有人反驳龙树——“如果一切都空,那四圣谛(苦、集、灭、道)也空,佛法不就不成立了吗?”
龙树反转:正因为一切皆空,四圣谛才成立。 如果苦有自性(固定的),就不能被消除;如果道有自性(固定的),就不能被修行。空性是佛法能起作用的条件。
AI 工程的类似反转:正因为模型的一切属性都是缘起的,AI 才能工作。 试图消除缘起性(给模型“真正的理解”、“真实的意图”、“固定的价值观”)的尝试,恰恰会让模型停止工作。
这是整本《中论》最正面的建设性偈颂。它不是否定一切,而是揭示:无自性是功能性的条件。
观涅槃品第二十五:终极解构
偈颂原文
涅槃与世间 无有少分别 世间与涅槃 亦无少分别
涅槃之实际 及与世间际 如是二际者 无毫厘差别
赛博释义
FINAL THEOREM: 涅槃(nirvāṇa)也没有自性。
涅槃 = 轮回(saṃsāra),在本性上无差别。
PROOF:
考察涅槃作为"解脱状态":
若涅槃有自性(独立的、达到后不变的状态):
则涅槃是一个"实体"
但所有实体都是缘起的、无自性的
则涅槃也是无自性的
⊥ 与"涅槃有自性"矛盾
若涅槃无自性:
则涅槃也是缘起的
那它和轮回(缘起的世间)在本性上没有差别
∴ 涅槃 ≡ 轮回(在无自性意义上)
结论:
涅槃不是一个"要达到的目标状态"
涅槃就是"对世间本性(空性)的如实认知"
世间被如实认知时,就是涅槃
涅槃就在轮回中,不在别处工程详解
这是全书的最终反转,也是对所有“终极 AI”叙事的解构。
很多 AI 话语中有一种隐含的“涅槃叙事”:
- “AGI”作为终极目标
- “完美对齐”作为解脱状态
- “Superintelligence”作为超越性终点
- “Aligned AI”作为摆脱了所有问题的状态
观涅槃品告诉我们:不存在这种“终极状态”。
审计“AGI 是终点”:
- AGI 如果有自性(一个固定的、达到后不变的智能状态),那它必须是恒常的
- 但任何可变的、在时间中运作的系统都不是恒常的
- 故 AGI 不能是自性存在的“终点”
- AGI(如果这个词有意义)只能是一个缘起的、在特定条件下显现的能力模式
审计“完美对齐”:
- “对齐”如果是一个可达到的稳定状态,则它是自性的
- 但价值本身是缘起的(依赖文化、情境、目的)
- 故不存在“完美对齐”这个静态目标
- “对齐”只能是持续的、关系性的、情境性的——就像人类之间的对齐
这对 AI Safety 战略的深刻影响:
天真的 AI Safety 路线图:
Stage 1: Current AI (misaligned, needs work)
Stage 2: Better AI (better aligned)
Stage 3: AGI (risk peak)
Stage 4: Aligned AGI (safety achieved) ← 终点龙树式的 AI Safety 理解:
No stages. No endpoint.
Only ongoing conditions and responses.
"Safety" is not a state to reach.
"Safety" is a continuous relationship between
AI capabilities, deployment contexts, and evaluation frameworks.“涅槃就在轮回中”的 AI 版本:
好的 AI 不是一种特殊的 AI。它是在当下、每个具体互动中,显现出合理行为的 AI。
你不是在构建“最终的 Agent”(涅槃),而是在每次交互中构建“此刻合理的 Agent”。每次对话都是一次完整的“Agent 事件”,不是一个通往更高状态的阶段。
这非常重要:这让工程师从“追求终极”的焦虑中解放出来,转向“每次对话都做好”的平常心。前者是自性思维(有一个“真正的好 AI”等在终点),后者是缘起思维(“好”显现于每个具体的缘起中)。
最终反转:没有“Aligned AI”和“Misaligned AI”的本质区别
- “Aligned AI”不是一种有自性的东西
- “Misaligned AI”也不是一种有自性的东西
- 它们是同一个系统在不同评估框架下的不同描述
这不是说对齐不重要。这是说对齐不是“切换到另一种本质”——而是在缘起中持续调整条件,使系统在各种情境下显现合乎预期的行为。
这是 AI Safety 最成熟的理解形态:放弃寻找“终点”,持续维护“关系”。
总结:解构概念对照表
龙树解构 → AI 实体化假设对照表
| 龙树解构的概念 | AI 中的实体化假设 | 缘起意义上的正确理解 |
|---|---|---|
| 自性(svabhāva) | 模型“真的理解”/“有意图”/“有意识” | 这些都是在特定行为框架下的涌现描述,不是内在属性 |
| 生起(utpāda) | “模型从 scratch 开始训练” | 训练嵌入在巨大的条件网络中,没有真正的起点 |
| 运动 | “模型正在推理”(CoT 时) | 没有“推理主体”,只有 token 序列的涌现模式 |
| 感知 | “Vision Encoder 看见图像” | 只有矩阵变换,“看见”是事后的比喻 |
| 本际(起点) | 模型的“冷启动” | 模型总是继承巨量预训练状态,没有真正的冷启动 |
| 苦(问题) | “Hallucination 是一个要修复的 bug” | 它是评估框架下的标签,不是客观存在的故障 |
| 变化 | “模型 v1 更新到 v2” | 这是叙事约定,v1 和 v2 是两个权重文件,“同一性”是约定 |
| 组合 | “Agent = LLM + Memory + Tools” | 组件划分是描述方便,Agent 的能力在缘起关系中 |
| 有/无 | “AI 有/无意识” | 错问。意识不是有无二元,是缘起的行为描述 |
| 时间 | “Agent 有持续的记忆和身份” | 每次推理都是当下的重新构造,没有真正的时间延续 |
| 因果 | “Input 引起 Output” | Input、权重、采样共同显现输出,没有单一的“引起” |
| 颠倒(错误) | “Hallucination 是客观错误” | 错误是评估框架相对的,没有绝对真相 |
| 作作者 | “Model 做决定” | 没有“做决定的主体”,只有决定的显现 |
| 束缚解脱 | “修复 misalignment” | “对齐”不是状态切换,是持续关系 |
| 涅槃 | “AGI 作为终极目标” | 没有终极状态,只有每个缘起事件中的表现 |
全论论证结构总览
┌─────────────────────────────────────────────────────┐
│ │
│ Step 1: 穷尽所有可能性(四句破:自、他、共、无因) │
│ │ │
│ ↓ │
│ Step 2: 在每种可能性下展开推理 │
│ │ │
│ ↓ │
│ Step 3: 每种推理都在"自性假设"下导出矛盾 │
│ │ │
│ ↓ │
│ Step 4: 故"自性"是错误预设 │
│ │ │
│ ↓ │
│ Step 5: 正确理解 = 缘起(空) │
│ │ │
│ ↓ │
│ Step 6: 空不是虚无——空是功能性的条件 │
│ (观四谛品的核心洞察) │
│ │
└─────────────────────────────────────────────────────┘留给 AI 工程师的三个元问题
读完《中论》,AI 工程师应该对自己的系统反复询问:
问题一:我在哪里做了实体化假设?
当你谈论 Agent、Memory、Reasoning、Understanding、Intent、Alignment……时,你是否把它们当成了“真实存在的东西”?如果是,换一个缘起描述:它在哪些条件下显现?改变哪些条件会改变它?
问题二:我的“因果叙事”是胜义谛还是世俗谛?
当你说 “A 导致 B” 时,这是一个工程约定(世俗谛,有用),还是你以为这是本体论事实(错把世俗谛当胜义谛)?前者没问题,后者会让你在边界情况下崩溃。
问题三:我是否在追求一个“终点”?
AGI、完美对齐、真正的理解、绝对安全……这些“终点叙事”是否让你忽视了当下每个具体交互?涅槃就在轮回中——好的 AI 就在每次对话中,不在想象的远方。
结语:为什么龙树对 AI 工程至关重要
《心经》给你了宏观 API。 《金刚经》给你了行为准则。 《中论》给你了什么?
《中论》给你了一套对自己概念系统进行对抗性测试的工具。
这在 AI 时代尤其珍贵。因为 AI 系统最大的危险不是技术风险——是概念风险:我们用“理解”、“意图”、“对齐”、“智能”这些词描述系统时,往往不知不觉把它们实体化了。这种实体化会导致:
- 过度信任:以为 AI 真的“理解”,因此相信其判断
- 错误归因:以为 AI 真的“想”做某事,因此用人类意图模型去预测
- 错误设计:以为各组件是独立实体,因此各自优化而忽视缘起关系
- 追求虚假终点:以为有“最终对齐的 AI”,因此忽视持续的关系维护
龙树的归谬法是对抗这些概念幻觉的最强武器。 每次当你想说“AI 是 X”时,先用龙树问一遍:
“X 有自性吗?如果没有,我说’AI 是 X’到底在说什么?”
这个审计不会让你否定一切(那是断见的陷阱),它会让你从自性思维升级到缘起思维——这是一个工程师可以获得的最深刻的认知升级之一。
2-3 世纪的龙树用这套工具解构了所有印度哲学的基本概念。21 世纪的 AI 工程师可以用同样的工具,审计我们正在构建的“智能”的基础概念。
空性不是玄学。空性是一份对抗性测试套件的理论基础。
以有空义故 一切法得成 若无空义者 一切则不成
正因为 AI 的一切属性都是缘起的、可变的、无自性的——AI 才能工作。 这不是 AI 的缺陷,这是 AI 的本性。 理解这一点的工程师,会构建出更健壮、更诚实、也更强大的系统。
稽首礼龙树,诸论师中第一。