摘要

通用 AI Agent 能够推理、规划和执行——但如果缺少本地知识,它无法在特定运营领域中表现良好。我们论证:通用智能与领域有效性之间的差距完全由知识来弥合,而当前为领域 Agent 构建的 Skills、Routes、SOPs、Policies——本质上都是以不同形式编码的人类主导知识(human-directed knowledge)。

我们提出自演化知识引擎(Self-Evolving Knowledge Engine,SEKE),一种使 Agent 能够从真实工作中自主学习、组织和精炼领域知识的架构。SEKE 由三个要素构成:基于文件系统的语义化树作为知识存储模型;两个进化循环——用于持续知识捕获和精炼的知识进化循环(KEL),以及用于改进学习过程本身的元进化循环(MEL);以及一个治理层,人类通过它提供系统不可覆盖的宪法性结构决策。

我们的核心论点:通用智能 + 能力接口 + 领域知识 = 领域智能。给定一个推理引擎、对领域系统的访问能力、以及一个自演化知识引擎,Agent 无需定制训练或手工知识库即可自举成为领域智能。一旦完成自举,积累的知识——特别是知识所演化出的组织结构,以及系统所发展出的知识学习能力——将构成竞争者极难跨越的复合竞争壁垒。

我们为 SEKE 建立了几个基础性概念:知识被定义为任何能改变 Agent 行为的东西(不是单纯的信息存储);领域被定义为通用智能(如 Claude、Codex)不能开箱即用地完成好的任务集合(一个动态的、而非固定的边界);以及一个负反馈论证,说明为什么系统会自我纠错而非放大错误。

这些思想来自于构建和运营一个生产级的领域智能系统。SEKE 不是理论提案——它是一个在真实部署中打磨出来的可运行架构。


1. 缺失的一环:从智能体到领域智能

当团队将 AI Agent 部署到特定领域时,他们在领域适配上投入大量精力:构建 Skills、定义工具接口、编写标准操作流程(SOP)、设计路由逻辑、制定策略规则——有时手写,有时借助 AI,但始终在人类的监督和控制下完成。每进入一个新领域,就需要重新构建一整套这样的构件,由既理解领域又理解 Agent 框架的工程师来主导。我们将这些工程努力的产出称为人类主导知识(human-directed knowledge)

这种方法是有效的,但它有一个结构性的局限:人类主导的知识不会自行演化。 今天定义的 Skill,一年后还是同样的运作方式。为某个场景编写的 SOP,不会随着场景变化而自我调整。上个季度正确的路由规则,在数据源演进后可能悄无声息地失效。

我们认为,问题不在于知识工程做得不够好,而在于对这些构件本质的误判。Routes、Skills、SOPs、Policies、Guardrails——它们本质上都是以不同形式编码的知识

如果这是对的——如果让 Agent 适配领域的所有工程努力,其产出归根结底都是知识——那正确的方向不是构建更好的人类主导知识,而是构建一个能够从真实工作中自主生成、组织和演化知识的引擎。

本文提出的正是这样一个引擎。

2. 知识:通向领域智能的桥梁

通用大语言模型的开箱即用能力已经相当强大。它能推理、规划、写代码、跨领域综合信息。但当它被放到一个具体的运营场景中——某家公司的数据基础设施、某个团队的分析工作流、某套特定的业务指标——它就会陷入困境。不是因为推理能力不够,而是因为缺少本地知识

这就像一个数据分析师加入新公司。他会 SQL,懂统计,能做仪表盘。但第一天他回答不了"上周的留存率是多少"——不是因为问题难,而是他不知道该查哪张表、该用哪个指标定义、该注意哪些边界情况、哪条上游 Pipeline 的数据可能是陈旧的。

从通用能力到领域高效之间的距离,由知识来弥合。知识在这个语境下的功能,就是指导 Agent 做什么、怎么做、避免什么。一个拥有正确领域知识的 Agent 会选择正确的数据源、应用正确的指标定义、标注正确的注意事项——不是因为它被编程要这样做,而是因为它知道应该这样做。

这导出一个公式:

通用智能 + 能力接口 + 领域知识 = 领域智能

Agent 提供推理能力。能力接口(工具、API、数据访问)提供触达范围。知识提供方向。三者齐备,Agent 就能成为领域智能。去掉任何一个,系统都会失效:有智能没能力,是一个被关在房间里的思考者;有能力没知识,是一件没有目标的强大工具;有知识没智能,是一本无法行动的参考书。

值得注意的是,能力接口本身在很大程度上也是知识的物化——"如何访问这个数据库"、"这个 API 的协议和认证方式是什么",这些都是知识。一个拥有足够接口知识的 Agent,通常可以凭借通用智能自行构建能力接口。能力接口作为公式中的独立项,本质上代表的是将 Agent 置于一个它能触达目标系统的环境中——这是知识无法替代的物理前提。

3. 自演化知识引擎

如果知识是关键要素,那核心问题就是:知识从何而来?

传统的答案是人工策编。专家编写文档、构建知识库、维护 Wiki。这在小规模下可行,但随时间推移会退化——文档偏离现实、边界情况无人记录、部落知识停留在个人脑中。

我们提出一种替代方案:让系统从真实工作中自主学习领域知识,并持续精炼所学。 我们称之为自演化知识引擎(Self-Evolving Knowledge Engine,SEKE)。

SEKE 有三个基本要素:

  1. 基于文件系统的语义化树作为知识存储模型——每条路径和节点名都承载意义,树的结构本身随着领域知识的积累而演化。
  1. 两个进化循环负责产生知识并将其组织到知识树上——知识进化循环(KEL)用于持续学习,元进化循环(MEL)用于改进学习过程本身。
  1. 治理层,人类通过它提供系统不可覆盖的结构性决策——知识在其中演化的宪法性框架。

3.1 知识进化循环(KEL)

内循环在 Agent 工作过程中持续运行。每一次交互——每一个被回答的问题、完成的分析、执行的工作流——都是学习的机会。

KEL 有三个阶段:

阶段一:知识捕获(Capture)。

每次交互完成后,系统审视完整的工作轨迹:用户的问题、Agent 的推理过程(包括失败的尝试和走过的弯路)、最终结果、以及用户随后的行为。

捕获在两条指令下运行:

第一条:提取可能改变 Agent 处理未来任务方式的信息——使其更快、更准确、更可靠。这样的信息,我们称为知识。这是整个系统最核心的、也是最初始的指令。如果一条信息不会改变 Agent 未来的工作方式,就不捕获。

第二条:对每条提取出的知识进行对抗性审查。质疑它——在什么条件下这可能是错的?有什么边界情况?这条知识成立需要什么前提?审查的发现同样接受第一条指令的评估。如果一个对抗性发现可能改变 Agent 的行为,它就和原始知识一起被捕获。

捕获还包括对先前检索到的知识的反馈。当 Agent 使用已有知识并且有帮助时,这是正向信号。当已有知识被证明不准确或不完整时,这个信号会进入下一次精炼循环。

阶段二:知识精炼(Refine)。

捕获的实体进入处理队列。精炼器(Refiner)在当前知识树——一个每条路径和节点名都承载语义的树结构——的上下文中考量每个实体,并重组知识树以纳入新知识。

这不是简单的插入。Refiner 可以创建新分支、合并代表同一概念的节点、拆分过于宽泛的节点、根据积累的证据重写内容、或将子树移动到更恰当的语义位置。树的结构不是预先设计的;它从所承载的知识中涌现,并随知识增长而演化。

阶段三:Agent 自主检索(Retrieval)。

当 Agent 开始新任务时,系统提供一份描述知识树当前结构的元文档:各个分支及其含义、最重要的近期变更。Agent 据此自行规划检索——决定读哪些分支、探索多深、跳过什么——基于手头的任务。

这是一个审慎的设计选择。系统不向 Agent 上下文注入知识;Agent 自主导航知识树。这确保了检索的任务针对性,也让 Agent 发展出关于"自己需要什么知识"的判断力。

因为检索是主动选择,它产生信号。Agent 选择读了什么、忽略了什么、读后又用自己的发现推翻了什么——都会反馈到下一次捕获阶段,闭合循环。

3.2 元进化循环(MEL)

外循环以更长的时间尺度运行——周期性而非逐次交互。MEL 审视捕获记录、树的变更和交互结果的积累,识别出 KEL 应当采纳的持久性学习策略

MEL 不做临时调整。它识别的是系统学习中的结构性缺口——单次 KEL 循环无法发现的方向,因为单次循环只看到一次交互。MEL 看到的是跨多次交互的模式。

例如,MEL 可能观察到 Agent 反复在数据源选择上犯错,而 KEL 主要在捕获 SQL 优化知识。MEL 会指示 KEL 关注数据源知识:哪些表服务于哪类分析、哪些数据源有已知的可靠性问题、哪些上游 Pipeline 影响哪些下游分析。

这些指令是持久的。"关注数据源知识"不是一次性的修正;它是一个持续的学习方向,改善此后每一次 KEL 循环。

3.3 治理层

知识树有两层结构性权威。

宪法层由经授权的人做出的结构性决策组成。当人创建顶层目录、定义结构约束、或建立组织原则时,该决策是永久性的。Refiner 在宪法范围内运作,但不能改变宪法。

知识层是其余一切。Refiner 拥有在宪法框架内进行重组、重命名、合并、拆分和重构的完全自主权。

这个区分存在的原因是:某些结构性决策需要系统自身无法可靠发展出的判断力。一个理解"指标应该全局组织,而不是按业务线分散"的领域专家,编码的是对领域架构的深刻洞察——系统可能需要数月的试错才能摸索出来,如果能摸索出来的话。

普通用户的反馈通过另一个渠道进入:与 Agent 的对话。当用户建议更好的知识组织方式时,这个建议流经正常的 KEL 循环,可能影响宪法边界内的子结构,但不改变顶层架构。

4. 关键设计决策

几个设计选择对 SEKE 的运作方式至关重要。

4.1 不依赖显式用户反馈

系统不要求用户评价回答。反馈从交互模式推断:追问意味着初始回答不够;接受并继续意味着足够;重新措辞同一问题意味着完全偏题。模型自身也会评估工作过程中的低效之处。

这避免了显式评分的已知问题——低响应率、不一致性和正向偏差——同时利用了更丰富的信号:实际发生了什么。

4.2 从工作过程而非仅从结果中捕获

知识捕获审视完整的工作轨迹,不仅是问答对。这很重要,因为最可迁移的知识往往在过程中:Agent 尝试了三种方法才找到能处理边界情况的那一种;它探索了一个看似有用的数据源但发现数据已过时;它发现两个不同名称的指标实际上是同一个计算。

通过从过程中捕获,系统学会的是在这个领域如何工作,而不仅仅是答案是什么。

4.3 捕获时的对抗性审查

在知识实体进入精炼队列前,它要经受对抗性挑战。这作为早期质量过滤器,为每条知识附加边界条件和失效模式,然后才纳入知识树。Agent 因此获得的不只是知识,还有知识的局限——使应用更可靠。

4.4 树的结构重组而非合并

Refiner 不把知识树当作只追加的存储。它始终保留对整个树结构进行重组的权力。十个节点时合理的分类在一百个节点时可能不再合理。抽象从具体实例中涌现。过时的知识被修剪。树在任何时刻的形态都反映系统对领域的当前理解。

4.5 Agent 自主驱动的检索

Agent 根据每个任务的需要自行决定检索什么知识,依据元文档的导航指引在树中导航。这确保了检索的上下文适切性,避免了知识过载。元文档的大小通过设计控制:它包含的是导航信息(结构和摘要),不是知识内容,因此增长与分支数而非知识总量成正比。

4.6 版本化精炼与冷启动

每次精炼操作产生知识树的版本化快照,如果性能退化可以回滚。系统可以通过对一小组有代表性的问题运行 KEL、用 MEL 评估结果、经人工审查后发布初始树来完成冷启动。

5. 哲学基础

5.1 知识的定义

我们将知识定义为任何可能改变 Agent 行为、使其更好更快地完成目标的东西。如果一条信息不会改变 Agent 的工作方式,它就不是知识——它是数据、记忆或噪声。

这是一个刻意的操作性定义,继承了通过效果而非属性来定义概念的传统——正如科斯定义交易成本不是通过列举其内容,而是通过它造成的结果(企业的存在)。我们的定义不列举知识长什么样,而是提供一个判定函数:这是否会改变行为?如果是,就是知识。如果不是,就不是。

这个定义也将知识与记忆做了清晰区分。记忆是过去事件的积累。知识是从事件中提炼出的、指导未来行动的原则。一个有记忆的系统记得上次用了 table_x。一个有知识的系统理解为什么对这类查询 table_x 比 table_y 更可靠,以及在什么条件下连 table_x 也不可信。记忆随经历线性增长。知识通过抽象增长——从一百次经历中提炼出一条原则,这条原则能指导第一百零一次完全不同的情境。

5.2 领域的定义

我们将领域定义为通用智能(如 Claude、Codex)不能开箱即用地完成好的那组任务。领域知识就是使它能够完成这些任务的知识。

这个定义是有意设为动态的。什么构成领域,随着通用智能的进步而变化。今天需要专业知识的任务,明天的模型可能轻松完成。当这种情况发生,领域的边界收缩——不是因为任务消失了,而是因为它们不再需要本地知识。

在更深层次上,领域的存在源于人类认知带宽的局限。人类将工作组织成局域化的区域——行业、公司、团队——每个区域都有自己的语言、流程和机构知识。领域最根本的特征是其专有语言:将复杂的本地含义压缩为简短短语的术语。"留存"在每家公司都有精确而不同的含义。领域智能就是系统对人类认知这种局域化组织方式的适配。

5.3 负反馈与自我纠错

对于任何自我强化的循环,一个合理的担忧是错误的放大。我们论证 SEKE 是一个负反馈系统,而非正反馈系统。

正反馈——即错误不断累积——需要一个特定条件:错误的知识产生了错误的结果,但结果被误判为好的。在 SEKE 中,评判者不是知识系统自身,而是真实世界。用户会质疑错误的回答。SQL 查询会返回与现实不符的数字。报表会被利益相关方质疑。这些是知识系统无法操纵的外部信号。

只要系统保持与真实世界结果的耦合,错误就会被暴露。暴露的错误被捕获为负反馈。负反馈进入精炼阶段。知识被修正。

唯一可能产生错误自我强化的场景是:错误的知识产生了错误的结果,而真实世界没有人提出质疑。但在这种情况下,这个"错误"实际上已被现实认可——从系统的角度看,它根本不是错误。

这意味着各个组件不需要完美。如果每个阶段以 80% 的准确率运行,结果不是复合退化,而是迭代改进:错误的那 20% 会在后续循环中被现实纠正。

5.4 自举假说

对于绝大多数领域,我们认为创建领域智能只需要三个组件:

  1. Agent(通用推理引擎)
  1. 能力接口(对领域系统和数据的访问)
  1. 自演化知识引擎

不需要定制训练,不需要微调,不需要手工构建知识库。系统通过使用自举成为领域智能。

一旦完成自举——经过持续的真实运营——系统积累的知识构成了显著的竞争壁垒。这个壁垒不仅是知识本身,更是知识所演化出的组织结构,以及系统所发展出的知识学习能力(经 MEL 调优的 KEL)。这些是竞争者极难跨越的,因为它们从真实交互的具体模式中涌现,并随每个循环复合增长。

这个壁垒是复合的:MEL 改进 KEL,KEL 改进知识树,知识树改进 Agent 表现,Agent 表现产生更丰富的下一轮 KEL 素材。后来者拥有同样的组件,面对同样的冷启动,却无法压缩这些进化周期。

5.5 领域智能的持久性

一旦领域智能通过自演化知识引擎自举建立起来,其壁垒是极强的——不可能仅靠部署更强的通用智能来跨越。

领域的本质是人类经验和认知的局域化组织方式。其核心是局域化的语言——在该领域内具有精确、特定含义的术语。要在一个领域内有效运作,就必须学会这套语言。无论通用推理能力多强,不经过知识演化过程就不可能跨越这个门槛。一个能力远超当前的通用 Agent,如果没有积累的领域知识,面对的仍然是同样的冷启动。

这意味着领域智能一旦建立就是持久的。一个拥有更强通用模型但没有积累领域知识的竞争者,无法单凭智力弥补这个差距。

5.6 领域如何消亡

如果领域无法从内部被征服,那它如何终结?

领域不会因为通用智能"吸收"了它——学会了它的知识、使它变得多余——而消亡。领域消亡的路径是范式革命:通用智能改变了人类组织工作的方式,导致这个领域不再需要存在。

以互联网产品分析为例。今天,每家互联网公司都围绕转化漏斗、留存指标、用户行为分析积累了专有知识。每家公司的领域都有其独特的术语、边界情况和机构知识。一个在这个领域积累了数月知识的领域智能系统,在领域内拥有几乎不可逾越的优势。

通用智能不会通过在留存分析上做得更好来击败这个领域智能。它击败它的方式是彻底改变范式:用户将通过统一的 AI 接口与服务交互,而不再通过独立的 App。当用户不再直接导航产品时,整个产品分析的框架——漏斗、会话、留存——失去了研究对象。领域不是被超越了,而是变得不再必要了。

这就是规律:领域不会被更强的智能吸收,而是被重新组织人类工作方式的范式革命所消解。自演化知识引擎在现有领域内构建持久的竞争壁垒。这些壁垒会一直存在,直到领域本身被重构出局——不是因为更聪明的系统把同样的事做得更好,而是因为一个不同的世界不再需要做这件事。


_本文的思想来自于构建和运营一个面向数据分析的生产级领域智能系统。自演化知识引擎不是一个理论提案——它是一个在真实部署中打磨出来的可运行架构。_