对抗知识焦虑,从看懂这条开始
App 下载对抗知识焦虑,从看懂这条开始
App 下载
解题策略|思维实验|Agent推理|扩散模型|大语言模型|人工智能
想象两位顶尖的解谜专家。第一位专家A,行事极为严谨,他拿到谜题后,从第一个线索开始,一步步推导,将每一步的思考过程和结论按顺序写下。他的思路是一条笔直的线,无法回头,一旦早期某个判断出现微小偏差,就可能导致整个推理链走向歧路,不得不另起炉灶,重新规划。
另一位专家B,风格截然不同。他拿到谜题后,并不急于动笔,而是先纵览全局,在脑海中迅速勾勒出一幅模糊的解题蓝图,锁定所有关键约束条件。然后,他开始在这张蓝图上逐步填充细节,仿佛从一团迷雾中逐渐浮现出清晰的图像。他的思维是全局的、并行的,能够随时修正局部,始终朝着最优路径前进。
长期以来,我们所熟知的大模型智能体(Agent)更像是专家A,遵循着一种“边想边写”的自回归(Autoregressive)模式。然而,一场颠覆性的实验正在揭示,当我们为AI换上专家B的“大脑”——一种全新的生成范式时,它将获得近乎“上帝视角”的规划能力。
近期,来自华为诺亚方舟实验室、UCL、清华大学等顶尖机构的研究团队,通过一项名为《DLLM Agent: See Farther, Run Faster》的工作,进行了一场堪称“极端公平”的对照实验。他们保持Agent的框架(DeepDiver)、工具、训练数据和任务完全一致,唯一改变的,就是驱动Agent思考的“引擎”——语言模型的生成范式。
实验结果令人震惊:
这不仅仅是“算得快”的问题。研究明确指出,这种巨大的效率优势,根源在于生成范式本身对Agent规划与决策行为的系统性重塑。AI不再是那个亦步亦趋的线性思考者,而是进化成了一位能总揽全局的战略家。
要理解这场变革的深刻之处,我们需要深入两种生成范式的“思维模式”。
传统的自回归(AR)模型,其工作方式如同多米诺骨牌。它逐个生成词元(token),每个新词元的产生都严格依赖于前一个。这种“逐字思考”的模式,一旦在早期规划中出现偏差,比如错误地选择了一个工具或遗漏了一个关键信息,就无法原地修正。它只能寄希望于下一轮交互来弥补,从而产生了大量的冗余规划和无效回溯。

而**扩散式大模型(DLLM)**则彻底颠覆了这一过程。它的生成方式更像是在冲洗一张照片:从一片纯粹的噪声开始,通过多轮迭代,逐步“去噪”,让一个完整的、结构化的答案(例如一个完整的工具调用指令或一个多步骤计划)并行地、整体地浮现出来。

这种模式带来了两个核心优势:

在一个涉及“动物命名+中国互联网公司+团队合并+软硬件”等多重约束的复杂检索案例中,AR Agent和DLLM Agent最终都找到了正确答案,但其间的过程却天差地别。
这种“走直路”的能力,正是其实现8.18倍效率提升的关键所在。它的注意力机制在决策早期就迅速锁定了全局方向,后续的生成过程只是在这个确定性框架下的高速填充与优化。
这项研究的意义,远不止于找到了一种让Agent“跑得更快”的方法。它为整个AI Agent领域提供了一个全新的视角:生成范式本身,就是一种塑造智能行为的设计维度。
过去,我们更多地关注如何通过更大的模型、更优的数据或更复杂的框架来提升Agent的能力。而现在,我们发现,仅仅是改变AI“思考”和“表达”的基本方式,就能从根本上改变它的行为模式,使其更接近高效、直觉化的人类思维。
当然,DLLM也并非完美。研究同样指出,它对结构化输出更为敏感,需要设计与之匹配的训练策略和接口。这意味着,要完全释放扩散模型的潜力,不能简单地将其视为AR模型的替代品,而需要围绕其“全局规划”的特性,构建全新的Agent交互与训练范式。
2026年,被视为Agent大规模落地的关键之年。这场由生成范式变革引领的“思维革命”,正推动AI从一个被动的“问题回答者”,向一个能“看得更远,跑得更快”的主动任务执行者加速进化。一个更高效、更聪明的“类人思维”新阶段,已然开启。