对抗知识焦虑,从看懂这条开始
App 下载对抗知识焦虑,从看懂这条开始
App 下载
极端路况|长尾场景|安全测试|SAGE系统|自动驾驶|人工智能
一辆自动驾驶汽车行驶在深夜的高速公路上,系统完美地处理着常规路况。但工程师们内心清楚,真正的考验并非来自这数百万公里的平稳驾驶,而是潜藏在数据长尾末端的极端瞬间:一个突然从盲区冲出的行人,一辆在冰面上失控打滑的卡车,或是前方车辆一次毫无征兆的恶意别车。

这些“长尾场景”发生概率极低,却是决定自动驾驶安全与否的命脉。真实路测耗时数十年也难以穷尽,仿真测试应运而生。然而,这又引出了一个棘手的“跷跷板”难题:为了高效地找出系统漏洞,测试场景需要足够“攻击性”,能将车辆逼至极限。但过度追求攻击性,生成的场景往往会脱离物理现实——比如车辆瞬移、无视惯性——这种“虚假”的危险对训练毫无意义。反之,如果过度追求“真实性”,场景又会变得过于保守,失去了发现潜在缺陷的测试价值。
长久以来,自动驾驶的测试工程师们就在这“攻击性”与“真实性”的跷跷板两端艰难摇摆,难以找到一个完美的平衡点。更糟糕的是,传统的生成模型一旦训练完成,其行为模式便被固化。每当测试需求变化,或被测算法升级,整个模型就得推倒重来,耗时耗力。自动驾驶安全验证,似乎陷入了一个效率与效果难以兼顾的死胡同。
就在近日,一篇被人工智能顶级会议ICLR 2026接收的论文,为这个经典难题带来了革命性的答案。来自香港理工大学、同济大学和麦吉尔大学的研究团队提出了一个名为**SAGE(Steerable Adversarial scenario GEnerator,可操控对抗性场景生成器)**的全新范式。
SAGE的核心突破在于,它不再强迫工程师在攻击性和真实性之间做出非此即彼的选择,而是将控制权交还给测试者。借助一种名为“测试时偏好对齐”的精妙设计,SAGE允许用户在无需重新训练模型的情况下,通过一个简单的调节旋钮,就能实时、连续地控制生成场景的风格——从最保守、最符合人类驾驶习惯的场景,平滑过渡到最具攻击性、最极限的“魔鬼测试”。

这意味着,自动驾驶测试不再是面对一份固定的考卷,而是拥有了一位能够动态调整教学难度的“智能陪练”。这一突破,彻底打破了传统测试范式在效率和灵活性上的双重枷锁。
SAGE的魔力源于一个颠覆性的想法:与其训练一个试图兼顾所有目标的“全才”,不如培养两个能力互补的“专家”,再将它们的智慧融合起来。
第一阶段:培养两位「专家级陪练」 研究团队首先训练了两个独立的专家模型。一个可以被看作是追求极限的“激进派”,其唯一目标是生成最具攻击性的场景,不惜一切代价诱发被测车辆的失效。另一个则是恪守规则的“保守派”,它致力于生成最真实、最符合物理规律和人类驾驶习惯的场景。 为了避免“激进派”为了攻击而完全无视物理规则,团队开发了HGPO(层次化分组偏好优化)算法。该算法巧妙地将问题分层:遵守地图和物理规则是硬性约束,必须无条件满足;而攻击性与拟人化则是软性偏好,可以在满足硬约束的前提下进行优化。这确保了即便是最激进的攻击,也发生在真实世界的物理框架之内。
第二阶段:融合专家智慧的「调音台」 拥有了两位专家后,SAGE并未在测试时让它们轮流上场,而是通过“权重空间插值”技术,将它们的神经网络参数进行线性融合。这就像一个调音台,用户可以通过一个从0到1的偏好系数(λ),决定最终场景更偏向哪位专家的风格。当λ=0时,生成的是纯粹真实的场景;当λ=1时,则是纯粹攻击性的场景;而当λ在0和1之间取值时,得到的则是一个兼具两种风格的混合场景。

这种做法之所以能成功,背后有**线性模式连通性(LMC)理论**的支撑。简单来说,因为两位专家师出同门(都从同一个预训练模型微调而来),它们的“知识结构”在底层是相通的。因此,将它们的参数直接“混合”并不会导致系统崩溃,反而能创造出一条连接两个极端风格的、平滑且有效的行为路径。
理论的优雅最终需要实践来证明。研究团队在业界公认的权威数据集Waymo Open Motion Dataset上对SAGE进行了严苛的测试,结果令人瞩目。
高质量的对抗场景:SAGE成功生成了大量符合人类驾驶逻辑,但极具挑战性的高风险博弈行为,例如在高速行驶中精准预判对方路线并强行变道加塞。这些场景既保证了高攻击成功率,又将地图违规和物理违规率降至极低水平。
无缝的连续可控:实验数据绘制出了一条完美的Pareto前沿曲线。随着用户调高攻击性系数,场景的碰撞率和真实性指标呈现出平滑且单调的变化。这意味着测试者可以像调节音量一样,精准地将测试难度设定在任何想要的水平上。
更鲁棒的智能体:SAGE的价值不止于“找茬”。团队将其集成到闭环强化学习训练中,为自动驾驶AI设计了一套“双轴课程学习”策略,即同时控制对抗场景的强度和频率。这种“循序渐进”的训练方式,有效避免了AI因过度学习极端案例而变得在正常驾驶中畏手畏脚的“灾难性遗忘”问题。最终,由SAGE训练出的AI在安全性、任务完成度和乘坐舒适度上均取得了最佳平衡。
SAGE的出现,其意义远超一个高效的测试工具。它标志着自动驾驶安全验证思路的一次深刻跃迁:从静态、被动的“对抗”,走向动态、主动的“对话”。
过去,我们像一个严厉的考官,用一套固定的难题去检验AI。现在,SAGE让我们变成了一位经验丰富的教练,可以随时调整训练强度,与AI进行细致入微的互动,探寻其能力的边界。我们可以精确地问出这样的问题:“面对一个攻击性为73%的加塞场景,你会如何应对?”
这种可控、可解释、可重复的测试范式,是构建公众对自动驾驶信任的基石。未来,SAGE的理念还可能扩展到更复杂的场景,融合舒适性、能耗、交通效率等更多维度的偏好控制。它为如何灵活驾驭功能日益强大的生成式AI提供了一个通用的框架,其影响或将溢出自动驾驶领域,触及更广阔的人工智能应用图景。
最终,通往完全自动驾驶的道路,不仅需要AI的进化,更需要人类验证能力的进化。SAGE的出现,正是这场进化中的一个关键里程碑。它让我们离那个更安全、更高效、更值得信赖的未来出行时代,又近了一步。