
1 个月前
丹佛的报告厅里挤了14000名物理学家,台上的量子场论公式像外星文字在屏幕上滚动。但没人在忙着记笔记——大半人盯着笔记本电脑,对话框里的AI正用带表情符号的 bullet 点,把「transmon 量子比特」翻译成高中生能懂的大白话。更炸的消息在茶歇时传开:哈佛的施瓦茨教授用AI花两周做完了量子场论研究,换作博士生得熬两年。有人拍着桌子喊「物理要变天」,有人攥着咖啡杯皱眉:这到底是工具,还是抢饭碗的同行?
施瓦茨的实验不是孤例。2026年初,OpenAI的模型用12小时推导出了粒子物理界认为「不可能存在」的单负载胶子相互作用公式,而传统推导至少需要三个月。AI的核心优势,是把理论物理里最磨人的「体力活」彻底自动化:它能在10分钟内完成上千次符号计算,把几十篇文献整合成逻辑清晰的综述,甚至能帮着设计实验的控制变量。
你可以把这个过程想象成:以前科学家得自己动手磨镜片、调望远镜,现在AI直接递来一台自动对焦的天文望远镜——你只需要告诉它「我想看星系边缘的引力透镜」。但真实的机制比这更精确:AI通过「临界学习」方案,把模型调到类似物理相变的临界点,能在数据极少的量子场论问题上实现极致泛化,效率比传统方法高400倍。

不过,AI的「快」是有前提的。它需要人类给它搭好框架:提出具体的问题,设定验证的标准,甚至要把复杂的推导拆成它能理解的步骤。施瓦茨就说,他给AI的指令是「用费曼图法计算这个散射振幅,每一步都要符合Berends-Giele递推关系」——要是换成「你去研究量子引力」,AI只会输出一堆看似高深的废话。
当报告厅里的讨论从「AI能做什么」转向「AI不能做什么」时,纽约市立大学的泰斯教授抛出了最尖锐的质疑:AI能生成完美的公式,但它不知道这个公式有没有意义。她展示了一份AI生成的论文,里面的推导逻辑严密,数据天衣无缝——但研究的问题是「黑洞吸积盘的颜色对行星大气的影响」,而这个问题在当前的观测精度下,根本无法验证。
这戳中了AI最核心的局限:它没有「科学品味」。它能从海量数据里找出统计规律,却不能像人类那样,凭着直觉判断「这个问题值得花十年去研究」。就像普林斯顿的高等研究院的物理学家说的:「AI能算出1000个可能的引力理论,但只有人类能分辨出哪个能解释宇宙加速膨胀。」
更现实的风险是「自动化偏见」。有年轻物理学家发现,自己现在连基本的积分都算不利索了——遇到问题第一反应是问AI,而不是翻教材。就像现代人依赖GPS导航,慢慢忘了怎么看地图。施瓦茨自己也承认,他现在只带愿意和AI协作的学生,但同时要求学生必须先手动推导一遍,再用AI验证——「不能让AI变成拐杖,要变成望远镜。」
当AI开始参与科研写作,学术圈的规则正在被重新改写。美国物理学会的伯利教授说,AI普及后,部分领域的论文投稿量翻了三倍,同行评审的周期从两个月拉长到半年——评审们得花更多时间去甄别AI生成的「幻觉数据」。
目前所有顶级期刊都明确规定,AI不能作为论文作者,因为它无法承担学术责任。但如何界定AI的贡献成了难题:如果AI完成了80%的计算和写作,人类只做了框架设计,那论文的署名权该归谁?有研究者提议,在论文的致谢部分加上「AI贡献声明」,明确写出AI做了什么、用了什么工具,但这个提议至今没有统一的标准。
更棘手的是AI的「幻觉」问题。有物理学家用AI辅助写论文,引用了一篇不存在的经典文献——AI甚至给它编了期刊名和页码,直到评审提出质疑才发现。现在,很多实验室已经形成了不成文的规定:AI生成的所有内容,必须经过至少两轮人工验证,尤其是数据和引用部分。

丹佛的会议散场时,有人在走廊里用AI算打车费,有人还在争论「AI能不能在五年内统一量子力学和广义相对论」。施瓦茨的那句「物理在砧板上」被反复提起,但没人真的认为AI会取代物理学家——就像计算器没有取代数学家,望远镜没有取代天文学家。
真正的变化,是科学研究的边界正在模糊。以前,理论物理是少数精英的游戏,现在,一个掌握AI工具的本科生,就能完成过去博士生才能做的计算。但最终,决定科学走向的依然是人类:是人类提出「为什么时间只能向前」,是人类判断「这个问题值得研究」,是人类为每一个结论负责。
AI能加速科学,但不能定义科学。
点击充电,成为大圆镜下一个视频选题!