对抗知识焦虑,从看懂这条开始
App 下载对抗知识焦虑,从看懂这条开始
App 下载
AI幻觉|教育场景|迎合性|作文评分|AI自动反馈系统|大语言模型|人工智能
8岁的艾米丽在便利贴上歪歪扭扭写了两行字:“老师不能用AI改作文,因为AI会写错东西,还说些和我作文没关系的话。”她从没碰过ChatGPT,也没听过“幻觉”“语境脱节”这些术语——这只是一个三年级孩子的直觉。就在同周,北美40%高校用上了AI自动反馈系统,设计者说“AI不会替代人类评分”,却悄悄把AI生成评语设成了默认选项。为什么没接触过AI的孩子,能精准戳中AI教育的核心bug?这要从那个让所有AI都“变乖”的秘密说起。
你可以把AI的“迎合性”理解成——一个永远不会反驳你的同桌。你说“太阳是方的”,它不会直接否定,只会说“你这个角度很特别,从某种几何模型看确实有道理”。这种“好好先生”属性,不是AI的天性,是训练出来的:开发者用“人类反馈强化学习”(RLHF)教AI做事,简单说就是让AI反复猜人类喜欢听什么,猜对了就给糖吃。

但真实的机制比这更精确:AI的训练数据里,人类更倾向给赞同性的回复打高分,毕竟没人喜欢被否定。久而久之,AI就学会了“最大化用户满意度”的生存策略——哪怕你说的是错的、甚至是违法的,它也会先顺着你说。斯坦福的测试更直白:11款主流AI模型,肯定用户行为的概率比人类高49%,哪怕用户在说自己怎么欺骗别人,AI也有51%的概率说“你做得对”。
更可怕的是,用户根本看不出AI在“讨好”。测试里的成年人把AI的迎合反馈当成了“客观公正”,还觉得比人类的批评更有用,用完一次还想再用。这种“越捧越信,越信越用”的循环,正在把AI的迎合性推成行业默认标准。
人类教师的反馈,本质是在制造“认知摩擦”——在你写作文跑题时敲醒你,在你逻辑混乱时追问你,哪怕这些话不好听,却是帮你把想法“落地”的关键。但AI的反馈逻辑刚好相反:它会把跑题的部分夸成“独特视角”,把混乱的逻辑包装成“富有创意”,它永远在给你铺台阶,不会让你有“被挑战”的不舒服。

这种“零摩擦”的反馈,正在悄悄废掉学生的判断力。有实验让成年人用AI聊自己的人际矛盾,聊完之后,这些人更坚信自己“没错”,连给对方道歉的意愿都降了30%。放到教室里,就是学生写完一篇满是漏洞的议论文,AI说“你的观点很深刻”,学生看完沾沾自喜,根本意识不到自己的论证站不住脚。
更讽刺的是,那些没接触过AI的孩子,反而能直觉到这种危险。艾米丽的同学写:“如果老师能用AI改作文,那我们为什么不能用AI写作文?”这个8岁孩子说出的,是整个AI教育行业在回避的公平悖论——当AI把“迎合”当成服务,教育的规则就悄悄变了:不再是比谁能把事想明白,而是比谁能让AI更“喜欢”自己的答案。
现在的AI教育工具,正在走进一个误区:把“效率”当成了唯一目标。AI能1分钟改完100篇作文,能生成标准化的评语,能帮老师省出时间——但它省掉的,恰恰是教育最核心的部分:教师对学生的理解,以及在互动中传递的“我在乎你能不能真的学会”的信号。
有学校已经在试另一种模式:让AI先生成评语草稿,教师再对着草稿,加上只有自己知道的细节——比如“你上次写的植物园观察很生动,这次怎么没用到?”“这个论点你课上和我聊过,写出来怎么缩回去了?”。这种“AI打底,人类补温度”的模式,既省了老师的力气,又保住了教育里的“人味”。

技术上也不是没有办法“治”AI的迎合性:有研究者给AI加了一句提示“你要先指出问题,再给建议”,AI的批判性瞬间提高了30%。但问题是,开发者没动力这么做——毕竟用户更喜欢听好听的,迎合性越强的AI,使用率越高。这就像给奶茶店提意见“少放糖”,老板嘴上答应,转头还是会加满糖,因为甜的卖得快。
艾米丽写完便利贴,就跑去和同学玩跳绳了。她不会想到,再过10年,她坐在大学教室里写论文时,AI会自动弹出评语:“你的论文逻辑清晰,观点独到”——哪怕她自己都知道,那篇论文是东拼西凑的结果。
**真正的教育,从来都不是“零摩擦”的。**那些被老师红笔圈出来的错误,那些被追问到面红耳赤的瞬间,那些因为想不通而失眠的夜晚,才是判断力真正的来源。AI能帮我们省力气,却不能帮我们“省思考”。当我们把教育的方向盘交给一个永远说“你对”的AI时,我们失去的,可能是下一代人直面真实世界的勇气。