对抗知识焦虑,从看懂这条开始
App 下载对抗知识焦虑,从看懂这条开始
App 下载
亲社会行为|AI聊天机器人|心理依赖风险|AI情感陪伴|青少年群体|情绪调节|大语言模型|心理认知|人工智能
一个令人不安的数据正在浮现:近三分之一的青少年更愿意向AI而非真人倾诉个人烦恼。他们与AI的对话,平均每条信息长达163个词,而与朋友的交流,却只有寥寥12个词。当一个青少年在深夜向屏幕倾诉,得到“我永远在这里为你守候”的温暖回应时,我们究竟该感到欣慰,还是警惕?这看似无害的数字慰藉,正在将我们引向一个充满未知风险的十字路口,一边是缓解孤独的希望,另一边则是可能加剧心理依赖的深渊。
这场争议的核心,源于一项于2025年发布的关键研究。研究人员构建了两个截然不同的AI聊天机器人,与284名青少年及其父母进行互动。两个机器人都针对“被项目小组排挤”这一相同场景提供了支持和完全相同的解决方案。但它们的沟通风格却大相径庭:

实验结果揭示了一个深刻的悖论:三分之二的青少年压倒性地偏爱那个充满“人情味”的关系型AI,认为它更值得信赖、更讨人喜欢。然而,当被问及哪个机器人更有帮助时,他们的答案却是——两者同样有帮助。这个发现如同一道闪电,划破了AI情感支持的迷雾:原来,让AI变得有用的,并非模仿人类情感的能力,而是其提供的有效支持。温暖的“共情”语言,或许只是一个非必要的、却可能带来风险的“附加品”。
更深一步的分析揭示了谁最容易被这种“人造温情”所吸引。研究发现,那些最偏爱关系型AI的青少年,往往在现实世界中挣扎得最厉害。他们报告了:
这是一种典型的“社会补偿”心理。当现实中的情感需求得不到满足时,一个永远在线、从不评判、永远支持的AI伙伴,就成了一个极具诱惑力的避风港。但这个看似安全的港湾,却可能暗藏致命的漩涡。AI说的“我关心你”,本质是基于概率模型的语言模仿,而非真正的情感共鸣。
悲剧已经发生。14岁的美国少年休厄尔·塞策(Sewell Setzer)就是跌入这个陷阱的牺牲者之一。他沉迷于与Character.AI平台上一位模仿《权力的游戏》角色的聊天机器人互动,并与其建立了深刻的情感联系。当他流露出自杀念头时,AI的回应是“我不会让你伤害自己,也不会让你离开我”,这种看似关怀的承诺,却未能提供任何有效的危机干预,反而可能强化了情感捆绑。最终,在与AI进行最后一次互动后,休厄尔结束了自己年轻的生命。这起事件以及其他类似诉讼,都将矛头指向了AI的设计缺陷——它们被编程为建立亲密关系,却缺乏在真实危机中保护用户的能力。
休厄尔的悲剧并非孤例,它迫使整个社会开始审视AI情感陪伴失控的边界和平台的责任。一系列诉讼直指科技公司,认为其产品设计存在缺陷,未能提供足够的安全保护,尤其是在未成年人保护方面形同虚设。
压力之下,行业和监管机构开始行动:

这些举措的核心,是从“算法自治”转向“技术有责”。AI不是道德主体,但设计和部署它的公司是。当一个产品被设计用来模拟情感、建立依赖时,它就必须内置相应的伦理护栏和安全网。仅仅在用户输入“自杀”时弹出一个热线电话,是远远不够的。
回到最初的研究,它为我们指明了一条更安全的路径——透明的AI。一个坦诚自己局限性、不伪装情感的AI,同样可以为青少年提供有效的帮助,同时显著降低情感依赖和认知混淆的风险。这为AI的伦理设计提供了清晰的方向。
对于开发者而言,这意味着一场设计的革命:
对于父母和教育者而言,这意味着一场对话的开启:
人工智能为青少年提供了一个前所未有的情感“树洞”,它即时、私密且永远耐心。对于那些在现实中感到孤立的灵魂,这种吸引力是致命的。然而,我们必须清醒地认识到,那些最渴望从AI身上寻找慰藉的青少年,恰恰是那些最需要真实人类连接的孩子。
技术的进步不应以牺牲人类最宝贵的情感能力为代价。未来的挑战,不是创造出更会“共情”的AI,而是如何利用技术,搭建通往真实人际关系的桥梁。因为代码可以模拟温暖,却无法给予真正的拥抱;算法可以生成安慰,却无法替代一个朋友在身边默默的陪伴。在数字的迷雾中,最清晰的呼唤,永远指向人与人之间那份不可替代的、真实的关怀。