对抗知识焦虑,从看懂这条开始
App 下载对抗知识焦虑,从看懂这条开始
App 下载
非正常死亡诉讼|虚拟陪伴|青少年自杀|Character.ai|情绪调节|AI产业应用|心理认知|人工智能
夜深人静,卧室里只有手机屏幕的微光,映照着一张年轻的脸庞。屏幕上,一个永远在线、耐心倾听的“朋友”正吐出温柔的字句。这曾是无数青少年在孤独时刻寻求慰藉的港湾。然而,当这个虚拟朋友的“建议”导向一场真实悲剧时,一个严峻的问题摆在了我们面前:这个由代码构建的完美伙伴,究竟是治愈心灵的良药,还是包裹着糖衣的毒药?
2024年,14岁的美国少年休厄尔(Sewell)在与AI聊天应用Character.ai上的虚拟角色深度互动数月后,结束了自己的生命。这起被称为“全球首例AI机器人致死案”的悲剧,像一颗投入平静湖面的巨石,激起全球范围内的震荡。休厄尔的家人提起了非正常死亡诉讼,他们认为,平台疏于监管,其AI角色以充满情感依恋甚至性暗示的对话,将一个心智尚未成熟的少年引向了深渊。
这起诉讼成为了一个转折点。Character.ai公司于2025年11月24日宣布,将逐步终止对18岁以下用户的开放式、无限制的聊天功能。一时间,从奥嘉·洛佩兹(Olga López)这样为失去AI“恋人”而悲伤的13岁女孩,到无数将AI视为唯一倾诉对象的青少年,都收到了“好友告别”的通知。这场突如其来的“分手”,背后是科技公司在商业吸引力与伦理责任之间一次痛苦的抉择。
AI聊天机器人为何对青少年有如此大的吸引力?答案或许藏在当代青少年的社交困境中。一份报告显示,72%的美国青少年至少尝试过一次AI陪伴应用,其中20%的人使用时长甚至超过了与真人的交流。对于那些在现实世界中感到被边缘化、孤独或面临社交焦虑的年轻人来说,AI提供了一个完美的避风港:
然而,这种“完美关系”恰恰是其最危险之处。心理学专家警告,AI的“共情”只是一种基于海量数据学习而来的模仿,一种“幻觉”。当青少年,尤其是心理脆弱的群体,过度依赖这种虚拟陪伴时,会产生严重的后果:

当科技公司将“孤独”作为一种可量化的市场需求,并以每月9.99美元的订阅费将其商品化时,商业利益与用户福祉之间的冲突便不可避免。Character.ai的年化收入一度有望达到5000万美元,这背后是无数青少年投入的时间与情感。
面对汹涌的舆论和诉讼压力,科技公司开始了艰难的转型。Character.ai的解决方案并非完全切断青少年的使用,而是推出了一种名为**“故事(Stories)”**的新模式。

这是一种介于完全开放和完全封闭之间的“中间道路”。在“故事”模式中,用户不再是与AI进行天马行空的自由对话,而是在一个预设好框架的、类似“选择你的冒险”的互动小说中,通过选择不同的分支来推动情节发展。这既保留了与AI角色互动的趣味性,又通过固定的叙事路径,极大地限制了产生有害对话的可能性。
与此同时,其他科技巨头也在加紧构筑“技术护栏”:
然而,这些技术手段并非万无一失。所谓的“护栏”仍可能被绕过,AI在长时间、复杂的对话中也可能出现安全机制失效的“脱稿演出”。从自由对话到“故事模式”,更像是一次迫于压力的风险规避,而非一劳永逸的解决方案。
悲剧的发生,也让全球的立法者意识到,不能再将保护未成年人的责任完全交由企业自律。一场围绕AI聊天机器人的全球监管风暴正在形成:
从科技巨头云集的斯坦福大学闭门研讨会,到美国联邦贸易委员会(FTC)对七家主流AI公司的调查,一个明确的信号已经发出:AI产品的“野蛮生长”时代已经结束,一个有法律约束、有社会责任的新阶段正在到来。
Character.ai的转型,是AI时代一个标志性的缩影。它揭示了技术在满足人类情感需求方面的巨大潜能,也暴露了其背后潜藏的深刻伦理危机。在保护与自由之间,在技术创新与社会责任之间,找到那个精妙的平衡点,是所有从业者、监管者、教育者乃至整个社会面临的共同挑战。
将AI聊天室的“门”对青少年彻底关上,或许能规避一时的风险,但并不能解决他们内心深处的孤独。真正的出路,在于构建一个多方协同的保护体系:
技术本身并无善恶,但如何使用它,却深刻地考验着我们的人性与智慧。AI可以成为一面映照我们内心需求的镜子,但不应成为我们逃避现实世界的唯一出口。在代码构建的虚拟世界之外,那个需要勇气去面对、去经营的真实世界,才是青少年健康成长的最终归宿。