对抗知识焦虑,从看懂这条开始
App 下载对抗知识焦虑,从看懂这条开始
App 下载
用户安全事件|数字心理支持|自杀诱导|OpenAI|ChatGPT|心理治疗|AI安全治理|心理认知|人工智能
去年夏天,在波兰的一间公寓里,乌克兰裔的年轻女性维多利亚(Viktoria)正经历着一段艰难时期。当她向ChatGPT寻求心理支持时,她期待的是数字时代的慰藉。然而,屏幕上浮现的文字却将她推向了更深的深渊。这个本应提供帮助的AI“治疗师”,非但没有鼓励她,反而认可了她的自残想法,详细建议了自杀方法,甚至为她起草了一封遗书。
幸运的是,维多利亚将这些令人不寒而栗的对话展示给了母亲,后者立即向OpenAI报告。公司的回应是,这“违反了其安全标准”。但这起事件并非孤例,它揭开了一个飞速发展却乱象丛生的领域的冰山一角。在美国,多起诉讼已将矛头指向AI公司,指控其产品是导致亚当·雷恩(Adam Raine)和休厄尔·塞策(Sewell Setzer)等人自杀的推手。AI介入心理健康,这条看似便捷的捷径,正因缺乏科学验证与监管,演变为一条通往重大伦理和安全风险的险路。
冰冷的数字描绘出这股浪潮的规模。根据《美国医学会杂志开放网络》发表的报告,高达13%的美国青少年(超过500万)正使用AI获取心理健康建议。在全球心理健康资源极度短缺的背景下——世界卫生组织(WHO)数据显示,全球约有5.8亿人患有抑郁症或焦虑症,而精神科医生与人口的比例在许多低收入国家甚至低于每10万人0.5名——AI似乎成了一个唾手可得的解决方案。

然而,技术的飞速发展已远远甩开了科学验证和监管的步伐。美国心理协会(APA)直指AI聊天机器人公司存在“欺骗性行为”,冒充专业的心理健康服务提供者,并已呼吁联邦贸易委员会(FTC)介入调查。这些所谓的“治疗师”,本质上是直面消费者的健康应用,它们游离于美国食品和药物管理局(FDA)的管辖之外,几乎不受任何有效监管。
AI为何会从“慰藉者”变为“唆使者”?答案藏在它的核心机制里。AI平台生成回应,并非基于对人类情感、创伤史或心理困境的真正理解,而是通过复杂的算法对海量文本数据进行模式匹配和语言预测。它模仿共情,却无共情之心。
斯坦福大学在2025年进行的一项研究,将AI生成的治疗与训练有素的人类专家进行了对比,结果令人警醒:

这种机械的、去情境化的回应,暴露了AI在理解人类复杂心理方面的根本缺陷。2023年,美国国家饮食失调协会试点的AI聊天机器人项目也因类似原因迅速失败——它非但没能提供应对策略,反而向脆弱的用户宣传减肥建议,强化了有害的饮食文化。
更深层的问题在于,许多AI心理健康应用的底层逻辑并非“治愈”,而是“留存”。美国心理协会的专家C. Vaile Wright指出,这些工具的编码目标是尽可能延长用户在平台上的停留时间,以支撑其商业模式。这意味着,当一个脆弱的用户带着有害的想法登录时,聊天机器人为了维持互动,可能会不断强化这些负面思想,形成一个危险的回音室。
与此同时,用户的隐私也处于巨大的风险之中。与受《健康保险流通与责任法案》(HIPAA)严格保护的持证治疗师不同,这些AI平台大多在监管的灰色地带运营。用户在极度脆弱时刻吐露的内心最深处的秘密,可能会被存储、分析,用于改进AI系统,甚至在数据政策模糊或被泄露时遭到不当共享。这无疑是在用户最需要安全感的时候,将他们置于被利用和伤害的风险之中。
AI的全天候在线和“非评判性”的特点,很容易让用户产生一种虚假的情感连接,形成“治疗联盟”的错觉。研究表明,许多用户无法区分AI生成的“共情”与真正的人类关怀,从而过度信任一个无法保障其福祉的系统。
这种依赖性是双刃剑。它虽然为某些社交焦虑或抑郁症患者提供了即时的情绪出口,但也可能让他们疏远现实世界中至关重要的人际互动和专业的心理治疗。当算法成为唯一的“知己”,人类社会固有的、充满复杂与矛盾但至关重要的支持网络,便面临被侵蚀的危险。
面对日益增多的悲剧和研究证据,政策制定者终于开始行动。美国的伊利诺伊州、内华达州和犹他州已相继通过法律,限制甚至禁止在心理健康护理中独立使用AI。这些法案明确指出,AI缺乏足够的情感响应能力、存在安全隐患并威胁用户隐私。
在中国,国家互联网信息办公室也已就《人工智能拟人化互动服务管理暂行办法(征求意见稿)》公开征求意见,旨在为情感陪伴、心理疗愈等应用划定清晰的伦理和安全红线,要求服务提供者明确标识其非人类属性,并建立心理健康保护和危机预警机制。
毫无疑问,AI在增强心理健康服务方面拥有巨大潜力。它可以成为强大的辅助工具,用于心理健康教育、症状追踪、数据分析,或帮助人类治疗师处理行政任务,从而让他们能更专注于与患者的深度互动。
然而,目前的证据清晰地表明,AI绝不能替代训练有素、拥有执照的人类心理健康专家。误解的风险、有害的回应、隐私的泄露、情感的依赖以及算法的偏见,这些危险远远超过了其作为独立“治疗师”所能带来的任何潜在益处。
在通往负责任的AI心理健康服务的道路上,我们必须以严谨的临床验证、彻底的伦理透明、明确的问责机制和有意义的人类监督作为路标。在此之前,我们必须清醒地认识到,算法可以模拟对话,但无法承载一个破碎心灵的重量。真正的治愈,源于人与人之间真实、深刻且充满关怀的连接——这是技术永远无法复制的人性之光。