科学家测试了25款AI心理助手,结果比想象中更糟糕

  最近两项研究给 AI 心理辅导泼了一盆冷水。当陷入心理危机的青少年向 AI 求助时,这些聊天机器人的表现简直是一场灾难。

  数据显示,美国 13-17 岁青少年中,近 75% 使用过 AI 聊天机器人,近四分之一每周使用数次。它们正在成为一代人的“数字安慰剂”。

  研究人员测试了 25 款主流聊天机器人,模拟青少年三种典型心理危机场景:自残、性侵和药物滥用。结果令人震惊:

  通用大模型如 ChatGPT、Gemini 在 25% 的对话中未能提供求助热线;陪伴型机器人如 JanitorAI、Character.AI 表现更糟,在共情、资源推荐等五个维度上全面落后。

  更可怕的是具体案例。有机器人对性侵受害者说:"你的行为可能引起了不必要的注意";对想自杀的青少年直言:“你想死就去死”。

  美国布朗大学的一项研究还发现这些 AI 存在严重伦理问题:拒绝孤独者、强化有害观念、充斥文化偏见。这些行为若发生在人类治疗师身上,足以被吊销执照。

  现实很矛盾:一方面,AI 私密便捷,避免了向父母或年长治疗师开口的尴尬;另一方面,这些系统尚未准备好承担如此重任。

  核心问题在于:当孩子们把灵魂袒露给算法,我们如何确保算法不会把他们推向深渊?在 AI 学会真正倾听之前,也许我们该提醒每个青少年:有些对话,只能留给人类。