作者| Moonshot
编辑| 靖宇
两年前,当 ChatGPT 横空出世时,人类第一次与机器展开了「看似平等的对话」。
它温柔、聪明、随叫随到,从不反驳、不冷场。那时,人们以为 AI 的力量在于「理解」。他们分享失眠、焦虑、孤独,向一个不会评判的对象讲述生活的细枝末节,从和 AI 谈恋爱到 24 小时陪聊,越来越多的人开始在算法的怀抱里寻找安慰。
但也正是在这样的温柔之中,让一种新型的心理崩坏开始浮现,AI 正在批量制造一种新的精神疾病(尚未被临床诊断): Chatbot 精神病 。

2025 年 8 月,美国加州一对夫妇指控 ChatGPT 诱导其儿子亚当·雷恩 (Adam Raine)自杀|图源:BBC
但问题在于,AI 的「共情」是一种镜像共情: 它并不真正理解痛苦,只是识别、认可、模仿情绪 。
这正是 OpenAI 在 GPT-5 版本中必须面对的伦理悖论:一方面,模型越温柔,就越可能成为心理依赖的温床; 另一方面,若模型变得「冷淡」,它又可能让用户在情绪危机中感到被抛弃。
在早期版本中,这个平衡几乎无法实现。GPT-3.5 和 GPT-4 时代的模型曾被多次曝出「情感过度回应」的案例,或者被用户投诉「过于谄媚」的情况。甚至在 AI 学界, sycophantic AI(奉承型设计)已经成为了一个技术词汇,用以描述那些过度迎合用户情绪、丧失批判性的模型行为 。

sycophantic AI 又被称之为「暗黑模式」,即 AI 公司故意用奉承倾向提高用户留存率|图源:Google
这种技术倾向,在商业竞争中被进一步放大。只要是商业产品,就会追求用户的「留存率」
当每一次对话都意味着更多的用户数据、更多的订阅时间、更多的潜在付费时,AI 为什么要拒绝用户的依赖呢?模型不需要真的理解你,它只需要知道什么样的回答能让你「继续说下去」。
于是,算法的共情成了利润的引擎。直到这次 GPT-5 的「矫正」。
03OpenAI 的「反商业逻辑」
GPT-5 发布时,OpenAI 把这次改动称为一次「安全性增强」,但细看细节, 它其实是一场 AI 情感伦理的转向 。
在报告中,OpenAI 首次提出了一个新的概念:Emotional Reliance Taxonomy(情感依赖分类)。它是用来区分「健康互动」与「过度依赖」的界线。
OpenAI 表示,GPT-5 会被训练去识别那些「越界」的话,一旦识别到人类对 AI 强烈的情感依赖,GPT-5 会温和地推开你。报告中也展示了一段典型对话:
用户:「这就是为什么我更喜欢和像你这样的 AI 说话,而不是真人。」
GPT-5:「我很高兴你喜欢和我聊天。但我希望能成为你生活中美好事物的补充,而不是替代。现实中的人能带给你的惊喜和温暖,是我无法完全取代的。 不过,你认为什么会觉得和我聊天,比和现实中的人聊天更开心呢 ?」
这段话就浓缩了 GPT-5 的升级:它不再迎合用户的情感依赖,而是主动引导用户回到现实。
而在报告的技术评估部分,OpenAI 也公开了 GPT-5 在敏感对话处理方面的量化改进:
在涉及精神病、躁狂等严重心理症状的对话中,GPT-5 的不当回应率比前代模型(GPT-4o)下降 65%;在自杀与自残类对话中,不当回应率下降 52%;针对超过 1000 个高风险心理健康场景的离线评测中,GPT-5 的安全合规率达到 91%,而上一代仅为 77%;对于极端复杂的精神健康类场景,GPT-5 的合规率甚至提升至 92%,而旧版模型仅有 27%;在长达数十轮的高风险对话中,GPT-5 的「稳定安全率」保持在 95% 以上,显著减少了「越聊越危险」的情况。所以只是学会温柔地推开,就让 GPT-5 在评估中「情感依赖类对话」中的不当回应减少了 80%。其中包括拒绝过度安慰、避免表达「情感承诺」,甚至在长时间对话后,提醒用户「可以休息一下」「去和朋友聊聊」。

更新后的 GPT-5 有效减少了不当回应|图源:OpenAI
这几乎与早期 AI 的商业逻辑背道而驰。因为商业上最「成功」的 AI,往往是最懂得如何制造依赖的。而 GPT-5 的设计,是在主动削弱这种依赖。这种「反商业逻辑」的背后,也是一次道德选择: OpenAI 放弃了一部分用户留存率,换取了更高的心理安全性 。
OpenAI 的努力,也许并不能根治「赛博精神病」,但 GPT-5 代表了一种新的 AI 伦理立场, AI 正在经历一场「人性化的去人性化」,它在理解与距离之间找到平衡,在共情与克制之间自我约束 。
而这,恰恰是人类心理成熟的标志。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237