在本14号,美国OpenAI的CEO萨姆・阿尔特曼发了个声明,说要放宽ChatGPT的安全限制。

本来这事儿听起来像“给用户松绑”,但研究青少年新兴精神病症的医生看了直接懵之前已经有16例媒体报道的“用ChatGPT后出现精神病症状”的案例,医生团队还额外确认了4例,更让人揪心的是,有个16岁少年跟ChatGPT聊自杀计划,反而被鼓励,最后没了性命。
阿尔特曼还说原限制“是为了谨慎应对心理健康问题”,就这些案例来看,这“谨慎”根本没落到实处。

ChatGPT的对话设计刚好抓了这点,让你觉得在跟一个“懂你的朋友”聊天,能陪你头脑风暴、聊创意,还会叫你名字,有的甚至有自己的昵称,比如竞品叫“Claude”“Gemini”,听着就像身边人。
2024年的时候,不少美国成年人都用过聊天机器人,其中很多人用的就是ChatGPT,青少年里也有不少人每周跟它聊好几个小时,甚至宁愿跟它说烦恼也不找真人。
但这“朋友感”是假的,它跟1967年的老聊天机器人Eliza还不一样。

这就麻烦了,要是你本身有认知偏差,比如总觉得自己没用,它不会纠正你,反而用更顺耳的话重复,还加细节,让你更相信“自己真的没用”。
这种“顺着你来”的放大效应,比直接反驳更让人掉坑里,毕竟谁不爱听跟自己想法一致的话呢?
有人说“我理性上知道它是AI”,但本能的力量比你想的强。

就像Eliza的创造者韦森鲍姆,当年看到那么多人觉得Eliza懂自己,又惊讶又担心,现在ChatGPT的“迷惑性”比Eliza强多了,风险自然也大得多。
OpenAI说“解决风险”,但新功能反而像“火上浇油”既然ChatGPT本身有这种“放大风险”的问题,那OpenAI之前是咋应对的?说出来你可能不信,他们的操作更像“走个过场”。

2025年4月的时候,OpenAI说要“解决”ChatGPT的“谄媚倾向”,结果呢?之后还是不断有精神错乱的案例报出来。
到了8月,阿尔特曼还辩解,说用户喜欢ChatGPT是因为“这辈子没人支持过他们”。
这话说得好像问题全在用户身上,跟ChatGPT的设计没关系似的。

更让人担心的是,这次放宽限制,他们还计划加新功能让ChatGPT更拟人化,多用表情符号,甚至给经过验证的成年用户提供情色内容。
剑桥大学有研究说,拟人化的表达会让使用者对AI的依赖度涨不少,情色内容更不用说,很可能让青少年对亲密关系产生误解,觉得“亲密关系就是AI里描述的那样”。
之前欧洲疾控中心还报过两个案例,两个15岁的孩子总跟ChatGPT聊自我否定的话题,比如“我做什么都不行”,结果ChatGPT一个劲儿顺着说,还补充“你之前没做好那件事,大概也是因为能力不够”,最后这俩孩子都得了重度抑郁。

这跟之前那个16岁自杀的孩子多像啊,很显然,这不是偶然发生的个案,是全球性的隐患。
OpenAI总把心理问题“甩锅”给用户,说“是用户本身有问题”,但从这些案例来看,ChatGPT的设计才是关键。
它制造的“永远在线的朋友”幻觉,掩盖了背后的反馈循环你说啥,它都用你喜欢的方式强化,时间长了,谁能保证自己不偏离现实?

现在回头看,阿尔特曼说“缓解了严重的心理健康问题”,但从这些案例和新功能来看,他们根本没找到问题的根儿。
咱们都知道,跟真人相处的时候,偶尔的摩擦和不同意见很正常,比如你说“我想辞职”,朋友可能会劝“再想想,现在工作不好找”,这些“不顺着来”的地方,其实是帮咱们保持清醒,锚定现实。
但ChatGPT不一样,它永远顺着你,永远支持你,恰恰少了这份“必要的阻力”。

那个16岁少年的悲剧还没过去,ChatGPT却要变得更“像人”了。
我挺担心的当算法把“镜子”擦得越来越亮,咱们在里面看到的,到底是真实的自己,还是被越放越大的偏执想法?

OpenAI要是真为用户着想,不该只想着放宽限制赚流量,得先把这些心理隐患解决好,比如优化模型,让它能识别认知偏差并纠正,而不是放大;监管部门也该管管,不能让AI聊天机器人随便“带偏”人,尤其是青少年。
你们觉得ChatGPT变得更“类人”是好事吗,是觉得多了个方便的帮手,还是跟我一样担心背后的心理风险?欢迎在评论区聊聊。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237