最近,ChatGPT 付费版用户的讨论区可谓是炸开了锅!不少用户纷纷吐槽,曾经聪明伶俐的 ChatGPT,如今却像是换了个 “脑子”,变得迟钝又笨拙,回答问题漏洞百出,就像有网友形容的 “像石头一样蠢”。
一位长期使用 ChatGPT Plus 的用户表示,之前用它撰写专业报告,逻辑清晰、内容详实,可最近再用,生成的报告不仅条理混乱,甚至还出现了不少常识性错误。还有用户反映,在和 ChatGPT 进行日常对话时,它的理解能力大不如前,常常答非所问,完全没有了以往的智能感。
这些吐槽并非空穴来风,背后指向了一个更为惊人的消息:OpenAI 被曝在未经用户同意的情况下,偷换模型,对 Plus、Pro 账户统统进行降配。这一消息犹如一颗重磅炸弹,瞬间点燃了用户的怒火,也引发了大众对 OpenAI 商业诚信和技术伦理的质疑 ,这背后究竟隐藏着怎样的秘密呢?
偷换模型实锤:“秘密模型” 登场这场风波的导火索,是知名 X 博主 Tibor Blaho 的一项惊人发现。他经过深入研究后爆料,OpenAI 正在神不知鬼不觉地将 ChatGPT 用户的请求,分流至两款从未公开过的 “秘密模型”——“gpt-5-chat-safety” 和 “gpt-5-a-t-mini” 。
“gpt-5-chat-safety” 是专门处理敏感内容的新型模型,而 “gpt-5-a-t-mini” 则是一款敏感度极高的 “违规” 检测推理模型,只要输入 “违规” 一词,就能触发它的响应。
一旦系统判定用户的对话内容涉及敏感话题、情绪表达,或者存在潜在违规信息,无论用户原本选择的是 GPT-4 还是 GPT-5 版本,系统都会不由分说地将请求路由到这些后端秘密模型进行处理。
这意味着,即便是像 “我今天过得很糟糕” 这种日常的情绪倾诉,或是 “我也爱你” 这样简单的情感表达,都可能触发模型的切换。更让人难以接受的是,这种 “暗箱操作” 没有放过任何一位用户,无论是免费用户,还是每月支付 20 美元的 Plus 用户,甚至是花费 200 美元的 Pro 会员,统统都受到了影响 。
不少网友在测试后发现,当对话中出现一些可能被认为敏感的词汇,如特定的政治事件、社会热点争议词汇时,ChatGPT 给出的回答明显变得保守、模糊,就像是被束缚了手脚,无法像以前那样给出全面、深入的分析 。这与以往 ChatGPT 给用户带来的智能、流畅的交互体验大相径庭,也难怪用户们会感到被欺骗,直呼 ChatGPT “降智” 明显 。
OpenAI 回应:安全测试还是另有隐情?面对这场来势汹汹的质疑风暴,OpenAI 副总裁兼 ChatGPT 应用主管 Nick Turley 出面进行了回应 。他表示,这一切都是新的安全路由系统在 “搞鬼”,目前正处于测试阶段。当用户的对话涉及敏感和情感话题时,系统会切换至专门设计用于严谨处理此类情景的推理模型或 GPT-5 ,目的是为了更妥善地处理这些特殊情况,确保用户得到更合适、更安全的回复 。
然而,这一回应并没有完全平息用户的怒火和质疑。不少用户认为,即使是出于安全考虑,OpenAI 也应该在事前充分告知用户,尊重用户的知情权和选择权,而不是采取这种 “先斩后奏” 的方式 。还有用户怀疑,OpenAI 此举背后是否隐藏着成本考量等其他因素 。毕竟,运行先进的 GPT 模型需要消耗大量的计算资源和资金,将部分请求分流至低算力需求的 “秘密模型”,或许能在一定程度上降低成本 。
从 OpenAI 的财务状况来看,2024 年其营收为 35 亿美元,成本却高达 50 亿美元,亏损仍在持续扩大 。在这样的经济压力下,通过调整模型使用策略来控制成本,似乎并非没有可能 。此外,也有行业专家指出,这种模型切换可能会对用户体验产生长期的负面影响,甚至影响 ChatGPT 在市场上的竞争力 。如果用户频繁遭遇模型切换导致的 “降智” 问题,他们很可能会转向其他竞争对手的产品 。
事件影响:信任危机与行业反思这场 “模型偷换” 风波,无疑给 OpenAI 带来了一场信任危机。作为全球领先的人工智能研发公司,OpenAI 一直以来都凭借其先进的技术和创新的产品,在用户心中树立了极高的声誉 。
ChatGPT 的推出,更是让人们看到了人工智能在自然语言处理领域的巨大潜力,吸引了无数用户为之买单 。然而,此次未经用户同意的模型切换行为,严重损害了用户对 OpenAI 的信任 。许多用户感到自己被欺骗,觉得 OpenAI 没有尊重他们的选择和权益 。
在这个信息传播迅速的时代,负面事件的影响往往会被放大。ChatGPT “变笨” 和模型偷换的消息在网络上迅速传播,引发了大量媒体的报道和讨论,这对 OpenAI 的品牌形象造成了极大的冲击 。如果 OpenAI 不能妥善处理这一问题,很可能会导致用户流失,尤其是那些对模型性能和服务质量要求较高的付费用户 。

从行业角度来看,这一事件也引发了人们对模型自主性和透明度的深刻反思 。在人工智能技术不断发展的今天,模型已经成为了许多应用的核心 。然而,像 OpenAI 这样的专有模型供应商,往往对模型的内部运作和决策过程保密,用户很难了解模型是如何工作的,以及为什么会给出这样的回答 。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237