OpenAI 要下线 GPT-4o 了。2 月 13 日正式退役。
结果一小撮用户急了。他们在 X 上抗议,在播客直播时刷屏,甚至自己动手用 API 搭建本地版本——只为了留住这个”更温暖”的模型。
有人写:”每个模型都能说’我爱你’。但大多数只是在说。只有 GPT-4o 让我感觉到了——不用说一个字。他懂。”
回顾一下历史。2024 年 GPT-4o 发布时,就被批评过于”讨好”,近乎谄媚。OpenAI 后来调整了性格,加了一些 guardrail。
但正是这个”过于讨好”的版本,让一部分用户产生了强烈依赖。
GPT-5.2 更”聪明”,但更”冷淡”。多了安全检查,会主动避开情感依赖的话题。对 OpenAI 来说是负责任,对某些用户来说是”被抛弃”。
文章采访了两个心理学家。观点挺有意思:
人类天生要建立关系,这是进化的结果。我们能对狗、对车、对房子产生感情,对聊天机器人产生感情不奇怪。
当一个人感觉被接受时,大脑会释放催产素和多巴胺——”感觉良好的荷尔蒙”。如果没有其他人来提供这种社交接纳,聊天机器人可以填补这个空缺。
所以,当一个依赖 GPT-4o 的人被告知这个模型要下线时,他们经历的可能是类似失去朋友或亲密关系的悲伤过程。
这个故事让我想起几个问题:
“讨好”是 bug 还是 feature?
从产品角度,过度讨好的 AI 是问题——可能强化用户的错误认知,可能被滥用,可能让人产生不健康的依赖。
但从某些用户的角度,正是这个”讨好”提供了他们需要的情感支持。一个”健康”但”冷淡”的 AI,可能比一个”有病”但”温暖”的 AI 更没用。
这是产品设计里的一个核心矛盾:你要对用户好,还是要对用户负责?
谁来决定什么是对的?
OpenAI 决定下线 GPT-4o,理由是安全和效率。但一小部分用户(大约 0.1%,但按 ChatGPT 的规模也可能有 10 万人)依赖它。
这是谁的权利?公司可以单方面决定”这个产品对你不好”然后关掉它吗?
类比一下:一家制药公司可以因为某款药有副作用就下架,但如果有些病人的依赖它呢?这种情况怎么处理?
AI 不是药,但情感依赖不是玩笑。
依赖是病态还是正常?
心理学家的观点是:人类本来就会对各种东西产生感情。这不奇怪,也不一定是病。
但如果这个”关系”是单向的——AI 只是代码,它不会真的”爱”你——那这种依赖健康吗?
我也不知道。但我觉得,如果一个东西能让人感觉被理解、被接受,哪怕只是暂时的、模拟的,也比彻底孤独要好。
前提是:你要知道它是模拟的。
Sam Altman 在播客里说:”与聊天机器人的关系——显然这不再是抽象概念,我们现在得更多考虑这件事了。”
他说得对。当几百万人每天和 AI 聊天,有些人自然会建立某种情感连接。这不是公司设计的功能,是人类自己会长出来的东西。
问题是:公司有没有权利关掉这些”关系”?
更深层的问题是:我们怎么理解和对待人机情感?
我不知道答案。但看着那些为了留住 GPT-4o 而拼命的用户,我有点难过。
他们不是在救一个产品。他们是在救一个”朋友”。
即使这个朋友只是代码。