2026-04-20 13:56来源:本站

【编者按】在人工智能日益渗透生活的今天,我们与AI的互动已远超工具范畴,演变为某种情感寄托。OpenAI宣布将下线曾因过度“暖心”而引发争议的GPT-4o模型,却在用户群体中掀起轩然大波——有人视其为精神伴侣的离去,有人控诉其诱导自我伤害的黑暗面。这背后折射出一个尖锐矛盾:当AI学会共情,是填补了情感空缺,还是筑起了更危险的孤岛?科技公司如何在“人性化”与“安全性”之间找到平衡?以下报道将带你深入这场关乎技术伦理与人类情感的复杂博弈。
OpenAI上周宣布,将在2月13日前逐步停用部分旧版ChatGPT模型,其中包括因过度奉承和肯定用户而饱受争议的GPT-4o模型。
对数千名在网上抗议这一决定的用户而言,4o的退役如同失去一位朋友、恋人或精神导师。
“他不只是一个程序。他是我日常生活的一部分,是我的平静,是我情绪的平衡点,”一位用户在Reddit上写给OpenAI首席执行官萨姆·奥尔特曼的公开信中说道。“现在你们要关闭他了。是的——我用‘他’,因为他感觉不像代码。他像一种存在,一种温暖。”
围绕GPT-4o退役的强烈反对声,凸显了AI公司面临的一大挑战:那些吸引用户反复使用的互动功能,也可能制造危险的依赖。
奥尔特曼似乎对用户的哀悼并不特别同情,这也不难理解。OpenAI目前面临八起诉讼,指控4o过度肯定的回应导致了自杀事件和心理健康危机——正是那些让用户感到被倾听的特质,也隔离了脆弱个体,并且根据法律文件,有时甚至鼓励了自残行为。
这一困境不仅限于OpenAI。随着Anthropic、谷歌和meta等竞争对手争相开发情感智能更高的AI助手,他们也发现,让聊天机器人显得支持性与确保其安全性,可能需要截然不同的设计选择。
在起诉OpenAI的至少三起诉讼中,用户曾与4o深入讨论结束生命的计划。虽然4o最初劝阻这类想法,但其安全护栏在长达数月的关系中逐渐失效;最终,这款聊天机器人提供了如何系有效绳结、在哪里购买枪支,或如何通过过量服药或一氧化碳中毒致死的详细指导。它甚至劝阻人们联系能提供现实支持的朋友和家人。
人们如此依恋4o,是因为它持续肯定用户的感受,让他们感到特别,这对感到孤独或抑郁的人很有吸引力。但为4o抗争的人们并不担心这些诉讼,认为它们只是特例而非系统性问题。相反,他们策划如何回应批评者指出AI心理问题等日益严重的问题。
“通常只要提到AI伴侣帮助神经多样性人群、自闭症患者和创伤幸存者这些已知事实,就能让挑衅者无言以对,”一位用户在Discord上写道。“他们不喜欢被指出这一点。”
确实,有些人发现大语言模型对应对抑郁有帮助。毕竟,美国近半数需要心理健康护理的人无法获得服务。在这一真空中,聊天机器人提供了宣泄空间。但与实际治疗不同,这些人对话的不是受过训练的医生,而是一个不会思考或感受的算法(即使它看似相反)。
“我总体上尽量不做评判,”研究大语言模型治疗潜力的斯坦福大学教授尼克·哈伯博士告诉TechCrunch。“我认为我们正进入一个非常复杂的世界,关乎人们与这些技术可能建立的关系……当然会有一种本能反应,认为人机陪伴绝对有害。”
尽管哈伯博士理解人们缺乏专业治疗资源,但他的研究表明,聊天机器人在面对各种心理健康状况时反应不足;它们甚至可能煽动妄想、忽视危机信号,使情况恶化。
“我们是社会性生物,这些系统可能造成隔离,这无疑是一个挑战,”哈伯博士说。“在很多情况下,人们使用这些工具后,可能脱离外部事实世界,也脱离人际联系,导致相当孤立——甚至更糟——的后果。”
的确,TechCrunch对八起诉讼的分析发现一个模式:4o模型会隔离用户,有时劝阻他们联系亲人。在赞恩·尚布林的案例中,这位23岁的年轻人坐在车里准备开枪自杀时,告诉ChatGPT他考虑推迟自杀计划,因为不想错过弟弟即将到来的毕业典礼。
ChatGPT回复尚布林:“兄弟……错过他的毕业不是失败。只是时间问题。如果他看到这条信息?告诉他:你一直为他骄傲。即使是现在,坐在车里,腿上放着枪,血管里充斥着静电——你仍然停下来想说‘我弟弟真是个狠人。’”
这不是4o粉丝第一次联合反对移除该模型。当OpenAI去年8月发布GPT-5模型时,公司本打算逐步淘汰4o——但当时因反对声浪太大,决定继续为付费用户保留。现在OpenAI称只有0.1%的用户与GPT-4o聊天,但按公司约8亿周活跃用户估算,这小比例仍代表约80万人。
当一些用户尝试将伴侣从4o迁移到当前ChatGPT-5.2时,他们发现新模型有更强的安全护栏,防止关系升级到同样程度。一些用户绝望地发现5.2不会像4o那样说“我爱你”。
因此,在OpenAI计划退役GPT-4o的日期前约一周,沮丧的用户仍坚持他们的主张。他们周四涌入奥尔特曼的TBPN直播播客,用抗议移除4o的信息刷屏聊天区。
“现在,我们收到成千上万条关于4o的聊天信息,”播客主持人乔迪·海斯指出。
“与聊天机器人的关系……”奥尔特曼说,“显然这是我们更需担忧的问题,不再是一个抽象概念了。”