OpenAI仍然被其混乱的过去所困扰,正在努力成长

2025-09-15 14:13来源:本站

  

  科技行业推动人工智能的旗手OpenAI经常陷入困境,该公司正在对其管理团队,甚至组织方式进行重大改革,以吸引世界上一些最富有的公司的投资。

  在过去的几个月里,在线聊天机器人ChatGPT的制造商OpenAI聘请了一批技术高管、虚假信息专家和人工智能安全研究人员。该公司还增加了七名董事会成员,其中包括一名曾执掌美国国家安全局(National Security Agency)的四星陆军上将,同时还在努力确保其人工智能技术不会造成严重伤害。

  OpenAI还在与微软、苹果、英伟达和投资公司Thrive等投资者进行谈判,以达成一项价值1000亿美元的交易。该公司正在考虑改变其公司结构,以便更容易吸引投资者。

  这家位于旧金山的初创公司在管理层和一些顶级研究人员之间发生了多年的公开冲突之后,正试图让自己看起来更像一家严肃的公司,准备引领科技行业向人工智能进军。OpenAI还试图将去年围绕其首席执行官萨姆?奥特曼(Sam Altman)管理层的高调争斗抛到一边。

  但对20多名现任和前任OpenAI员工以及董事会成员的采访显示,转型一直很艰难。尽管新员工和新高管不断涌入,但早期员工仍在不断离开。快速增长并没有解决OpenAI应该是什么的根本问题:它是一个为人类造福而创建的尖端人工智能实验室,还是一个有抱负的行业巨头,专注于利润?

  今天,OpenAI拥有1700多名员工,其中80%是在2022年11月ChatGPT发布后开始工作的。奥特曼和其他领导人负责招聘高管,而新主席、前Facebook高管布雷特·泰勒(Bret Taylor)负责董事会的扩张。

  泰勒在给《纽约时报》的一份电子邮件声明中说:“虽然初创公司必须随着影响力的增长而自然地发展和适应,但我们认识到,OpenAI正在以前所未有的速度引领这一转变。”“我们的董事会和OpenAI的专业团队仍然专注于安全构建可以为每个人解决难题的人工智能。”

  一些新高管曾在其他科技公司担任要职。OpenAI新任首席财务官萨拉?弗莱尔曾是Nextdoor的首席执行官。OpenAI新任首席产品官凯文·威尔(Kevin Weil)曾在Twitter担任产品高级副总裁。本·尼莫(Ben Nimmo)领导了Facebook与欺骗性社交媒体活动的斗争。华金·坎德拉(Joaquin Candela)负责监督Facebook降低人工智能风险的工作。现在,两人在OpenAI担任相似的角色。

  OpenAI周五还告诉员工,曾在克林顿(Clinton)政府任职多年的克里斯?勒哈恩(Chris Lehane)将出任其全球政策主管。勒哈恩曾在Airbnb担任高级职务,今年加入OpenAI。

  但在2015年底帮助创建OpenAI的13个人中,只有三个人留下来,他们的使命是创造人工通用智能(AGI)——一种可以做人类大脑能做的任何事情的机器。其中一位是公司总裁格雷格·布罗克曼(Greg Brockman),他已经请假到年底,理由是在工作了近十年之后,需要休息一下。

  OpenAI的首席战略官Jason Kwon说:“这种增加和减少是很常见的,但我们是在这样的聚光灯下。”“一切都被放大了。”

  作为一个非盈利研究实验室,OpenAI从成立之初就一直在为自己的目标争论不休。2018年,该公司的主要支持者埃隆·马斯克(Elon Musk)在与其他创始人发生争执后离开了公司。2022年初,一群重要的研究人员担心商业力量会在适当的保护措施到位之前将OpenAI的技术推向市场,于是离开,组建了一家与OpenAI竞争的人工智能公司Anthropic。

  出于类似的担忧,OpenAI董事会去年年底突然解雇了奥特曼。五天后,他复职了。

  OpenAI已经从许多质疑奥特曼的员工中分裂出来,也从那些对建立一家普通的科技公司不太感兴趣,而更感兴趣的是进行高级研究的员工中分裂出来。与其他员工的抱怨相呼应,一名研究人员辞职,因为OpenAI试图从员工那里收回OpenAI的股票——如果他们公开反对,可能价值数百万美元。OpenAI已经扭转了这一做法。

  OpenAI是由两股并不总是兼容的力量驱动的。

  一方面,这家公司是由金钱驱动的,而且是大量的金钱。据一位知情人士透露,该公司目前的年收入已超过20亿美元。ChatGPT每周有超过2亿用户,是9个月前的两倍。目前尚不清楚该公司每年的支出是多少,但有人估计这一数字为70亿美元。微软已经是OpenAI的最大投资者,向这家人工智能公司拨款130亿美元。

  但OpenAI正在考虑对其结构进行重大调整,以寻求更多投资。现在,最初的OpenAI的董事会——作为一个非营利组织成立的——控制着这个组织,没有投资者的正式投入。据三位知情人士透露,作为新一轮融资谈判的一部分,OpenAI正在考虑进行一些调整,使其结构对投资者更具吸引力。但它尚未确定新的结构。

  OpenAI还受到许多人工智能研究人员(包括OpenAI的一些员工)担忧的技术的推动。他们认为,这些技术可能有助于传播虚假信息,推动网络攻击,甚至摧毁人类。这种紧张关系导致了11月的爆发,包括首席科学家和联合创始人伊利亚·苏斯克维尔(Ilya Sutskever)在内的四名董事会成员罢免了奥特曼。

  在奥特曼重新掌权后,一片阴云笼罩了公司。苏斯凯弗还没有回去工作。

  (去年12月,时报起诉OpenAI和微软侵犯了与人工智能系统相关的新闻内容的版权。)

  Sutskever和另一位研究员Jan Leike建立了OpenAI的“超级联盟”团队,该团队探索确保其未来技术不会造成伤害的方法。

  今年5月,Sutskever离开OpenAI,创办了自己的人工智能公司。几分钟后,莱克也离开了,加入了Anthropic。“安全文化和流程已经让位于闪亮的产品,”他说。Sutskever和Leike没有回应置评请求。

  其他人也跟着他们走了。

  最近离开OpenAI的研究员威廉·桑德斯(William Saunders)说:“我仍然担心,OpenAI和其他人工智能公司没有一个足够的计划,来管理他们正在筹集数十亿美元建造的人类级别和超越人类级别的人工智能系统的风险。”

  随着Sutskever和Leike的离开,OpenAI将他们的工作转移到了另一位联合创始人John Schulman的手下。虽然超级联盟团队专注于未来几年可能发生的危害,但新团队探索了近期和长期风险。

  与此同时,OpenAI聘请了Friar担任首席财务官(她之前在Square担任过同样的职位),Weil担任首席产品官。弗瑞尔和韦尔没有回应置评请求。

  一些前高管不愿透露姓名,因为他们签署了保密协议,他们对OpenAI麻烦的过去表示怀疑。其中三人提到了曾领导OpenAI准备团队的亚历山大·马德里(Aleksander Madry),该团队负责探索灾难性的人工智能风险。在对他和他的团队如何融入更大的组织产生分歧后,Madry转向了一个不同的研究项目。

  当一些员工离开时,他们被要求签署法律文件,表示如果他们公开反对该公司,他们将失去OpenAI的股票。这在员工中引发了新的担忧,即使在公司取消了这种做法之后。

  据《纽约时报》看到的一条消息副本显示,6月初,研究员托多尔马尔科夫(Todor Markov)在该公司的内部消息系统上发布了一条消息,宣布因这个问题辞职。

  他说,OpenAI的领导层在这个问题上一再误导员工。他认为,正因为如此,不能信任公司的领导层来打造AGI——这与公司董事会解雇奥特曼时所说的话如出一辙。

  他写道:“你经常谈到我们有责任安全开发AGI,并广泛分配它的好处。”“你怎么能指望被委以重任?”

  几天后,OpenAI宣布,退休的美国陆军将军保罗·中曾根(Paul M. Nakasone)加入了公司董事会。最近的一个下午,有人问他如何看待自己进入的环境,因为他是人工智能领域的新手。

  “人工智能新手?我对人工智能并不陌生,”他在电话采访中说。“我管理国安局很多年了,我一直在处理这些事情。”

  上个月,帮助监督OpenAI新安全工作的联合创始人舒尔曼也从公司辞职,称他想回到“亲自动手”的技术工作。他还加入了Anthropic。

  “扩大公司规模真的很难。你必须一直做出权衡的决定。有些人可能不喜欢这些决定。”“事情要复杂得多。——《纽约时报

  ×

边互网声明:未经许可,不得转载。