美东时间5月14日(上周二),OpenAI首席科学家伊利亚·苏茨克沃(IlyaSutskever)官宣离职。同日,OpenAI超级对齐团队负责人之一的简·雷克(JanLeike)也宣布离职。上周五,OpenAI也证实,由苏茨克沃和简·雷克共同领导的“超级智能对齐团队”已经解散。5月18日凌晨,简·雷克在社交平台X上连发13条推文,爆料离职的真正原因及更多内幕。针对简·雷克的爆料信息,5月18日奥尔特曼也紧急发文回应:“我非常感激简·雷克对OpenAI在AI超级对齐研究和安全文化方面的贡献,对他离开公司感到非常遗憾。他指出了我们还有很多工作需要完成,我们对此表示认同,并致力于推进这些工作。在接下来的几天里,我会撰写一篇更详细的文章来讨论这个问题。”特斯拉首席执行官ElonMusk针对“超级对齐”团队解散这一消息评论称:“这显示安全并不是OpenAI的首要任务。总结来看,一是算力资源不够用,二是OpenAI对安全不够重视。简·雷克表示,应该将更多资源和精力投入到为新一代AI模型做准备的工作中,但目前的发展路径无法顺利达成目标。他的团队在过去几个月面临巨大挑战,有时难以获取足够的计算资源。简·雷克还强调,创造超越人类智能的机器充满风险,OpenAI正在承担这一责任,但安全文化和流程在追求产品开发过程中被边缘化。OpenAI必须转型为一家将安全放在首位的AGI公司。美国沃克斯网站17日称,去年11月,OpenAI董事会试图解雇首席执行官奥特曼,结果奥特曼很快夺回权力。此后,至少有5名公司最具安全意识的员工辞职或被解雇。美国《华尔街日报》称,苏茨克韦尔将注意力集中在确保人工智能不会伤害人类上,而包括奥特曼在内的其他人更渴望推动新技术的发展。美国《连线》杂志称,苏茨克韦尔是去年11月解雇奥特曼的4名董事会成员之一。该公司的消息人士向沃克斯网站透露,有安全意识的员工已经对奥特曼失去了信心,“这是一个信任一点点崩塌的过程,就像多米诺骨牌一块块倒下一样”。他们认为,奥特曼声称将安全放在首位,但在行为上却自相矛盾。美国TechCrunch科技博客网站18日称,OpenAI放弃安全研究,转而推出像GPT-4o这样的新产品,最终导致“超级对齐”团队的两位负责人辞职。目前尚不清楚科技行业何时或是否会实现必要的突破,以创造出能够完成人类所能完成的任何任务的人工智能。