是因为Q被泄露?OpenAI 解雇两名AI安全研究员

nidongde2024-04-17 11:09:1715


最近,OpenAI 解雇了两名AI安全研究员,据称他们在一场内部权力斗争后泄露了机密信息。




近期,OpenAI 因内部权力斗争和涉嫌泄露机密信息,解雇了两名AI安全研究员。这一事件不仅引起了业界的广泛关注,也折射出高科技公司内部复杂的人际关系和管理挑战。

01

被解雇的研究员是谁?

根据《The Information》的报道,被解雇的两名研究员分别是 Leopold Aschenbrenner 和 Pavel Izmailov。Aschenbrenner 曾是“超级对齐”团队的一员,专注于先进人工智能的治理和控制技术的开发。而Izmailov 则曾参与AI推理工作,并在AI安全团队工作过一段时间。

AI安全团队的作用是什么?AI安全团队负责确保AI技术的开发和应用不会带来未预见的风险和负面影响,包括信息泄露、误用等。


02

内部权力斗争

事件的背景涉及到一次内部权力的斗争,据称 Aschenbrenner 是首席科学家 Ilya Sutskever 的盟友。Sutskever 曾试图在去年秋季罢免现任CEO Sam Altman,但未成功。自那以后,Sutskever 便未再公开露面,而OpenAI 和 Altman 对此事也没有明确的公开评论。Altman 在三月中旬曾表示 Sutskever 状况良好,但拒绝评论其在公司的具体角色。

03

信息泄露事件

涉及安全问题的是,OpenAI 近期只有一次较大的信息泄露事件,即Q*的泄露,它是公司用于GPT-5的大型语言模型逻辑单元,强化了语言模型的推理能力。尽管目前尚不清楚 Aschenbrenner 和 Izmailov 是否直接涉及此次泄露,但他们的研究领域与泄露的内容高度相关。


04

解雇的可能原因

报道指出 Aschenbrenner 与“有效利他主义”运动有联系,这一运动重视对抗AI的潜在危害,而非追求短期利润或生产效益。在Altman 短暂被罢免期间,围绕公司AI发展的安全性是否足够曾有过争议,这可能是解雇他们的原因之一。

有效利他主义是什么?有效利他主义是一种思想和社会运动,强调使用科学和理性方法优化做善事的效果,尤其在AI领域,重视预防AI技术可能带来的长远风险。


OpenAI 此次解雇事件可能标志着公司在内部治理、信息安全和员工管理方面的新挑战。此事件不仅影响了公司的运作,也可能对外界对AI技术发展和管理的看法产生深远影响。


关注《森林聊AI商业》公众号


了解 AI 如何塑造商业的未来


本文链接:https://www.fsby.vip/chatgpt/52.html

相关文章

网友评论