快讯
突发!OpenAI又迎人事动荡!安全主管辞职,“超级智能对齐团队”
时间:2024-05-22 13:59
评价称:“这显示安全并不是OpenAI的首要任务。”
OpenAI首席执行官Sam Altman感谢并肯定了Jan Leike在OpenAI的贡献和领导能力。并表示,未来几天内会发表一篇更长的,来阐述OpenAI对于产品安全的规划和所做的事情。
加入OpenAI之前,Jan Leike曾在谷歌DeepMind工作,主要负责从人类反馈中进行强化学习的原型设计。在OpenAI期间,参与了InstructGPT、ChatGPT的开发以及GPT-4的安全对齐工作。
对于Ilya、Jan的辞职,有人表示这两位安全领导高管都辞职了,以后谁来负责OpenAI的产品安全呢?
也有一位网友爆料,想离开OpenAI没问题,但是你必须签署一份“离职协议”, 如果你不签署终身不诋毁承诺,将失去所有已获得的OpenAI股权。不知道Jan Leike的一番吐槽,是否会影响到他的股权。
在去年7月份,OpenAI宣布成立一个新的研究团队“超级对齐”,要用AI监督AI的方式,解决超智能“AI对齐”问题。“AI对齐”的意思是,要求AI系统的目标要和人类的价值观与利益相一致。公司创始人之一伊利亚·苏茨克沃被任命为团队共同负责人。
而现在AI风险团队解散是公司内部最近出现动荡的又一证据,也再次引发了人们对该公司在开发AI产品时如何平衡速度与安全的质疑。OpenAI章程规定,必须安全地开发通用人工智能,即可以与人类匹敌或超越人类的技术。
免责内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。