突发!OpenAI又迎人事动荡!安全主管辞职,“超级智能对齐团队”已被解散

来源: 澎湃网
2024-05-18 10:10:25

  每经编辑 杜宇

  5月18日凌晨,OpenAI安全主管、“超级智能对齐团队”负责人Jan Leike在社交平台宣布,离开OpenAI。这也是本周三OpenAI联合创始人兼首席科学家Ilya Sutskever辞职之后,又有一名高管辞职。

  Jan Leike在X上公开透露了他离职的部分原因。他的潜台词是,他与OpenAI高层在公司的核心优先事项上存在长期分歧,最终双方的分歧已经严重到无法调和的地步。团队在推动其研究项目和争取计算资源时遇到了重大阻碍,缺乏资源会严重影响研究的进度和质量。

  本周五(当地时间5月17日),OpenAI证实,由Ilya和他的亲信Jan Leike共同领导的“超级智能对齐团队”已经解散。此后,该团队的研 究工作将被整合到OpenAI的其他研究小组中。至此,一度几乎导致OpenAI分崩离析的宫斗事件终于尘埃落定。

  马斯克针对OpenAI的长期人工智能风险团队已经解散这一消息评价称:“这显示安全并不是OpenAI的首要任务。”

  OpenAI首席执行官Sam Altman感谢并肯定了Jan Leike在OpenAI的贡献和领导能力。并表示,未来几天内会发表一篇更长的文章,来阐述OpenAI对于产品安全的规划和所做的事情。

  加入OpenAI之前,Jan Leike曾在谷歌DeepMind工作,主要负责从人类反馈中进行强化学习的原型设计。在OpenAI期间,参与了InstructGPT、ChatGPT的开发以及GPT-4的安全对齐工作。

  对于Ilya、Jan 的辞职,有人表示这两位安全领导高管都辞职了,以后谁来负责OpenAI的产品安全呢?

  也有一位网友爆料,想离开OpenAI没问题,但是你必须签署一份“离职协议”, 如果你不签署终身不诋毁承诺,将失去所有已获得的OpenAI股权。不知道Jan Leike的一番吐槽,是否会影响到他的股权。

  在去年7月份,OpenAI宣布成立一个新的研究团队“超级对齐”,要用AI监督AI的方式,解决超智能“AI对齐”问题。“AI对齐”的意思是,要求AI系统的目标要和人类的价值观与利益相一致。公司创始人之一伊利亚·苏茨克沃被任命为团队共同负责人。

  而现在AI风险团队解散是公司内部最近出现动荡的又一证据,也再次引发了人们对该公司在开发AI产品时如何平衡速度与安全的质疑。OpenAI章程规定,必须安全地开发通用人工智能(AGI),即可以与人类匹敌或超越人类的技术。

  每日经济新闻综合公开资料

  免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。

责任编辑:张倩

  虽然多次串供,并努力销毁证据,但闫学会深知,她的所作所为严重违反了党纪国法,一旦暴露将面临纪法严惩。为了消除内心的担忧和恐慌,她开始多次联系此前经人介绍认识,声称可以算命并能作法替人消除灾祸、人称“黄姨”的神秘女子,向其咨询官运前途,拜大神、求大仙,希望得到神灵护佑,去除升迁阻碍、免除“牢狱之灾”。

  之所以有这样的固定搭配,是因为炭是锦州烧烤的灵魂。相比电烤,炭烤(虽然不健康)火力旺,在燃烧过程中散发炭香,把肥肉烤得滋滋冒油,外焦里嫩,羊肉串就有了灵魂。

  对于“什么是正常”的提问,王晓东说,“就像北生所模式与国外大部分研究所模式没有本质区别一样,大家不觉得北生所有多么独特,就是一群科学家在好奇心和荣誉驱动下去做自己的事,他们在意的也是中国顶尖的学术水平能产生怎样的国际影响力,而不是自说自话。”

  据印度媒体报道,印度将于4月底在“拉达克地区”列城举行G20“青年峰会”,这被认为将“向中国释放明确信号”。就在上月底,由印度科技部主办的一场G20相关边会刚刚在伪“阿鲁纳恰尔邦”(我藏南地区)举行,中方拒绝出席。

  如今,北生所又走到了一个新的十字路口。王晓东说,北生所二期已经落成,实验室还要继续扩张,后续需要更多资金支持,这些钱从哪儿来,仍是摆在面前的一道难题。“北生所现在是否还承担着体制改革试验田的重任?它到底是一家什么性质的研究机构?这些都还没有定论。”

  2006年11月,裴君任五常市委书记,2011年4月转任哈尔滨市国土资源局党委书记、副局长,2015年1月退休,8年多后,此番被查。

黄伟贞

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
用户反馈 合作

Copyright © 2023 Sohu All Rights Reserved

搜狐公司 版权所有