OpenAI再爆信任危机,安全团队核心人员离职

来源: 红星新闻
2024-05-26 08:47:38

  来源:财经杂志

  2023年以来OpenAI频繁引发安全、伦理问题的争议,甚至是诉讼。OpenAI内部一条矛盾主线是,安全团队不满公司激进研发AI技术、加速商业化,对安全问题不够重视

  明星AI创业公司OpenAI,有足够动力优先保证AI(人工智能)的安全吗?OpenAI一些员工对此表示怀疑,并选择离职。

  5月15日-17日,OpenAI超对齐团队两位负责人接连离职。其中包括OpenAI联合创始人、首席科学家伊利亚·苏茨克维尔(Ilya Sutskever),以及该团队的负责人简·雷克(Jan Leike)。

  “超对齐”指的是,用技术引导、控制AI。按照OpenAI的原计划,公司20%的算力资源要用于这项工作。

  5月17日,简·雷克离职时在社交媒体上透露,他离开的原因是“与OpenAI领导层在公司核心优先事项上的意见相左”。在简·雷克看来,OpenAI必须成为一家安全第一的AI公司。公司应该把更多资源用在系统安全、性能监控、潜在风险准备,维护人类社会安全等问题上。

  苏茨克维尔被认为是“AI理想主义者”。他曾在2023年11月联合其他几位独立董事辞退OpenAI首席执行官(CEO)萨姆·奥尔特曼 (Sam Altman),这引发了连续一周的“宫斗”。当时的矛盾关键是,苏茨克维尔希望谨慎研发AI且不应再大规模融资,但奥尔特曼希望获得更多融资并激进研发AI。

  苏茨克维尔和雷克离职后,OpenAI解散了超对齐团队。该团队剩余员工将重新分配岗位。超对齐工作将在公司内以松散的研究小组形式继续存在。

  2021年以来,OpenAI一条长期存在的矛盾主线是——安全专家不满奥尔特曼激进推动AI技术、加速商业化,但对安全问题重视不足。

  没兑现的安全承诺

  2023年7月,苏茨克维尔和雷克在OpenAI共同组建了超对齐团队。这个团队致力于确保AI得到安全控制。OpenAI成立该团队的目的是,向外界展示公司对AI安全负责任的形象。

  超对齐团队成立的背景是,2023年3月1000多名美国企业家、科学家、AI从业者联名发表公开信,呼吁所有AI实验室立即暂停训练比OpenAI旗下GPT-4更强大的AI大模型。原因是,他们对人工智能失控可能会产生的毁灭性影响表示担忧。

  随后,奥尔特曼在2023年上半年积极参加了美国政府部门“人工智能监管”的听证会,并多次公开表示对人工智能监管的支持。超对齐团队随后成立。OpenAI在该团队成立时曾承诺,会把20%算力资源用于该团队的工作。

  不过,2023年12月以后,超对齐团队的工作陷入停滞。当时它们发布了最后一篇论文。有媒体报道,超对齐团队从未分配到被许诺的20%计算资源。它在公司每季度定期算力分配中获得的资源很少,其需求经常被管理层拒绝。这导致超对齐团队的研究进展受阻。

  这被认为是超对齐团队成员离职的重要原因。此次超对齐团队成员离职并非孤例。2021年至今,OpenAI安全领域的多位技术专家频繁离职。一条长期存在的矛盾主线是,安全专家不满奥尔特曼激进推动AI技术,对安全问题不够重视。

  一种说法是,在算力资源有限的前提下,OpenAI将承诺给 安全领域的投入用到了提升模型效果。雷克公开表示,过去几年,安全、流程已不再是OpenAI首要关注的问题,光鲜的产品才是重点。

  一家中国人工智能基础软件供应商的创始人对我们表示,OpenAI地位并不稳固,它被谷歌、Meta追得很凶,“对奥尔特曼来说,杀出来最重要”。他进一步分析,OpenAI当下必须考虑商业化的问题。因为只有模型突破才能会给市场、投资者带来信心。超对齐团队关注的安全问题,在当下反而成了OpenAI技术迭代和商业变现的阻碍。

  商业化高于安全

  OpenAI创立于2015年,原本是一家非营利性的研究组织。2019年奥尔特曼成为公司CEO。由于缺少研究经费,奥尔特曼当时改变了OpenAI的组织架构——在非营利公司下设置了有“利润上限”的可盈利子公司,并接受了微软第一笔10亿美元投资。

  在奥尔特曼的设想中,这既可以满足投资人的财务投资回报,也能让OpenAI实现“安全且有益的AGI(通用人工智能)”使命。非营利组织的董事会,是监督两者实现平衡的保障。

  在发展过程中,OpenAI一步步加速商业化。2019年引入微软投资时,OpenAI管理层曾向员工保证短期内不需要商业化,只需专注用AI技术解决问题。2020年奥尔特曼告诉员工,OpenAI需要赚钱才能继续研究。2023年1月ChatGPT发布后仅两个月,用户数突破一亿人。OpenAI成为人工智能领域的明星企业,并开启了大模型的激烈竞赛。

  OpenAI从此无法再慢下来。它需要更多钱,采购更多算力,迭代更先进的大模型。2023年12月,媒体报道称,OpenAI在进行新一轮融资。如果融资成功,估值将超过1000亿美元。

  2023年下半年以来,谷歌、亚马逊投资的AI创业公司Anthropic、AI创业公司Mistral AI等厂商接连升级大模型产品。OpenAI备受压力,旗下产品用户访问量一度出现负增长。OpenAI在2024年4月1日放开注册限制。此举被认为,OpenAI希望增加用户量,获得更多融资、更高的估值。

  随着商业化加速,2023年以来OpenAI频繁引发安全伦理争议,甚至是法律诉讼。

  2023年12月,《纽约时报》曾起诉OpenAI和微软侵犯其版权。诉状称,OpenAI的ChatGPT和微软的Copilot基于数百万篇媒体报道内容进行模型训练,并利用这些内容解答用户提问。美国投资管理公司Tamarack Advisory研究员黄少萍今年1月曾对我们表示,OpenAI和微软正遭遇AI带来的伦理问题。如果诉讼最终成立,OpenAI和微软可能需要支付巨额法律赔偿费用,并可能限制在AI领域进一步发展。

  今年5月13日,OpenAI推出了新的大模型GPT-4o。发布会当天奥尔特曼在社交媒体上发文“her”,暗指GPT-4o的对话功能可以实现电影《Her》中人类与AI恋爱场景。由于GPT-4o语音模式之一“Sky”与美国女演员斯嘉丽·约翰逊的声音十分相似,这引发了争议。

  电影《Her》中女性AI角色的配音演员正是斯嘉丽·约翰逊。斯嘉丽·约翰逊公开表示,OpenAI在2023年9月就曾联系她,并在GPT-4o发布前再次联系她,希望以她的声音作为AI机器人的配音,但她拒绝了。

  OpenAI随后公开回应称,Sky的声音不是斯嘉丽·约翰逊……出于对斯嘉丽·约翰逊的尊重,已暂停在产品中使用Sky的声音。

责任编辑:欧阳名军

  本届双年展将持续至2023年3月12日。在三个月的展期里,双年展组委会还将联合北京市内多个艺术机构和各大艺术院校,为观众呈现20场以上活动,并举办讲座、论坛等多种形式的公教活动,共同打造首都的艺术城市氛围。

  中国经济是一片大海,虽有风狂雨骤之时,却以其壮阔深邃,经得起风高浪急。习近平主席强调:“中国经济韧性强、潜力大、活力足,长期向好的基本面依然不变。”我国连续多年稳居世界第二大经济体、第二大消费市场、制造业第一大国、货物贸易第一大国、外汇储备第一大国;我国具有全球最完整、规模最大的工业体系、强大的生产能力、完善的配套能力,拥有1.6亿多户市场主体和1.7亿多受过高等教育或拥有各类专业技能的人才,还有包括4亿多中等收入群体在内的14亿多人口所形成的超大规模内需市场,正处于新型工业化、信息化、城镇化、农业现代化快速发展阶段,投资需求潜力巨大;我们如期全面建成小康社会,打赢人类历史上规模最大的脱贫攻坚战,历史性地解决了绝对贫困问题,我国发展站在新的更高历史起点上。面向未来,有社会主义市场经济的体制优势,有超大规模市场的需求优势,有产业体系配套完善的供给优势,有勤劳智慧的广大劳动者和企业家等人力优势,只要把各方面的优势和活力真正激发出来,完整、准确、全面贯彻新发展理念,加快构建新发展格局,着力推动高质量发展,就能够在激烈的国际市场竞争和大国战略博弈中始终立于不败之地。我们对中国经济发展前途充满信心!

  了解病情后,曹钰主任带领急诊科医护给老人做了初步检查和紧急氧疗,老人的血氧饱和度逐渐恢复到95以上。第二天,老人被转入重症监护室,进一步监测治疗。目前,老人病情已经稳定。

  武汉长江医院内科医生卢洁等人,曾对2020年3月至4月武汉江岸区的71例老年新冠肺炎患者进行基本情况及心理问卷调查,其中大多数老年人来自养老院或是独居空巢老人。调查发现,在疫情下老年新冠患者由于自身疾病和社会家庭原因,面对应激公共事件缺乏经验,更容易产生自卑、焦虑、抑郁等各种障碍性负面情绪。

  他建议,要通过扩大公共服务支出,提高受疫情影响较大的中低收入群体的消费能力,支持居民刚性和改善性住房需求,松绑房地产限购限贷政策,鼓励金融机构降低按揭贷款利率,积极恢复旅游等服务消费,释放出行消费的巨大潜力。

  针对2022年“汛期反枯”特殊情况,长江三峡通航管理局强化航道巡查探测,及时启动相关预案,组织疏散大吃水危险品船舶6次,充分利用电站调峰时机疏散船舶,实施三峡船闸换向运行9次,有效平衡过闸船舶交通流;建立重点物资船舶、新能源船舶等优先过坝通道,保障4024万吨民生物资便捷过坝,同比增长6.84%。

崔振杰

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
用户反馈 合作

Copyright © 2023 Sohu All Rights Reserved

搜狐公司 版权所有