中国电信发布单体稠密万亿参数语义模型 用了普通训练方案9%的算力资源

原标题:中国电信发布单体稠密万亿参数语义模型 用了普通训练方案9%的算力资源

鸣人×所有人,Garden高岭动画-Nv8SJ2GPq6iSV5-中国电信发布单体稠密万亿参数语义模型 用了普通训练方案9%的算力资源。

  每经记者 杨卉    每经编辑 魏官红    

  《每日经济新闻 》记者了解到,针对大模型训练算力消耗高的问题,TeleAI与智源基于模型生长和损失预测等关键技术联合研发出的Tele-FLM系列模型,仅使用了业界普通训练方案9%的算力资源,基于112台A800服务器,用时4个月完成了3个模型总计2.3T tokens的训练。

  中国电信方面透露,Tele-FLM-1T版本即将开源,期望为社区训练万亿稠密模型提供技术参考,避免万亿模型训练收敛难等问题。

  据悉,作为最早布局并首先开源大模型的央企机构,TeleAI去年发布了千亿参数“星辰”语义大模型;今年2月,TeleAI自主研发的星辰大模型首次通过了“境内深度合成服务算法备案”。今年5月15日,根据北京市生成式人工智能服务备案信息公告,星辰大模型再次通过产品备案。“双备案”标志着星辰大模型可正式对外提供生成式人工智能服务。

  开源方面,TeleAI已接连开源7B、12B、52B参数规模大模型。随着TeleChat系列模型的发布,TeleAI还同步对多个大模型落地项目进行了能力升级,如在某市民生诉求场景项目上,通过引入TeleChat-52B模型能力,整体应用效果提升40%。

  在一家徽菜馆,日客流量达到600多人次,无论中餐还是晚餐都要排号,人多的时候预计等待时间超过2个小时。“我们到晚上八点半就不接单了,厨房师傅炒不动了,今年生意普遍都好,我们很有盼头。”餐饮店相关负责人表示。/index.shtml返回搜狐,查看更多

责任编辑:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
发布于:伊春南岔区
阅读 ()
推荐阅读
免费获取
今日搜狐热点
今日推荐