对大模型推理成本的优化,可通过很多技术手段实现。首先是模型本身,模型结构、训练方法都可以持续改进,包括业界很关注的MoE(混合专家模型),就是优化推理成本很好的解决方案。其次是工程上的优化。大模型的调用量越大,优化推理成本的空间也越大。以前的模型都是单机推理,大模型用的是分布式推理。所以如果能把各种各样底层算力用得更好,推理成本就会大大降低。
从浪潮信息发布的“源2.0-M32”开源大模型来看,其基于“源2.0”系列大模型已有工作基础,创新提出和采用了“基于注意力机制的门控网络”技术,构建包含32个专家(Expert)的混合专家模型(MoE),并大幅提升了模型算力效率,模型运行时激活参数为37亿,在业界主流基准评测中性能全面对标700亿参数的LLaMA3开源大模型。
264.23MB
查看701.66MB
查看36.6MB
查看474.90MB
查看
网友评论更多
303彭忠茜a
广西:“妇联+检察”联动 助力未成年人健康成长🌷🗿
2024/06/04 推荐
187****2443 回复 184****7324:海信百度合作发力自动驾驶➮来自滕州
187****235 回复 184****5322:习近平出席中阿合作论坛第十届部长级会议开幕式并发表主旨讲话❝来自梅州
157****7238:按最下面的历史版本🕐🌠来自黄山
7184雷滢明457
拆解废旧锂电池“卖课”,离教唆犯罪有多远💡🦋
2024/06/03 推荐
永久VIP:美丽癫人癫事大赏❶来自万州
158****6968:两网民造谣周杰伦长沙演唱会遭黄牛大量倒卖,警方:拘留三日🌇来自青州
158****536 回复 666🤒:以信息技术助力教育高质量发展(人民时评)🚨来自三明
297卓永妮ht
芝华仕荣膺亚洲品牌500强📌⛒
2024/06/02 不推荐
乔梦纨gs:《经济信息联播》 20240527🚝
186****4383 回复 159****4891:财经观察 | 以产聚人,以人兴城 各地“招才引智”再升级🔈