字节跳动开源COMET技术,提升LLM训练效率
来源:万德丰 发布时间:2025-03-13
分享至微信

字节跳动近日开源了名为“COMET”的混合专家(MoE)架构优化技术,该技术能显著提升大型语言模型(LLM)的训练效率,达到1.71倍的提升。
据媒体报道,COMET已在超过1万个GPU集群中应用,节省了数百万个GPU运算小时。
豆包大模型团队指出,MoE虽然能将模型扩展至万亿参数级,但在分布式系统上运行时易遇到通讯瓶颈,降低运算效率。COMET技术旨在解决这一问题,提升执行速度。
在单一MoE层上,COMET能提高执行速度1.96倍,而在端对端执行上,平均提高1.71倍。
此外,COMET技术的开源有望激发更多技术创新。有分析认为,该技术的普及可能会降低市场对NVIDIA高端GPU的需求。
此前,李飞飞等研究人员使用阿里巴巴的开源模型,在少量GPU上短时间内就训练出了高效能的推理模型。
[ 新闻来源:万德丰,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论
暂无评论哦,快来评论一下吧!

万德丰
开创IC领域,共创美好未来!
查看更多
相关文章
字节跳动开源MoE技术,助力AI训练效率大幅提升
2025-03-12
字节跳动辟谣购寒武纪芯片
2025-03-14
消息称字节跳动计划推出AI智能眼镜
2025-04-11
DeepSeek联合清华大学推出AI模型训练新技术,将开源发布
2025-04-08
张一鸣成中国新首富,字节跳动估值达3650亿美元
2025-03-27
热门搜索
亚德诺(ADI),最新授权分销商名单
英飞凌收购Marvell汽车业务
关税
华为
台积电
中芯国际
联发科
高通
英特尔