字节豆包推UltraMem架构,降推理成本83%
来源:万德丰 发布时间:2025-02-13
分享至微信

近日,字节跳动豆包大模型团队宣布推出全新稀疏模型架构UltraMem。该架构解决了MoE推理的高额访存问题,推理速度较MoE架构提升2-6倍,推理成本最高降83%。
UltraMem具有出色的Scaling特性,实验显示,在同等计算资源下,训练规模达2000万value的UltraMem模型能同时实现领先的推理速度和模型性能。该创新成果已被ICLR 2025接收,为AI领域提供新思路。
UltraMem参考PKM设计,但针对其缺陷进行改进,实现更高效访存和优质检索,同时降低显存和部署成本。在降低推理成本和提升速度的同时,UltraMem还保持了模型效果。
实验表明,UltraMem在模型效果和推理速度方面均优于MoE和PKM架构。
推理成本的降低将助推AI技术在更多领域应用,尤其是资源受限的场景。对于用户而言,UltraMem架构的突破和推理速度的提升可使AI应用响应更迅速,交互更流畅,优化使用体验,提高效率。
[ 新闻来源:万德丰,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论
暂无评论哦,快来评论一下吧!

万德丰
开创IC领域,共创美好未来!
查看更多
相关文章
DeepSeek引发热议,AI自发推理成亮点
2025-02-02
字节跳动发布豆包大模型1.5 Pro,效能超OpenAI
2025-01-24
豆包App新推实时语音通话,中文对话超逼真
2025-01-22
AZAPA将推半固态电池系统,生产成本降4成
2025-02-18
IBM发布Granite 3.2开源模型,强化推理能力并推视觉语言模型
2025-03-04
热门搜索
现代汽车韩国新建氢燃料电池系统工厂
陈立武出任英特尔CEO
华为
台积电
中芯国际
联发科
高通
英特尔
芯片