Liquid AI发布LFM模型,性能超越传统LLM
来源:ictimes 发布时间:2024-10-06 分享至微信
Liquid AI,一家由麻省理工学院分拆的人工智能新创企业,近日推出了全新的多模态生成式AI模型——Liquid基础模型(LFM)。
该模型基于液体神经网络概念,与当前主流的Transformer架构设计不同,据称性能卓越,甚至超越了部分最好的大型语言模型(LLM)。
Liquid AI总部位于波士顿,由MIT的研究人员创立,是液体神经网络概念的先驱。
LFM有三种不同的模型,分别是最小的LFM 1.3B、LFM 3B和最大的LFM 40B MoE,其中“B”代表十亿,指的是模型参数的数量。参数数量越多,模型越能胜任更广泛的任务。
LFM 1.3B版本在许多第三方基准测试中均优于Meta的Llama 3.2-1.2B和微软的Phi-1.5,特别是在大规模多任务语言理解(MMLU)测试中,首次显著优于基于Transformer的模型。
此外,LFM-3B仅需16GB存储器,而Meta的Llama-3.2-3B模型则需超过48GB,展现了LFM在优化存储器效率方面的优势。
[ 新闻来源:ictimes,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论
暂无评论哦,快来评论一下吧!
ictimes
聚焦于半导体行业芯闻
查看更多
相关文章
德国AI初创发布合规多语模型
2024-09-03
IBM 推出 Granite 3.0:专为企业打造的高性能AI模型
2024-10-22
热门搜索