Liquid AI发布LFM模型,性能超越传统LLM
来源:ictimes 发布时间:2024-10-06 分享至微信

Liquid AI,一家由麻省理工学院分拆的人工智能新创企业,近日推出了全新的多模态生成式AI模型——Liquid基础模型(LFM)。


该模型基于液体神经网络概念,与当前主流的Transformer架构设计不同,据称性能卓越,甚至超越了部分最好的大型语言模型(LLM)。


Liquid AI总部位于波士顿,由MIT的研究人员创立,是液体神经网络概念的先驱。


LFM有三种不同的模型,分别是最小的LFM 1.3B、LFM 3B和最大的LFM 40B MoE,其中“B”代表十亿,指的是模型参数的数量。参数数量越多,模型越能胜任更广泛的任务。


LFM 1.3B版本在许多第三方基准测试中均优于Meta的Llama 3.2-1.2B和微软的Phi-1.5,特别是在大规模多任务语言理解(MMLU)测试中,首次显著优于基于Transformer的模型。


此外,LFM-3B仅需16GB存储器,而Meta的Llama-3.2-3B模型则需超过48GB,展现了LFM在优化存储器效率方面的优势。


[ 新闻来源:ictimes,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!