AI推理模型引领潮流,算力需求飙升百倍
来源:龙灵 发布时间:2025-03-03
分享至微信

AI领域正经历重大变革,传统大型语言模型(LLM)逐渐让位于更强大且更耗资源的推理模型和AI代理。科技巨头正扩建AI数据中心,以应对算力需求的激增。
自OpenAI推出推理模型o1以来,多家企业跟进,推出自家推理模型。OpenAI更宣布将全面投入推理模型开发。据NVIDIA透露,AI推理模型消耗的算力资源比一般LLM多出百倍以上。
这是因为推理模型在回答问题时,需花费较长时间进行“思维链”对话,且生成的文字数量与算力消耗成正比。此外,结合深度研究功能时,算力需求进一步上升。
尽管DeepSeek宣称其R1模型训练成本大幅降低,但推理模型的普及化将推动整体算力需求大幅上升。DeepSeek的开源策略也鼓励更多企业使用,预期普及范围将更广。
多家车厂已计划将DeepSeek模型整合至车载系统,腾讯旗下通讯App微信的AI查找功能也已测试导入R1。
为满足算力需求,Google、微软和Meta在2025年的资本支出高达2150亿美元,年增45%,主要用于AI数据中心。
[ 新闻来源:龙灵,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论
暂无评论哦,快来评论一下吧!

龙灵
开创IC领域,共创美好未来!
查看更多
相关文章
台湾新创APMIC与Twinkle AI合作推出繁体中文推理模型
2025-04-07
DeepSeek引领AI热潮,推动中国存储器需求飙升
2025-03-14
韩国首个开源推理AI模型EXAONE Deep发布
2025-03-19
小米发布首个开源AI推理大模型MiMo
2025-04-30
AI算力需求激增,HBM成存储产业新战场
2025-03-24
热门搜索
亚德诺(ADI),最新授权分销商名单
英飞凌收购Marvell汽车业务
关税
华为
台积电
中芯国际
联发科
高通
英特尔