AI推理模型引领潮流,算力需求飙升百倍
来源:龙灵 发布时间:2025-03-03 分享至微信

AI领域正经历重大变革,传统大型语言模型(LLM)逐渐让位于更强大且更耗资源的推理模型和AI代理。科技巨头正扩建AI数据中心,以应对算力需求的激增。


自OpenAI推出推理模型o1以来,多家企业跟进,推出自家推理模型。OpenAI更宣布将全面投入推理模型开发。据NVIDIA透露,AI推理模型消耗的算力资源比一般LLM多出百倍以上。


这是因为推理模型在回答问题时,需花费较长时间进行“思维链”对话,且生成的文字数量与算力消耗成正比。此外,结合深度研究功能时,算力需求进一步上升。


尽管DeepSeek宣称其R1模型训练成本大幅降低,但推理模型的普及化将推动整体算力需求大幅上升。DeepSeek的开源策略也鼓励更多企业使用,预期普及范围将更广。


多家车厂已计划将DeepSeek模型整合至车载系统,腾讯旗下通讯App微信的AI查找功能也已测试导入R1。


为满足算力需求,Google、微软和Meta在2025年的资本支出高达2150亿美元,年增45%,主要用于AI数据中心。

[ 新闻来源:龙灵,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!