Google AI新动向:云端LLM放缓,Gemini深入终端
来源:ictimes 发布时间:2024-08-15 分享至微信

Google正加速将大型语言模型(LLM)融入终端设备,最新成果包括Pixel Buds耳机。除文本外,语音与视觉AI仍有巨大潜力。新芯片提升了模型整合度,Gemini Nano成为装置端AI的高效典范,确保数据隐私。


Google副总裁Rick Osterloh强调,智能手机是AI普及的关键,Gemini Nano保障数据不离设备。AI发展分云端与装置端,前者依赖TPU,后者则整合SoC、Gemini Nano、Android及应用。


Google与Apple类似,但Google掌握全栈技术,从芯片到应用。虽非芯片业最强,但技术与系统优势使其领先。发布会上,Google不仅展示三星手机,还提及摩托罗拉等伙伴,显示其开放态度。


Google硬件副总裁彭昱钧介绍,Gemini Nano结合Tensor G4处理器,优化多模态功能,如气象摘要。Gemini模型已应用于Pixel 8及三星S24,现正深化与自研芯片的整合。


超大模型迭代放缓,Google转向小模型创新,如Gemini 1.5 Flash,强调高效与定制化。Sundar Pichai指出,未来在于模型之上的解决方案构建。


DeepMind成员纪怀新表示,小模型能降低功耗与延迟,适合智能手表等平台。Pixel Buds Pro 2首尝Tensor A1芯片,支持降噪等功能,标志着Google在装置端AI的深入探索。


[ 新闻来源:ictimes,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!