
云端服务龙头亚马逊(Amazon)AWS举办纽约峰会,宣布一系列生成式人工智能(Generative AI)相关新服务,包括导入NVIDIA H100 GPU。相关人员强调,其曾为首家将GPU上云的业者,而定制化芯片也是其市场优势。
AWS re:Invent为其年度大会,于每年下旬举行。此次于纽约贾维茨会议中心举办的一日峰会,则定调为mini re:Invent,为了往后能否举办2次年度活动试水温。纽约峰会约1万多人出席,包含30~40家各国媒体。
AWS数据库、数据分析、机器学习(ML)副总裁Swami Sivasubramanian于会中表示,生成式AI科技来到了转折点,因大量数据可得、算力规模升级、ML相关工具持续创新。此次发布的新服务涵盖算力、基础模型和应用场景等各层面。
其宣布EC2 P5执行个体导入NVIDIA H100 GPU,盼满足客户在运作AI/ML和高效能运算工作负载时的需求。
AWS大中华区数据产品技术总监王晓野指出,前一代P4采用的是NVIDIA A100芯片,而AWS与NVIDIA合作超过12年,当年也是首家将GPU带到云上的业者。
这一波生成式AI热潮,带动对模型训练和推论、运算效能的要求升高,AWS盼将最尖端的算力资源带给客户,而客户也可选择使用AWS定制化芯片。
至于国内业者能否使用到NVIDIA H100在云端的资源?国内媒体表达关切,AWS相关人员则未提供回应。
事实上,Google于5月的I/O大会期间也宣布,新运算服务采用NVIDIA H100 GPU。
NVIDIA近期推出的AI运算云服务DGX Cloud,获甲骨文(Oracle)、微软(Microsoft)Azure、Google Cloud等业者支持,但AWS并未加入。此外,AWS人员曾传出正考虑是否采用超微(AMD)的AI芯片,但此次峰会并未听闻相关消息。
AWS于4月宣布推出Amazon Bedrock服务,此次进一步扩大基础模型对接范围,新增支持加拿大AI新创Cohere的基础模型,既有合作伙伴如Anthropic、Stability AI的最新模型也可透过AWS取得。
AWS在全球和台湾市场均为云端服务龙头,然在国内市占率仅排名第五,因当地云服务市场仍以阿里云、华为云、腾讯云、百度云等业者为主。
据了解,会使用AWS服务的国内企业,多为须「出海」打国际市场者,不少国内业者也是采混合云策略,即依业务导向选择云服务商,并可指定数据储存位置。与此同时,微软和Google在国内的业务则日渐萎缩。
责任编辑:张兴民
暂无评论哦,快来评论一下吧!
