亚马逊云科技的AI新版图:升级自研CPU和AI芯片,强化与英伟达合作

2023年12月14日 87502阅读

21世纪经济报道记者倪雨晴 拉斯维加斯报道

2023年,生成式AI成为科技巨头们年度峰会的第一关键词。

美国当地时间11月28日,亚马逊云科技(AWS)在re:Invent全球大会上开启一系列产品更新,既有芯片、存储等基础设施,也有大模型服务平台和AI助手。同时,亚马逊云科技还和英伟达进一步强化合作,大会首日的焦点几乎都和生成式AI相关。

亚马逊云科技CEO Adam Selipsky在现场展示了AWS的生成式人工智能堆栈图(Generative AI Stack),一共分为三层,首先是基础设施,AI需要巨大的算力,其中就包括GPU、自研的Trainium等芯片;中间是AI大模型服务Amazon Bedrock,为开发者提供大模型支持、构建自己的应用;上层则是应用,比如新推出的AI助手Amazon Q。

(图片:倪雨晴摄)

大会上,AWS也在以上三个方面层层升级。而在战况激烈的云赛场上,微软云、谷歌云等也在系统性布局,从芯片、大模型再到应用,其都已入场。随着生成式AI进化迭代,云计算也将迎来新的战事。

左手自研芯片,右手结盟英伟达

AWS的自研芯片有多个产品,包括通用服务器芯片Graviton、用于机器学习的训练和推理的芯片Inferentia和Trainium等。此次大会上AWS更新了两个系列,分别是Amazon Graviton4和Amazon Trainium2。

Graviton系列是基于Arm架构的服务器CPU,首款产品在2018年发布,近5年间一共更迭了四代。

据介绍,Graviton4与Graviton3处理器相比,性能提升高达30%,独立核心增加50%以上,内存带宽提升75%以上,为在Amazon EC2上运行的工作负载提供更优的性能和能效。

Trainium2芯片则专为生成式AI而来,日益增加的生成式 AI 应用背后是基础模型和大语言模型的支持,而这些大模型都需要使用海量数据集进行训练。如今最先进大模型通常包含数千亿甚至数万亿个参数或变量,需要更强大的“暴力计算”。

AWS表示,Trainium2与第一代Trainium芯片相比训练速度提升多达4倍,并能在EC2 UltraClusters中部署多达100000个芯片,可以在极短的时间训练基础模型(FMs)和大语言模型(LLMs),同时能效提升多达2倍。

而在自研芯片领域,谷歌推出TPU多年,近期微软刚发布两款芯片用于Azure云服务,云厂商的芯片竞争也愈演愈烈,但在GPU领域,各家都离不开英伟达。

此次,AWS就和英伟达进一步合作,英伟达创始人黄仁勋也来到现场,共同讨论围绕生成式AI的开发。一方面,黄仁勋宣布部署全新的GPU系列 ,包括最新的GH200,而AWS将是第一家在云端配备具有多节点NVLink技术的NVIDIA GH200 Grace Hopper Superchips的云厂商。

(图片:倪雨晴摄)

另一方面,NVIDIA DGX Cloud 也将登陆 AWS。黄仁勋表示,DGX Cloud是英伟达的人工智能工厂,可让企业和软件开发人员通过浏览器登入,即可获得英伟达的超级计算机DGX的AI算力。这是英伟达提供的训练“云服务”,此前英伟达与微软Azure、谷歌OCP、Oracle OCI等其他云厂商一起托管DGX Cloud基础设施。如今,AWS也加入合作,在AWS上运行的DGX Cloud将加速训练含有超过1兆参数的生成式AI与大型语言模型。

亚马逊云科技的AI新版图:升级自研CPU和AI芯片,强化与英伟达合作

同时,英伟达还与AWS合作推动Ceiba项目,该超级计算机将配置16384颗NVIDIA GH200超级芯片,能处理高达65 exaflops速度等级的AI运算,从而推动生成式AI的创新。

推AI助手Amazon Q ,大模型应用赛跑 

基础设施之外,AWS也在大模型相关产品上迭代。Selipsky指出,客户经常对如何最好地实施和使用人工智能有许多相关问题,AWS希望通过其Bedrock平台提供帮助。

Bedrock平台是中间的工具层,Bedrock能够让用户使用大语言模型和其他基础模型构建生成式AI的应用。Selipsky表示,Bedrock具有定制和安全优势,目前已经有超过一万名客户在使用Bedrock,未来还会不断扩大。

“(生成式AI)现在还处于早期阶段,”Selipsky谈道,不同模型通常会在不同的适用场景中表现更好,适应能力非常重要。

因此,Bedrock提供了对大量模型的访问支持,包括Anthropic的Claude模型。Anthropic被认为是OpenAI的劲敌,今年亚马逊向Anthropic投资了40亿美元,随后Anthropic的模型也成为了AWS服务中的一部分。目前,亚马逊已经推出自研的Amazon Titan AI大模型,据悉更多模型也即将推出。

同时,Bedrock也推出新功能,包括新的fine tuning(微调)工具、新的检索增强生成(RAG)技术、新的Agents使模型能够针对特定用例进行更加定制和优化。

此外,AWS还在会上推出了生成式AI驱动的助手Amazon Q,它主要用于工作场景中,比如辅助员工完成日常工作、总结文件、回答公司政策等。此前,OpenAI推出了火爆的ChatGPT,谷歌推出了Bard智能聊天机器人,如今亚马逊也与之展开竞争。

目前,Amazon Q的预览版本已上线,部分功能可免费使用,正式版本中企业用户的费用为每人每月20美元,具备额外功能的版本费用为每人每月25美元。对比来看,Microsoft 365的Copilot和 Google Workspace的Duet AI均需支付每人每月30美元。

Selipsky指出,很多公司表示由于安全和隐私的担忧,已经禁止了企业使用这些人工智能助手。对此,亚马逊设计Amazon Q时更注重安全性和隐私性。

可以看到,当前的云计算跑道上,单点竞争的时代已过,对大厂而言基础设施、大模型、应用服务都逐步成为标配要素。尤其是生成式AI时代来临,大而全的竞争正在开启,眼下微软云继续下注加码,AWS也在加速奔跑。

文章版权声明:除非注明,否则均为启科财经原创文章,转载或复制请以超链接形式并注明出处。