亚马逊云部门继续扩张数据中心,同时还要争抢英伟达芯片
亚马逊云部门继续扩张数据中心,同时还要争抢英伟达芯片
亚马逊云部门继续扩张数据中心,同时还要争抢英伟达芯片财联社5月31日(编辑 赵昊(zhàohào))亚马逊旗下(qíxià)云计算部门AWS的负责人表示,公司正在全球范围内加速(jiāsù)扩建服务器场,并寻求获得更多英伟达最新的人工智能芯片。
周五(5月(yuè)30日),AWS首席执行官Matt Garman告诉媒体,今年早些时候,AWS在墨西哥开设了一个(yígè)数据中心集群,此外(cǐwài)还在智利、新西兰、沙特阿拉伯等地建设新设施。
亚马逊此前表示,其人工智能业务有望(yǒuwàng)在全年带来(dàilái)数十亿美元的营收。Garman补充道,这一数字“来自AWS”,代表的是(shì)客户对其按需AI 服务的使用量。
据了解,AWS是全球(quánqiú)最大的计算能力与数据(shùjù)存储租赁服务提供商(fúwùtígōngshāng),领先微软的Azure和谷歌云(gēyún)。本月早些时候,亚马逊公布的财报显示,AWS云业务第一季度营收录得292.67亿美元,同比增长17%。
但这一增速明显低于微软(wēiruǎn)和谷歌的(de)竞品。微软此前发布的财报显示,Azure云业务的收入增长了(le)21%;谷歌云的收入则增长了28%。
和微软、谷歌一样,亚马逊也在加快扩充AI运算能力。Garman称AWS正与(yǔ)英伟达合作,扩大其对(duì)这家顶级芯片制造商GB200芯片的储备,目前这些芯片已供AWS客户测试使用(shǐyòng)。
先前有报道称,英伟达的供应链合作伙伴——包括富士康、英业达、戴尔、纬创等,已攻克(gōngkè)GB200 AI服务器机架(jījià)的一系列技术难题,其出货量正在迅速攀升(pānshēng)。
GB200人工智能机架包含36个Grace中央处理器和72个Blackwell图形处理器,通过英(yīng)伟达(wěidá)的NVLink通信系统进行(jìnxíng)连接。
Garman说道:“需求非常(fēicháng)强劲。”Garman长期担任(dānrèn)AWS的(de)工程主管,后来担任销售主管,一年前他接替Adam Selipsky出任该部门的CEO。
Garman表示,他欢迎(huānyíng)OpenAI的模型能够部署在AWS上,尽管(jǐnguǎn)目前这家AI初创公司的模型运行在微软的服务器上。
不过,OpenAI年内早些时候(zǎoxiēshíhòu)获得了探索其他合作(hézuò)的许可,前提是微软不愿意自己承接这项业务。
Garman称,“我们鼓励所有合作伙伴在其他平台(píngtái)也能使用(shǐyòng)。我非常希望其他公司也采取类似的态度。”
他(tā)还表示,如果亚马逊合作伙伴Anthropic所开发的AI模型Claude登陆到微软的云平台上,“那也没关系(méiguānxì)”。
“Claude能将服务部署到别处,这是好事,不过我们看到其(qí)绝大多数使用仍发生在AWS上(shàng)。”Garman说。

财联社5月31日(编辑 赵昊(zhàohào))亚马逊旗下(qíxià)云计算部门AWS的负责人表示,公司正在全球范围内加速(jiāsù)扩建服务器场,并寻求获得更多英伟达最新的人工智能芯片。
周五(5月(yuè)30日),AWS首席执行官Matt Garman告诉媒体,今年早些时候,AWS在墨西哥开设了一个(yígè)数据中心集群,此外(cǐwài)还在智利、新西兰、沙特阿拉伯等地建设新设施。
亚马逊此前表示,其人工智能业务有望(yǒuwàng)在全年带来(dàilái)数十亿美元的营收。Garman补充道,这一数字“来自AWS”,代表的是(shì)客户对其按需AI 服务的使用量。
据了解,AWS是全球(quánqiú)最大的计算能力与数据(shùjù)存储租赁服务提供商(fúwùtígōngshāng),领先微软的Azure和谷歌云(gēyún)。本月早些时候,亚马逊公布的财报显示,AWS云业务第一季度营收录得292.67亿美元,同比增长17%。

但这一增速明显低于微软(wēiruǎn)和谷歌的(de)竞品。微软此前发布的财报显示,Azure云业务的收入增长了(le)21%;谷歌云的收入则增长了28%。
和微软、谷歌一样,亚马逊也在加快扩充AI运算能力。Garman称AWS正与(yǔ)英伟达合作,扩大其对(duì)这家顶级芯片制造商GB200芯片的储备,目前这些芯片已供AWS客户测试使用(shǐyòng)。
先前有报道称,英伟达的供应链合作伙伴——包括富士康、英业达、戴尔、纬创等,已攻克(gōngkè)GB200 AI服务器机架(jījià)的一系列技术难题,其出货量正在迅速攀升(pānshēng)。
GB200人工智能机架包含36个Grace中央处理器和72个Blackwell图形处理器,通过英(yīng)伟达(wěidá)的NVLink通信系统进行(jìnxíng)连接。
Garman说道:“需求非常(fēicháng)强劲。”Garman长期担任(dānrèn)AWS的(de)工程主管,后来担任销售主管,一年前他接替Adam Selipsky出任该部门的CEO。
Garman表示,他欢迎(huānyíng)OpenAI的模型能够部署在AWS上,尽管(jǐnguǎn)目前这家AI初创公司的模型运行在微软的服务器上。
不过,OpenAI年内早些时候(zǎoxiēshíhòu)获得了探索其他合作(hézuò)的许可,前提是微软不愿意自己承接这项业务。
Garman称,“我们鼓励所有合作伙伴在其他平台(píngtái)也能使用(shǐyòng)。我非常希望其他公司也采取类似的态度。”
他(tā)还表示,如果亚马逊合作伙伴Anthropic所开发的AI模型Claude登陆到微软的云平台上,“那也没关系(méiguānxì)”。
“Claude能将服务部署到别处,这是好事,不过我们看到其(qí)绝大多数使用仍发生在AWS上(shàng)。”Garman说。

相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎