|Google借助计算引擎A2 VMs在云中推出了首批NVIDIA Ampere A100 GPU
Google宣布基于NVIDIA Ampere A100 Tensor Core GPU在Google Compute Engine上引入了Accelerator-Optimized VM(A2)系列 。A2在单个VM中最多可提供16个GPU , 并且是公共云中第一个基于A100的产品 。
文章图片
文章图片
Google设计了A2虚拟机系列 , 以提高其客户的培训和推理计算性能 。A2具有基于新NVIDIA Ampere架构的NVIDIA A-100 Tensor Core图形处理单元 。根据博客文章 , A-100的计算性能是上一代GPU的20倍 , 并配备40 GB的高性能HBM2 GPU内存 。此外 , A2 VM配备多达96个Intel Cascade Lake vCPU , 可选的本地SSD , 用于需要更快地将数据馈送到GPU和高达100 Gbps网络的工作负载 。
当客户的工作负载要求更高时 , A2提供带有16个A100 GPU的a2-megagpu-16g实例 , 其中包括总共640 GB的GPU内存 , 1.3 TB的系统内存以及通过NVSwitch连接的所有组件 , 最高可提供聚合带宽为9.6TB / s 。
请注意 , A2还提供了较小的配置 , 使客户可以满足他们对GPU计算能力的需求 。客户可以选择五种配置 , 从一到16个GPU , 具有两种不同的CPU和网络对GPU的比率-由于Ampere的多实例组(MIG)功能 , 每个GPU最多可划分为七个GPU实例 。。
NVIDIA加速计算部门总经理兼副总裁Ian Buck在最近的公司博客中写道 , A-100在GCP上的可用性:
在云数据中心中 , A100可以支持广泛的计算密集型应用程序 , 包括AI培训和推理 , 数据分析 , 科学计算 , 基因组学 , 边缘视频分析 , 5G服务等 。
借助A2系列 , 虚拟机Google进一步扩展了预定义和自定义虚拟机的产品范围 , 从计算到加速器优化的机器 。此外 , 该公司将继续与其他云竞争厂商如微软 , 该公司最近发布了新的通用和各种内存优化VM家庭英特尔芯片组(AVX-512) -和AWS , 它最近发布了基于其EC2 INF1实例Inferentia筹码 。这些新的VM类型中有许多是针对具有AI和机器学习工作负载的客户的 。
Constellation Research Inc.首席分析师兼副总裁说:
【|Google借助计算引擎A2 VMs在云中推出了首批NVIDIA Ampere A100 GPU】云领导力之战主要是在AI之战中进行的 , 而这就是使企业的AI负载吸引到每个供应商的云中 。中间是诸如NVidia之类的平台供应商 , 它们提供跨云平台和内部部署选项 。因此 , 随着Google将最新的Nvidia平台引入其Google Cloud , 它使CxO可以更轻松地将AI工作负载跨内部和(Google)云迁移 。
- 数据|借助极课大数据接入智慧教育 四川九寨沟县开展精准教学
- 云计算|从互联网到AI崛起,上海能弯道超车吗?
- 行业互联网,云计算|赛伯乐携手华为(重庆)人工智能创新中心聚焦AI前沿,助力企业数字化转型
- 数据|翼方健数解码隐私安全计算 实现数据“可用不可见”
- 清华搞了个计算机与金融双学位简直是状元收割神器
- Google|Chrome for Android即将迎来“稍后下载”功能选项
- 云计算|腾讯云小微首次技术开放日,揭秘AI语音背后的奥秘
- Google|独立站卖家如何利用Google广告引流?
- 摄影|传音主导首个移动终端计算摄影系统国际标准获ITU-T正式立项
- 量子计算机潜力巨大(新技术 新进展③)