按关键词阅读:
AMD周一宣布推出其Instinct MI100 , 该GPU旨在为超级计算机和高端服务器加速AI软件和繁重的数学工作负载 。
文章插图
这是一个7nm的台积电制造的GPU , 代号为Arcturus , 是第一个以AMD的CDNA架构为特色的GPU 。 我们被告知硬件具有120个计算单元和7,680个流处理器 , 它们能够执行高达11.5 TFLOP的FMA64和FP64精度很高 。 AMD吹嘘说 , 对于FP16矩阵操作 , 峰值为184.6 TFLOPS , 对于的bfloat16数字为92.3 TFLOPS 。 它在PCIe卡上提供 。
“ AMD致力于数据中心GPU和加速处理的企业代表布拉德·麦克雷迪(Brad McCredie)表示: “今天 , 随着我们推出全球最快的HPC GPU AMD Instinct MI100 , AMD向着万亿级计算的发展迈出了重要的一步 。
当我们的研究人员把最新的科学计算平台与先进的计算平台相结合时 , AMD的研究人员就可以把它与最新的科学计算平台结合起来 , 门针对科学计算中重要的工作负载 , 旨在为科学家和研究人员在HPC中的工作提供卓越的基础 。
AMD在上周的简报中没有向采访人员透露晶体管的数量或管芯的尺寸 。 但是 , 公开的规范显示 , 每个芯片都使用PCIe 4进行接口 , 包含32GB HBM2内存 , 每秒最多可维持1.2 TB的内存带宽 , 最大TDP为300W 。 它们还具有通过三个AMD Infinity Fabric Links传输每张卡每秒340GB带宽的能力 。
MI100加速器旨在与Nvidia的最新A100 GPU竞争 。 AMD和Nvidia的部分在彼此之间取得了一些胜利 。 例如 , A100具有更多的RAM和内存带宽(高达80GB和2,039 GB / s);MI100具有更高的FP64性能(11.5 TFLOPS与A100的9.7 TFLOPS);A100似乎在较低的精度下具有较高的性能 , 并且具有较高的最大TDP 。 哪一个给您带来更多收益 , 取决于工作量 。
AMD认为其MI100加速器将为客户提供更便宜的途径来构建百亿亿次超级计算机 。 称与A100相比 , 每美元的用户性能提高1.8倍至2.1倍 。 它由AMD的ROCm 4.0开源平台支持 , 该平台可以加速机器学习框架PyTorch和Tensorflow 。
【AMD推出其MI100 GPU 高端AI芯片 用于超级计算机】MI100 GPU旨在与AMD的Epyc服务器处理器一起使用 , 有望通过繁重的机器学习工作负载和模拟来进行诸如气候建模 , 天体物理学和流体动力学之类的工作 。 MI100将通过包括HPE , Dell , Supermicro和Gigabyte在内的各种供应商提供 , 预计将于本月开始发货 。
稿源:(未知)
【傻大方】网址:http://www.shadafang.com/c/111J2GE2020.html
标题:AMD推出其MI100 GPU 高端AI芯片 用于超级计算机