「」登陆云边端,AI芯片产业打响全线战争


对于AI行业 , 算法、算力和数据是三大基础要素 。 深度学习模型的不断优化带来的算法的成熟应用 , 5G网络以及边缘、终端的普及让海量数据的获取和传输变得唾手可得 , 而将算法和数据协调统一处理的算力资源就成为当前AI发展的关键制约因素了 。
「」登陆云边端,AI芯片产业打响全线战争
本文插图
算力的提升在于芯片的性能是否得到飞跃 。 由于深度学习算法对芯片性能有着极为苛刻的效率要求和超高的并行计算要求 , 传统的通用CPU在AI计算当中性价比极低 。 因此 , 适合于深度学习要求的海量并行计算和计算加速的AI芯片就成为当前AI巨头们角力的赛场 。
广义上来说 , 包括像GPU、FPGA以及 ASIC(专用芯片)这些提供AI算力的芯片都可以称之为AI芯片 。 按照任务划分 , AI芯片可以分为训练芯片和推理芯片;按部署位置划分 , 可以分为云端芯片、边缘侧和终端芯片 。
其中 , 训练芯片对算力、精度和通用性要求较高 , 一般部署在云端 , 多采用“CPU+加速芯片”这类异构计算模式;推理芯片更加注重综合性能 , 更考虑算力耗能、延时、成本等因素 , 在云端和边终端都可以部署 。
云端AI芯片部署在公有云、私有云和混合云等大型数据中心 , 能满足海量数据处理和大规模计算 , 可通过多处理器并行完成各类AI算法的计算和传输 , 具有通用性 。 边终端AI芯片要求体积小、能耗少、性能略低 , 主要用于摄像头、手机、边缘服务器等终端设备中 , 满足有限的AI能力 。
从2016年谷歌TPU专用芯片大放异彩之后 , AI芯片快速经历了2017年资本涌入、巨头纷至沓来 , 2018年新玩家争相入局、初露峥嵘 , 2019年至今 , AI芯片进入全面商用落地的激烈竞争格局当中 。
按照Gartner数据 , 伴随着全球AI产业的快速增长 , 未来5年 , AI芯片仍然会以每年50%的速度增长 。 在过去的一年当中 , AI芯片在云端、边缘侧以及终端领域都取得了明显进展 。
我们将通过梳理AI芯片在这三大细分市场的最新进展 , 来进入其行业纵深 , 找到AI芯片行业发展的最新动向 。
新势力入局 , 云端AI芯片的抢滩争夺战
在云端的数据中心 , 无论是深度学习的算法训练还是推理服务 , 都绕不开英伟达的GPU产品 。 AI算法训练的主要芯片配置是GPU+ASIC , 全球主流的云端硬件平台都在使用英伟达的GPU 进行加速 。 而在推理服务上 , 主要还是采用CPU+GPU的方式进行异构计算 , 这得益于GPU强大的并行计算能力、通用性以及成熟的开发环境 , 但GPU的高能耗和昂贵成本 , 也成为众多云厂商的心中隐痛 。
相比之下 , FPGA的低延迟、低功耗、可编程性优势和ASIC的特定优化和执行特定模型的效能优势就非常突出了 。 因此 , 我们看到越来越多的云厂商和芯片厂商开始尝试CPU+FPGA或CPU+ASIC 这样的异构方式 , 推出更符合自身云端算力要求的AI芯片 。
「」登陆云边端,AI芯片产业打响全线战争
本文插图
2019年4月 , 高通推出了面向数据中心推理计算的云端AI芯片Cloud AI 100 , 峰值性能超过350TOPS , 与其他商用方案相比 , 每瓦特性能提升10倍 。
而早先云服务巨头亚马逊也已推出了机器学习推理芯片AWS Inferentia , 最高算力可以达到128 TOPS , 在AI推理实例inf1可搭载16个Inferentia芯片 , 提供最高2000TOPS算力 。
而在国内 , 阿里巴巴在去年9月推出自研架构和算法的AI推理芯片含光800 , 主要用于和电商业务相关的云端视觉场景 , 在RESNET50基准测试中获得单芯片性能第一的成绩 。
华为则推出了全球最快的AI训练集群Atlas900 , 集成了数千颗昇腾910芯片 , 总算力可以输出256-1024 PFLOPS@F16 , 相当于50万台PC计算能力的强劲算力 。