傻大方


首页 > 人文 >

『芯片』英伟达终于成为下一个万亿芯片市场掌舵者( 二 )



按关键词阅读:


英伟达,无疑是其中不可忽视的新技术掌舵者之一。
到这里,你应该能清楚,为何英伟达会把一个最新的架构,首先用在了一块企业级芯片里。
一统云服务巨头“后院”
这次的A100,是英伟达的服务器级GPU产品 V100的继任者。
后者在2017年一经推出,就在两年内获得了巨大成功,直接打入了包括亚马逊、微软、阿里以及腾讯等云服务巨头的数据中心核心地带,成为各家GPU计算服务团队不可缺少的芯片产品。
至于为何在这个市场一路畅通无阻。一方面,是GPU的并行运算结构对训练机器学习和深度学习模型有着天然优势。
云服务商早已集体默认,与人工智能相关的任务,从数据处理效率、功耗等多方面考虑,使用GPU进行模型训练是最好的选择之一。
无论是阿里还是腾讯云,与GPU相关的产品页面,基本都涵盖了像英伟达V100与T4等热门型号的企业级GPU产品。
一位阿里工程师告诉虎嗅,目前几乎所有的感知类深度学习任务,都需要用到大规模深度学习,必须基于多机多卡进行模型训练。
『芯片』英伟达终于成为下一个万亿芯片市场掌舵者
文章图片
图片截自阿里云
而A100,据英伟达声称其在人工智能推理和训练方面比 V100要快近20倍。对此,自动驾驶公司文远之行技术总监钟华给出了更加细节化的解释:
实际上,人工智能开发者最关心的是FP16(单精度浮点数)与int8(用8bit的内存,存储一个整数数据;类似于数据类型,常用于推理模型)这两个重要参数。从两者的数据来看,其计算力相比V100提高了两倍不止。
此外,他还指出,在内存带宽这个指标上,A100比V100提升了40%以上,这意味在高速模型的训练上面是非常有帮助的,特别是自动驾驶所需要的实时训练模型。
『芯片』英伟达终于成为下一个万亿芯片市场掌舵者
文章图片
图片来自硬件评测媒体Tom’s hardware
而在许多GPU产品客户与爱好者所关心的工艺制程方面,过去1年里黄仁勋在多个场合被质问的“何时会缩短制程”这个问题,终于有了一个让人满意的答案。
让我们反向来看制程这个问题。
根据英伟达给出的这块A100尺寸来看,相当于制造者在一块826平方毫米的模具上塞进了540亿个晶体管;而V100则是在一块大约815平方毫米的模具上装有211亿个晶体管。
晶体管数量增长了2.5倍,但尺寸却仅大了1.3%。这代表差不多的身体,却装了双倍能量。
没错,这正是得益于芯片代工巨头台积电从12nm制程到7nm制程的技术升级。
“这在很大程度上让英伟达的显卡迷们松了一口气。毕竟两年前,英伟达在消费级市场的老对手AMD就推出了7nm GPU,而英伟达迟到了近2年。不过鉴于后者在2B商用领域的领先地位,这个时间点并不算晚。”


稿源:(ZAKER汽车)

【】网址:/a/2020/0516/ahnews39463.html

标题:『芯片』英伟达终于成为下一个万亿芯片市场掌舵者( 二 )


上一篇:「客车」免检的车 还需要换年检标志吗?

下一篇:毫无:为什么有的孕妇吐到怀疑人生,有的人毫无孕吐反应?


人文

北京晚报:生鲜,拼的是新鲜不是光线

阅读(24)

让生鲜“借光”售卖,其实由来已久,早在1984年,本报就曾经报道过利用灯光把肥肉馅儿“变”瘦肉馅儿的事,现在不过是钨丝灯换成LED灯,视觉原理、商业动机都没有变。应该变的是...