傻大方


首页 > 人文 >

『芯片』英伟达终于成为下一个万亿芯片市场掌舵者( 三 )



按关键词阅读:


一位芯片从业者认为,英伟达最近预定台积电的5nm订单,也在一定程度上有了赶超对手制程的“进取心”。
『芯片』英伟达终于成为下一个万亿芯片市场掌舵者
文章图片
尺寸与制程,这尺寸的确大,的确是迄今为止最大的显卡
不过,虽然芯片测评专家们都发表了对英这块英伟达“新炸弹”的专业看法。但遗憾的是,或许是由于英伟达在游戏行业里拥有太大的影响力,以至于没有太多人关注这块企业级芯片为云端应用技术做了哪些微妙的调整。
刚才我们提到,在数据中心的环境下,执行大规模线上机器学习任务,需要多机多卡同时运行,参见很多国内外大学成立的超级计算项目,以及全国上亿人可能在同时使用的各种平台(淘宝、百度、抖音等等)的智能化搜索与个性化推荐。
因此,如何有效分配这些“多机多卡”的算力,是云计算工程师们特有的关注点:
“你会发现,A100新增了一个叫MIG的功能。根据描述,这个功能允许在单个A100上做资源隔离,能最多分割为7个独立GPU。”
正在研发基于异构计算架构数据处理平台的开源技术创业公司Zilliz合伙人、高级架构师顾钧,首先注意到了这个面向云端应用的新功能。
“这可以看作是一种让更多人分享GPU能力的方式。换句话说,每个人分到的GPU资源都是互相隔离的,不会发生互相干扰,抢占算力的情况,同时也能让GPU的投资回报率达到最大化。
我估计这也是为云端容器化提供便利。”
云端容器化,是当前最为主流的云计算技术之一。
简单来说,用这项技术就是为了降低算力成本,将每个可能会互相争抢算力资源的云端任务,隔离在一个个孤立的“瓶子”里,做到互不打扰。
同时,又能根据任务的更迭,对其所需要的资源进行灵活的资源调度。
“举个例子,一块CPU假定有24个核(48线程),在容器化后,是可以把一个CPU的某个部分,譬如4个核8线程分配给一个容器。但之前GPU是没办法这么切分的。”顾钧解释。
因此,很多院校和企业此前大多在利用英伟达提供的vGPU虚拟化技术来“切分”GPU,分着给大家用,主要目的就是为了提高使用效率,降低计算成本。
譬如,VMware 中国研发先进技术中心的技术总监张海宁曾给给一所大学设计过vGPU切换方案:
白天学生做开发练习的简单任务,就切成4块,让4个人一起使用GPU;到了晚上项目要做模型训练,算力需求加大,就切换回1:1,确保100%算力。
当然,需要购买成千上万块企业级GPU的大型云服务商,会更加“吝啬”。用阿里工程师的一句玩笑话就是:“V100这么贵,当然要仔细琢磨怎么切得最划算,同时还能让利用率最大化。”
但也有人指出,这种GPU虚拟化技术对性能有一定的损耗,同时也会让机器启动速度变慢。而容器技术则会在一定程度上避免这些问题。


稿源:(ZAKER汽车)

【】网址:/a/2020/0516/ahnews39463.html

标题:『芯片』英伟达终于成为下一个万亿芯片市场掌舵者( 三 )


上一篇:「客车」免检的车 还需要换年检标志吗?

下一篇:毫无:为什么有的孕妇吐到怀疑人生,有的人毫无孕吐反应?


人文

北京晚报:生鲜,拼的是新鲜不是光线

阅读(24)

让生鲜“借光”售卖,其实由来已久,早在1984年,本报就曾经报道过利用灯光把肥肉馅儿“变”瘦肉馅儿的事,现在不过是钨丝灯换成LED灯,视觉原理、商业动机都没有变。应该变的是...