百度万亿级图检索引擎!四大预训练模型开源,还“发糖”15亿元( 二 )


文章图片
而在复杂的语义理解需求下 , 这四大预训练模型可各自发挥它们的所长 。
与此同时 , 还可以做到技术融合 , 达到“1+1>2”的创新效果 。
不仅能理解语言 , 还可以理解图像 , 实现统一的跨模态语义理解 。
飞桨推理部署工具链、导航图
除了开发、训练和套件之外 , 在推理部署工具链的各个节点上 , 也有所升级:
PaddleSlim:进一步优化剪枝压缩技术 , 新增非结构化稀疏工具;率先支持OFA压缩模式 , 保障压缩后的精度 。 PaddleLite:发布了面向移动开发者的“开箱即用”工具集LiteKit , 大大降低端侧AI开发者的开发成本 。 PaddleServing:新增全异步设计的Pipeline模式 , 更好地支持现实业务中模型组合使用的问题 。 Paddle.js:新增支持多种Backend和主流图像分割及分类模型 , 在高兼容性的同时也兼顾了高性能 。飞桨除了在已有推理部署工具链上做了升级外 , 还提供了一张推理部署导航图 。
据了解 , 目前已经涵盖了300多条充分验证的部署通路 , 由此才形成了如下图般的导航图 。
百度万亿级图检索引擎!四大预训练模型开源,还“发糖”15亿元
文章图片
这棵树当中 , 从根部到每一个树枝都是一个完整打通的路径 , 可以帮助开发者顺利实现AI部署 。
而做出如此之举的原因 , 百度飞桨给出了他的理由:
每一次“走得通”都有迹可循 , 每一次“走不通”都能溯本求源 。
硬件生态成果
在部署方面的发布 , 除了“软”的一面 , 还有“硬”的一面 。
据了解 , 飞桨已经和包括百度昆仑在内的22家国内外硬件厂商 , 开展适配和联合优化工作 , 已经完成或正在适配的芯片或IP达到31款 。
这其中就包括了英特尔、英伟达、华为、海光、瑞芯微、安霸等芯片企业 。
百度万亿级图检索引擎!四大预训练模型开源,还“发糖”15亿元
文章图片
更具体的例子 , 飞桨在海光DCU上适配的模型已经超过50个 。
由此可见 , 在部署环节的硬件生态方面 , 百度飞桨已经做到了全面覆盖国内外硬件厂商 。
云原生机器学习核心PaddleFlow
随着人工智能技术深入到产业应用 , 产生了更广泛AI开发场景 , 对平台提出了更多样化的需求:
针对更广泛的垂直行业AI应用开发需求针对深度定制的AI开发平台需求具备AI原生的容器服务基于此 , 百度AI产品研发部总监忻舟宣布 , 正式开放飞桨企业版的“核”——PaddleFlow 。
百度万亿级图检索引擎!四大预训练模型开源,还“发糖”15亿元
文章图片
△百度AI产品研发部总监 , 忻舟
简而言之 , 这是一个专为AI平台开发者打造、易被集成的云原生机器学习核心系统 。
所具备的特色也是非常明显 , 即云原生、性能优异、轻量易用等 。
可以帮助AI平台开发者 , 高效构建更多细分场景和深度定制的AI平台 。
……
除了上述的六大发布之外 , 还有一些重磅升级 。
螺旋桨PaddleHelix于去年正式发布 , 而在今天正式升级到1.0版本 , 新增了化合物预训练模型ChemRL , 还将ChemRL模型应用到更多的下游任务 。
凭借螺旋桨的能力 , 百度在今年3月国际权威的图神经网络OGB上 , 在HIV和PCBA两个药物相关的数据集上 , 获得双冠军 。
百度万亿级图检索引擎!四大预训练模型开源,还“发糖”15亿元
文章图片
而作为国内率先加持量子机器学习的量桨 , 与飞桨框架2.0及其之后的版本同步更新 , 整体运行速度得到了大幅提升 , 在核心应用场景平均提升达到21.9% , 最高提升达到40.5% 。
与此同时 , 量桨还新增了量子核方法等特征提取方式等 。
而对于难度很大的纠缠提纯任务 , 量桨新增了最优化量子纠缠处理框架 , 给出了目前业界最优且可实施的提纯方案 。
还要“发糖”15亿元
除了上述的“六大发布”之外 , 在此次WAVESUMMIT2021上 , 百度飞桨的“发糖”还在继续 。
而且是非常实在的那种“糖”——发钱 , 15亿元 。
在百度飞桨“大航海”计划中 , 除了去年年底已推出的面向高校AI人才培养的“启航”之外 , 还包括:
“大航海”护航计划“大航海”领航计划“大航海”护航计划
10亿元 , 这是护航计划要在未来三年内资金投入 。
给谁?
10万企业和百万产业AI人才 。
怎么给?
整体来看 , 分为三个方面 , 包括技术、人才和生态 。
百度万亿级图检索引擎!四大预训练模型开源,还“发糖”15亿元
文章图片
护航之于企业 , 要达到的是智能升级 , 通过技术赋能、市场推广和资源导入 , 缩短技术创新到商业落地的路径 , 包括:飞桨技术伙伴计划、飞桨企业版(万有引力)、飞桨中国行 。