商汤为什么要建 AI 计算中心( 二 )


比如,在传统的工业生产线上,客户希望 AI 算法能够检测钢铁的焊缝是不是符合标准。这个行业本来没有与之匹配的智能软件和平台,应用的矛盾就在于,以尽可能小的预算去解决这个问题。这样才是真正实现了降本增效。如果「一个算法本身要花几十万、上百万,算法确实有用,但是太贵了。」
如今,面对这样的需求时,商汤「通过 AIDC 的支撑和加持,能够让算法的生产成本下降到过去的 1/10。」
要实现成本下降,就要充分利用大模型带来的优势。AIDC 支持万亿参数大模型训练,可以衍生出超过 2 万多个商用模型,帮助产业界以极低的下游数据采集成本,快速验证多个新场景。
AI 行业里近年来出现了「大模型」的趋势。「用预训练大模型,去指导小模型的训练,实现跨场景应用方向。」杨帆介绍,AIDC 能够更好地支持大模型,再用大模型指导长尾模型的自动化生产、自动化训练,从而能够提高效率,降低成本。
大模型如何帮助实现长尾的细分场景呢?例如,有地方提出需求,希望算法能够检测到有人落水,然后发出通知,相关人员接到通知后第一时间前往救助。
解决这个长尾场景的难点在于,落水的视频素材本身就不多,样本数据就不多。那么采用大模型的思路,不是单独训练识别落水素材的算法,而是先用各种人类行为的视频素材作为数据。在更广泛的范围收集大量数据,训练出大模型。再用这个模型作为「老师」,训练出一个只会识别落水行为的「学生」。这样,只需要较少的样本数量,就能够得到比较好的识别结果。
使用大模型作为支撑的好处在于:遇到频率低,不常见的应用需求时,基于少量的专有数据,使用小样本达到结果。
03
助力国产芯片产业化
预计到 2024 年,所有服务器全部到位时,AIDC 国产化的硬件比例将超过 50%。

商汤为什么要建 AI 计算中心
文章插图
人工智能是软件硬件一体化的产业进程,芯片厂商也需要拥有解决软件适配问题的能力。而商汤搭建的 AI 基础设施的综合角色,可以使其在硬件、软件、应用的产业链上起到重要的沟通的作用。
作为 AI 基础通用设施,本身就包含了硬件层、平台层以及软件系统,同时连接着下游应用厂商。商汤与硬件、芯片厂商做适配,拉通应用侧需求的同时,也帮助节约其研发费用和时间成本。「整体上,加速了他们的市场化进程,帮助降低整体成本。」杨帆说。
除了促进国产芯片的市场化进行,商汤也正在探索从芯片、服务器、训练框架、算法到行业落地的 AI 生态。
2021 世界人工智能大会上,商汤与中国电子技术标准化研究院、中国信息通信研究院、清华大学、复旦大学、上海交通大学及多个行业伙伴共同成立了「人工智能算力产业生态联盟」。整个生态的探索分为前、中、后期。
杨帆介绍,在前期,配合芯片设计和流片的节奏,商汤定期组织深度闭门研讨会,让来自硬件设计、软件设计、计算等不同领域的专家共同交流,「希望尽可能在最开始,通过讨论交流,对于软硬件的边界,形成一个足够标准、通用的接口层的定义。」目的是在之后的软件和硬件迭代中减少无用功,降低成本。
在中期,在国产芯片适配完成,投入 AIDC 运营之后,商汤将扮演评估的角色,与中国电子技术标准化研究院(工业和信息化部电子第四研究院)建立「CESI-SenseTime 人工智能算力及芯片评测联合实验室」。实验室开展人工智能算力和芯片标准制定、人工智能芯片测评工具开发,提供人工智能计算中心、芯片测试验证服务和人才培训等支持。「这个实验室未来将成为一个测评机构,对每一款国产芯片的 AI 服务器,我们会提供一个相对中立的、第三方的,更加权威的评估评测。」
在长期看来,商汤也会把尽可能把优质的 AI 芯片及其服务器,导入整合到自己的解决方案,以及合作伙伴的解决方案中。
从技术创新的原点出发,到最终成为客户价值,中间包括了许多环节。从一个研究前沿算法的团队起家到亚洲最大的 AI 软件公司,历经七年,商汤积累了许多经验。
如何在技术持续创新、高速迭代的环境下,持续做技术产业化和商业化?杨帆总结,「在推动创新产业化这件事上,我们内部有大量的积累和沉淀」,这是属于商汤的「过程性资产」。当将技术创新到产生客户价值的周期不断缩短,甚至短至三四个月,「我觉得这是商汤今天某种意义上,对行业或产业而言,更大的一个核心竞争力所在。」